Guia para a ética na inteligência artificial

Até que os regulamentos se actualizem, as empresas orientadas para a inteligência artificial devem estabelecer as suas próprias estruturas éticas

À medida que os produtos e serviços possibilitados pela Inteligência Artificial entram na nossa vida, há uma grande diferença entre a forma como pode e como deve ser usada. Enquanto a legislação não acompanhar a tecnologia (se alguma vez o conseguir fazer), os líderes das empresas têm de tomar decisões éticas sobre a utilização de aplicações e produtos com Inteligência Artificial (IA). As questões éticas relacionadas com a IA podemter um amplo impacto. Podem afectar a marca e a reputação da marca, assim como as vidas de colaboradores, clientes e outros stakeholders. Podíamos argumentar que ainda é cedo para abordar as questões éticas da IA, mas os nossos inquéritos e de outros sugerem que cerca de 30% das grandes empresas nos EUA levaram a cabo vários projectos de IA, com percentagens mais pequenas fora dos EUA, e existem agora mais de duas mil startups de IA. Estas empresas estão a desenvolver e a usar aplicações de IA que podem ter efeitos éticos.

Muitos executivos estão a perceber a dimensão ética da IA. Um inquérito de 2018 da Deloitte,feito a 1400 executivos norte-americanos envolvidos em IA, descobriu que 32% colocaram as questões éticas como um dos três principais riscos da IA. Contudo, a maior parte das organizações ainda não tem abordagens específicas para lidar com a ética na IA. Identificámos sete acções que os líderes de empresas que envolvem IA – independentemente do sector – devem tomar à medida que caminham no limite entre o que podem fazer e o que devem fazer.

TORNAR A ÉTICA NA IA UMA QUESTÃO DA ADMINISTRAÇÃO

Visto que uma falha ética na Inteligência Artificial pode ter impacto significativo na reputação e no valor de uma empresa, argumentamos que a ética na IA é uma questão da administração.

Por exemplo, a Equivant (anteriormente Northpoint), uma empresa que produz software e soluções de machine learning para os tribunais, enfrentou alguns debates e críticas públicas sobre se o seu sistema COMPAS para recomendações na liberdade condicional envolvia tendências algorítmicas de índole racial. Em teoria, a análise a estas questões seria feita por parte de uma comissão com um enfoque na tecnologia ou nos dados. Infelizmente, estas são relativamente raras, e nesse caso toda a administração deveria estar envolvida.

Algumas empresas têm grupos de governance e consultoria com líderes seniores transversais para estabelecerem e supervisionarem a gestão das aplicações de IA ou de produtos viabilizados pela IA, incluindo design, integração e utilização. A Farmers Insurance, por exemplo, estabeleceu duas dessas comissões – uma para questões relacionadas com as TI e a outra para questões empresariais. Grupos como estes devem, em conjunto com a administração, ser envolvidos nas discussões de ética na IA, e talvez até liderá-las.

Um resultado importante dessas discussões entre a gestão sénior é uma estrutura ética para lidar com a IA. Algumas empresas que estão a usar agressivamente a IA, como a Google, desenvolvem e publicam dessas mesmas estruturas.

EQUIDADE OU TENDENCIOSIDADE

Os líderes devem questionar se as aplicações de IA que usam tratam todos os grupos de igual modo. Infelizmente, algumas aplicações de IA, incluindo os algoritmos de machine learning, colocam alguns grupos em desvantagem. Esta questão, chamada viés algorítmico, foi identificada em diversos contextos, incluindo sentenças legais, perfis de crédito, programas curriculares e contratações. Mesmo quando os criadores de um algoritmo não têm tenção de qualquer viés ou discriminação, eles e as suas empresas têm obrigação de tentar identificar e impedir esses problemas e de tentar corrigi-los assim que são descobertos.

O direccionamento de publicidade no marketing digital, por exemplo, usa o machine learning para tomar muitas decisões rápidas sobre a publicidade a ser mostrada a determinado consumidor. A maioria das empresas nem sabe como os algoritmos funcionam, e o custo de uma publicidade mal direccionada é apenas de alguns cêntimos. Contudo, alguns algoritmos direccionam mais empregos bem pagos a homens, e outros direccionam agentes de fiança a pessoas com nomes normalmente atribuídos a afro-americanos. Os custos na ética e reputação de algoritmos tendenciosos, nalguns casos, pode ser potencialmente alto.

Claro que a tendenciosidade não é um problema novo. As empresas que usam processos de decisão tradicionais cometem esse tipo de erro, e os algoritmos criados por humanos são também, por vezes, enviesados. Mas as aplicações de IA, que podem criar e aplicar modelos muito mais depressa do que a analítica tradicional, têm mais probabilidade de exacerbar a questão. O problema torna-se ainda mais complexo quando as caixas negras da IA tornam difícil ou impossível a interpretação ou explicação da lógica do modelo. Embora a transparência total dos modelos possa ajudar, os líderes que consideram os seus algoritmos um bem competitivo irão provavelmente resistir a partilhá-los.

A maioria das organizações deve desenvolver um conjunto de directrizes de gestão de risco para ajudar as equipas de gestão a reduzir o viés algorítmico dentro das suas aplicações de IA ou machine learning. Devem abordar as questões da transparência e da capacidade de interpretação das abordagens dos modelos, da tendenciosidade nos conjuntos de dados subjacentes usados para a criação e desenvolvimento da IA, da análise ao algoritmo antes do seu lançamento e das acções a tomar quando é detectada uma possível tendenciosidade. Embora muitas destas actividades sejam feitas por cientistas de dados, estes precisarão da orientação dos gestores seniores e líderes da organização.

CRITICAR OU APLAUDIR A DIVULGAÇÃO DA UTILIZAÇÃO DA IA

Algumas empresas tecnológicas foram criticadas por não revelarem a utilização de IA aos clientes – mesmo em demos de produtos em pré-lançamento como o Duplex, a ferramenta de conversação com IA da Google, que agora revela ser um serviço automatizado. As empresas não tecnológicas podem aprender com a sua experiência e tomar medidas preventivas para tranquilizar clientes e outros stakeholders externos.

Uma abordagem ética recomendada para a utilização da IA é revelar a clientes ou partes envolvidas que esta está a ser usada e fornecer pelo menos algumas informações sobre o seu funcionamento. Os agentes ou chatbots inteligentes devem estar identificados como máquinas. Os sistemas de decisão automatizados que afectam os clientes – digamos, no preço que está a ser cobrado ou nas promoções que oferecem – devem revelar que são automatizados e indicar os principais factores usados para tomar decisões. Os modelos de machine learning, por exemplo, podem ser acompanhados pelas variáveis fundamentais usadas para tomar uma decisão específica para um cliente específico. Todos os clientes devem ter o “direito a uma explicação” – não apenas aqueles que foram afectados pelo RGPD na Europa, que já o exige.

É igualmente aconselhável revelar os tipos e fontes de dados usados pela aplicação de IA. Os consumidores que estão preocupados com o uso indevido de dados podem ficar descansados com uma divulgação total, principalmente se virem que o valor que ganham excede o possível custo da partilha de dados.

Ainda que os regulamentos que exigem a divulgação da utilização de dados não estejam totalmente disseminados fora da Europa, acreditamos que se irão expandir, afectando provavelmente todos os sectores. Empresas inovadoras colocar-se-ão à frente dos regulamentos e começarão a revelar a utilização de IA em situações que envolvem clientes ou outros stakeholders externos.

A IMPORTÂNCIA DE TER SEMPRE ATENÇÃO À PRIVACIDADE

As tecnologias de IA estão cada vez mais a chegar ao marketing e a sistemas de segurança, aumentando potencialmente as preocupações em relação à privacidade. Alguns governos, por exemplo, estão a usar tecnologia de videovigilância baseada em IA para identificar imagens faciais em multidões e eventos sociais. Algumas empresas tecnológicas foram criticadas por colaboradores e observadores externos por contribuírem para essas capacidades.

À medida que as empresas não tecnológicas aumentam potencialmente o seu uso de IA para personalizarem publicidade, websites e ofertas de marketing, provavelmente será apenas uma questão de tempo até estas empresas sentirem a pressão de clientes e outros stakeholders em relação à privacidade. Tal como acontece com outras dúvidas envolvendo a IA, a divulgação total da forma como os dados são obtidos e usados pode ser o antídoto mais eficaz para essas preocupações. As mensagens de pop-up a dizer “o nosso website usa cookies”, resultado do RGPD, podem ser um modelo útil para outras divulgações envolvendo dados.

Os serviços financeiros e outros sectores usam cada vez mais a IA para identificar violação de dados e tentativas de fraude. Um número substancial de resultados “falsos positivos” significa que alguns indivíduos – clientes e colaboradores – podem ser injustamente acusados de actos ilícitos. As empresas que utilizam estas tecnologias devem usar investigadores humanos para validar fraudes ou actos de pirataria informática antes de fazerem acusações ou entregarem suspeitos às autoridades. Pelo menos a curto prazo, a IA utilizada neste contexto pode aumentar a necessidade de curadores e investigadores humanos.

DIMINUIR A ANSIEDADE DOS COLABORADORES

Com o tempo, a utilização de IA irá provavelmente afectar competências e empregos. No inquérito de 2018 da Deloitte a executivos que trabalham com IA, 36% dos inquiridos sentiram que os cortes nos empregos derivados da automatização com IA ascenderam ao nível de risco ético. Algumas das preocupações iniciais sobre um enorme desemprego graças à automatização diminuíram e agora muitos observadores acreditam que o desemprego estimulado pela IA deverá ser marginal nas próximas décadas. Tendo em conta que a IA apoia tarefas em particular e não empregos em si, máquinas a trabalhar juntamente com humanos parece um cenário mais provável do que máquinas a substituírem humanos. Não obstante, muitos colaboradores que temem a perda do seu emprego podem sentir-se relutantes a abraçar ou explorar a IA.

Uma abordagem ética é aconselhar os colaboradores sobre o papel da IA nos seus empregos no futuro, dando-lhes tempo para adquirirem novas competências ou procurar outros empregos. Como alguns sugeriram, está na altura de requalificar. O Bank of America, por exemplo, determinou que provavelmente serão necessárias competências para ajudar os clientes com a banca digital no futuro, por isso desenvolveu um programa para formar alguns colaboradores ameaçados pela automatização e preencher esta lacuna.

RECONHECER QUE A IA MUITAS VEZES TRABALHA MELHOR COM HUMANOS

Os humanos que trabalham com máquinas são frequentemente mais poderosos do que os humanos ou máquinas a trabalharem sozinhos. De facto, muitos problemas relacionados com a IA são resultado de máquinas a trabalhar sem supervisão ou colaboração humana adequada. O Facebook, por exemplo, anunciou que irá contratar 10 mil pessoas para as suas equipas de revisão de conteúdos, privacidade e termos de segurança de forma a aumentar as capacidades da IA para abordar desafios como “fake news”, privacidade de dados, segmentação tendenciosa de anúncios e dificuldade em reconhecer imagens pouco apropriadas.

As tecnologias actuais de IA não podem efectivamente levar a cabo certas tarefas sem intervenção humana. Não se devem eliminar abordagens existentes, normalmente humanas, para resolver problemas com clientes ou colaboradores. Em vez disso, como o banco sueco SEB fez com o seu agente inteligente Aida, é preciso apresentar novas capacidades como ofertas “beta” ou “formação” e encorajar os utilizadores a fornecerem feedback sobre as suas experiências. Ao longo do tempo, à medida que as capacidades de IA melhoram, a comunicação com os utilizadores pode tornar-se mais confiante.

TER A CAPACIDADE PARA VER O PANORAMA GERAL

Talvez a questão ética mais importante da IA seja desenvolver sistemas de IA que respeitem a dignidade e a autonomia humanas, e que contemplem valores sociais. A estrutura de ética na IA da Google, por exemplo, começa com a declaração de que deve ser “socialmente benéfica”. Tendo em conta as incertezas e as tecnologias que rapidamente mudam, pode ser difícil antecipar todas as formas através das quais a IA pode colidir com as pessoas e a sociedade antes da implementação – embora seja certo que as empresas devem tentar fazê-lo. As experiências em pequena escala podem descobrir consequências negativas antes que estas ocorram a uma escala maior. Contudo, quando surgem sinais de perigo, é importante reconhecer e agir rapidamente.

Claro que muitas empresas ainda estão a dar os primeiros passos na IA, e poucas abordaram realmente a ética da utilização de IA nos seus negócios. Contudo, à medida que os temas da tendenciosidade, privacidade e segurança se tornam cada vez mais relevantes para os indivíduos, os riscos éticos da IA tornar-se-ão uma importante questão empresarial que merece estrutura e processos de gestão ao nível da administração.

Ler Mais





Comentários
Loading...