IA para o bem comum: Transparência, sustentabilidade e confiança

Por Sandra Fazenda de Almeida, Diretora Executiva da APDC – Associação Portuguesa para o Desenvolvimento das Comunicações

A nossa relação com a inteligência artificial (IA) pode ser comparada a uma relação humana. De início, vivemos a fase do namoro: ficamos deslumbrados com as capacidades extraordinárias da IA e maravilhados pelos seus feitos e promessas. Aqui, ainda estamos a descobrir o seu potencial e as possibilidades que oferece, enquanto relegamos para segundo plano as preocupações e enviesamentos que já começaram a emergir.

Depois, chega a pressão para passarmos à fase do casamento, com a adoção acelerada da IA para aumentar a produtividade e libertar-nos para tarefas mais humanas, que nos trazem mais prazer e realização. Mas, como em qualquer relação, surgem os desafios. É precisamente para evitar um “divórcio” precoce – fruto dos desajustamentos entre expectativas e realidade – que a regulação entra em cena, desempenhando o papel de uma terapia de casal.

A regulação é o momento em que ajustamos as nossas expectativas, prevenimos potenciais problemas e asseguramos que a nossa relação com a IA traga benefícios mútuos e duradouros.

Foi com esta perspetiva que a APDC realizou o painel “IA para o Bem Comum: Transparência, Sustentabilidade e Confiança”, no âmbito da Iniciativa Portuguesa do Fórum da Governação da Internet 2024. Um dos principais pontos destacados foi o papel dos dados de treino na perpetuação de vieses em sistemas de IA. Embora os sistemas não sejam intrinsecamente discriminatórios, os dados com que são treinados podem gerar resultados injustos. Por isso, a seleção e o tratamento rigorosos dos dados são essenciais.

Outro ponto crítico foi o avanço dos modelos linguísticos, como os LLM (Large Language Models), que podem levar à aceitação acrítica dos seus resultados, comprometendo o pensamento crítico dos utilizadores. A solução apontada foi, inevitavelmente, o investimento em literacia digital e em IA, capacitando utilizadores a compreenderem e questionarem as decisões automatizadas.

A supervisão humana foi unanimemente considerada indispensável nos processos decisórios que envolvem a IA. “Ter um humano no loop” é, de forma unânime, o que assegura que as decisões éticas e ponderadas prevaleçam sobre os automatismos cegos das máquinas.

Unânime foi ainda a convicção de que é urgente definir e aprovar um modelo global de governação da IA, inspirado em boas práticas, para assegurar transparência, responsabilidade e ética na utilização da tecnologia. A confiança na IA, apontada como um dos pilares do seu sucesso, depende de sistemas transparentes, supervisão rigorosa e da aplicação consistente de princípios éticos. Sem esses elementos, corremos o risco de enfrentar impactos negativos significativos, tanto para os cidadãos quanto para os Estados.

Estamos ainda na fase de “namorar” a IA, mas este momento exige uma discussão madura sobre como queremos que esta relação evolua. Para que esta tecnologia disruptiva se torne uma aliada no bem comum, é fundamental construir confiança, através da transparência, assim como capacitar utilizadores com literacia digital e estabelecer mecanismos de supervisão humana.

O painel não apenas reforçou os desafios da IA, mas também iluminou o caminho para assegurar que esta tecnologia, poderosa e transformadora, seja utilizada para criar uma sociedade mais justa e sustentável!