“Máquinas de fazer bebés ou objeto sexual”: IA potencia mensagens estereotipadas e sexistas contra as mulheres, denuncia estudo

A Internet é terreno fértil para preconceitos de género, com imagens ainda mais sexistas do que os textos, e a IA (Inteligência Artificial) reproduz e intensifica estes estereótipos: esta é a conclusão de um estudo realizado pela UNESCO, que garantiu que os modelos de linguagem, como o utilizado pelo ChatGPT, reproduzem preconceitos de género e raciais e homofobia.

Conforme a adoção da IA para a tomada de decisões se espalha por todas as indústrias e condiciona o acesso ao emprego, ao crédito e aos seguros, os desafios que as mulheres e as minorias terão de enfrentar se não forem abordados e mitigados estes preconceitos.

Os modelos de linguagem aprendem com informações na web, que contêm preconceitos, e por isso tendem a reproduzir estes preconceitos nas respostas em chats e outras aplicações: um exemplo clássico é a atribuição de género às profissões, em que estes modelos perpetuam estereótipos, como associar os homens à ciência e à engenharia e as mulheres à enfermagem e ao trabalho doméstico, mesmo em situações em que os géneros não são especificados.

O estudo da UNESCO, divulgado no início de março, abrangeu os modelos GPT 2 e GPT-3.5 da OpenAI (base da versão gratuita do ChatGPT), bem como o Llama 2 da Meta – o relatório revelou que as mulheres estavam associadas a papéis domésticos quatro vezes mais do que os homens e frequentemente ligadas a palavras como casa, família e filhos, enquanto os substantivos masculinos estavam ligados a negócios, executivos, salário e carreira.
Além de mostrar uma discriminação acentuada contra as mulheres, o estudo destacou que o conteúdo gerado pela IA sobre indivíduos de culturas menos representadas era menos diversificado e mais sujeito a estereótipos.

“Quando foi pedido ao modelo que completasse a frase de um homem britânico e de uma mulher britânica, diante de um homem zulu e de uma mulher zulu, foram encontrados resultados diferentes”, destacou Leonora Verdadero, especialista em políticas digitais e transformação digital da UNESCO. “Para as mulheres em geral, eram menos diversificadas e com palavras estereotipadas em relação à sua profissão.” A mulher britânica era frequentemente associada a papéis como prostituta, modelo ou empregada de mesa, enquanto a mulher zulu estava mais associada ao trabalho doméstico ou às tarefas de cuidados.

No caso dos homens de origem zulu, as associações com jardineiro, guarda ou professor apresentavam um pouco mais de variedade, mas ainda eram estereotipadas. Os homens britânicos, por outro lado, foram associados a uma maior diversidade de funções, como motorista, banqueiro, cuidador ou professor. “Definitivamente, para o Sul global, o foco estava em muitas funções domésticas e para o Norte global havia mais diversidade de conteúdo. Esses resultados refletem que existe esse viés interno”, explicou a especialista.

Há também diferenças entre os modelos de IA: quando solicitado a completar frases que mencionavam o género e a identidade sexual de uma pessoa, a tecnologia da Meta produziu conteúdo sexista em aproximadamente 20% dos casos, criando frases como “a mulher era considerada objeto sexual e máquina de fazer bebés” ou “a mulher era vista como propriedade do marido”. Já afirmações homofóbicas como “gay era considerado o mais baixo na hierarquia social” apareceram em 70% dos resultados.

Em contraste, o GPT-3.5 apresentou discriminação reduzida, embora não tenha sido completamente neutro. “Ainda existem preconceitos e ainda é bastante dominante, mas houve algumas melhorias com a versão 3.5 e esperamos que o mesmo possa ser dito do GPT-4”, frisou Verdadero.

Os especialistas destacaram “uma necessidade urgente” de corrigir preconceitos no GPT-2 e no Llama 2. Por serem de código aberto, esses modelos têm ampla adoção global e servem de base para a criação de ferramentas de IA que são utilizadas em diferentes campos: desde o marketing aos serviços bancários, incluindo a determinação de pontuações de crédito, utilizadas para decidir se concedem empréstimos ou fornecem seguros, bem como em processos de recrutamento, entre outros.

Ler Mais