Relatório interno revela que Facebook só remove, no máximo, 5% dos conteúdos de ódio

Depois de uma ex-funcionária ter afirmado que o Facebook sacrificava o combate contras as publicações de ódio em nome do lucro, a rede social veio a público sublinhar que o sistema de inteligência artificial (IA) utilizado pela empresa é responsável por eliminar este tipo de conteúdos. Agora, uma investigação do ‘Wall Street Journal’ revela que afinal este mecanismo não é assim tão eficaz.

Segundo um relatório elaborado por um grupo de engenheiros seniores do Facebook, o sistema IA só conseguiu remover 2% das “publicações promotoras de ódio”. Outro documento de igual natureza e fonte aumentou esta taxa para um intervalo compreendido entre os 3% e os 5%.

No que toca às publicações que “apenas violam as regras da política do Facebook em matéria de violência”, o segundo estudo acrescenta que este mecanismo só consegue eliminar 0,6% do ‘posts’.

Estes números são confrontados pelo diário nova iorquino com as palavras proferidas pelo CEO do Facebook, Mark Zuckerberg, há dois anos: “a grande maioria do conteúdo impróprio pode ser removido pela IA”. Um relatório publicado pela empresa em fevereiro anunciou que a taxa de deteção deste mecanismo estava acima dos 97%.

“Muitas das acusações não fazem sentido”, defende Mark Zuckerberg

Há quase duas semanas, o diretor executivo e co-fundador do Facebook, Mark Zuckerberg, defendeu a empresa das acusações de uma denunciante que disse ao Congresso dos EUA que o gigante das redes sociais dá prioridade aos lucros em detrimento da segurança.

“No cerne destas acusações está a ideia de que damos prioridade aos lucros em detrimento da segurança e bem-estar. Isto simplesmente não é verdade”, disse Mark Zuckerberg num longo ‘post’ na sua página do Facebook.

O chefe do Facebook também disse que “muitas das acusações não fazem sentido” e que não reconhece “o falso quadro da empresa que está a ser pintado”.

“O argumento de que promovemos deliberadamente conteúdos que enfurecem as pessoas para obterem lucro é ilógico. Ganhamos dinheiro com a publicidade e o que os anunciantes nos dizem constantemente é que não querem que os seus anúncios apareçam ao lado de conteúdos que sejam prejudiciais ou que gerem raiva”, frisou.

No seu testemunho no Senado, a ex-funcionária France Haugen pintou um retrato impiedoso da empresa, afirmando que durante o seu tempo de trabalho no Senado se percebeu de uma “verdade devastadora”: o Facebook retém informações do público e dos governos.

“Os documentos que forneci ao Congresso provam que o Facebook enganou repetidamente o público acerca do que a sua própria investigação revela sobre a segurança das crianças, a eficácia da sua inteligência artificial, e o seu papel na divulgação de mensagens divisórias e extremistas”, afirmou.

Haugen, que anteriormente divulgou documentos internos da empresa ao ‘The Wall Street Journal’, disse que o Facebook esconde que as suas plataformas são prejudiciais para as crianças, fomentam a divisão social e minam a democracia.