Ex- funcionários acusam Meta e TikTok de fecharam os olhos a conteúdos tóxicos para crescer

Plataformas estariam conscientes de que conteúdos que provocam indignação — como teorias da conspiração, misoginia ou discursos polarizadores — tendem a gerar mais interação e tempo de permanência

Francisco Laranjeira

Vários denunciantes e antigos funcionários das grandes plataformas digitais afirmam que empresas de redes sociais tomaram decisões que acabaram por favorecer a presença de conteúdos potencialmente nocivos nos feeds dos utilizadores. A investigação foi divulgada pela ‘BBC’, que recolheu testemunhos de mais de uma dezena de funcionários e ex-colaboradores de empresas como Meta e TikTok.

Segundo esses relatos, as plataformas estariam conscientes de que conteúdos que provocam indignação — como teorias da conspiração, misoginia ou discursos polarizadores — tendem a gerar mais interação e tempo de permanência nas aplicações. Essa dinâmica, afirmam os denunciantes, levou algumas empresas a aceitar maiores riscos para a segurança dos utilizadores enquanto disputavam a atenção do público.

Um engenheiro da Meta, empresa proprietária do Facebook e do Instagram, relatou que equipas técnicas foram instruídas a permitir maior presença de conteúdos considerados “limítrofes” nos feeds dos utilizadores. Esse tipo de publicações pode incluir material prejudicial mas que não viola diretamente as regras da plataforma, como conteúdos conspirativos ou discriminatórios.

O antigo investigador da Meta Matt Motyl afirmou que a empresa lançou o Instagram Reels em 2020 para competir com o crescimento do TikTok, mas sem salvaguardas suficientes. Documentos internos analisados indicariam que os comentários em publicações do Reels apresentavam níveis significativamente mais elevados de assédio, discurso de ódio e incitamento à violência do que outras áreas da rede social.

Ao mesmo tempo, segundo testemunhos de ex-funcionários, a expansão do Reels recebeu recursos substanciais dentro da empresa. Enquanto centenas de trabalhadores foram contratados para desenvolver a funcionalidade, pedidos de reforço de equipas dedicadas à proteção de menores ou à integridade eleitoral teriam sido recusados.

Continue a ler após a publicidade

Investigadores internos também alertaram para problemas associados ao funcionamento dos algoritmos. Estudos citados na reportagem indicariam que os sistemas de recomendação poderiam incentivar criadores de conteúdo a seguir estratégias que maximizassem a atenção dos utilizadores, mesmo quando isso prejudicava o bem-estar do público.

Outro antigo engenheiro que trabalhou no desenvolvimento do algoritmo de recomendação do TikTok afirmou que os sistemas de inteligência artificial funcionam como uma espécie de “caixa-preta”, cujo funcionamento interno é difícil de analisar completamente. Segundo ele, os engenheiros que trabalham na infraestrutura tecnológica nem sempre têm controlo direto sobre o tipo de conteúdos que acabam por ser promovidos.

O algoritmo, explicou, analisa essencialmente padrões de interação dos utilizadores e não o conteúdo em si. Na prática, as publicações são tratadas como identificadores numéricos e o sistema decide promovê-las ou não com base nas reações que geram.

Continue a ler após a publicidade

Ainda assim, alguns trabalhadores dizem ter observado um aumento gradual de conteúdos problemáticos recomendados aos utilizadores à medida que as empresas tentavam melhorar o desempenho dos algoritmos e aumentar o tempo de utilização das aplicações.

A reportagem também inclui relatos de jovens utilizadores que afirmam continuar a receber recomendações de conteúdos violentos ou de ódio mesmo depois de indicarem às plataformas que não desejam ver esse tipo de material.

Um desses casos envolve um jovem britânico que afirma ter sido “radicalizado pelo algoritmo” durante a adolescência, depois de consumir repetidamente vídeos que alimentavam sentimentos de revolta e promoviam ideias racistas e misóginas.

Especialistas em contraterrorismo no Reino Unido indicam que têm observado uma crescente normalização de conteúdos extremistas nas redes sociais, incluindo publicações antissemitas, racistas ou violentas.

Alguns denunciantes também levantaram preocupações sobre a forma como as empresas gerem as denúncias feitas pelos utilizadores. Um funcionário da equipa de confiança e segurança do TikTok afirmou que certos casos envolvendo figuras políticas recebiam prioridade na análise interna, enquanto denúncias relacionadas com menores ou assédio online demoravam mais tempo a ser avaliadas.

Continue a ler após a publicidade

Segundo esse trabalhador, a prioridade dada a casos políticos estaria relacionada com a necessidade de manter boas relações com governos e evitar regulações ou possíveis proibições da aplicação.

A ‘BBC’ indica que as empresas rejeitam estas acusações. A Meta afirmou que é falso que amplifique deliberadamente conteúdos prejudiciais para obter ganhos financeiros e garante ter investido significativamente em segurança e proteção dos utilizadores. Já o TikTok declarou que as críticas apresentadas na reportagem distorcem a forma como os seus sistemas de moderação funcionam e afirma possuir políticas rigorosas para impedir a circulação de conteúdos nocivos.

Apesar dessas garantias, especialistas e legisladores continuam a alertar para os riscos associados à crescente dependência de algoritmos para selecionar a informação que milhões de pessoas veem diariamente nas redes sociais. Para muitos analistas, o desafio será encontrar um equilíbrio entre inovação tecnológica, liberdade de expressão e proteção dos utilizadores num ambiente digital cada vez mais dominado por sistemas automatizados.

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.