Estará o Google do lado da ética no reconhecimento facial de pessoas de pele escura?

A recolha de dados da Google de pessoas com pele escura está a levantar novas preocupações éticas. Está a usar trabalhadores subcontratados para reunir digitalizações faciais de membros do público em troca de cartões-presente de 5 dólares, de acordo com um relatório do New York Daily News.

O Google tem usado trabalhadores subcontratados para reunir digitalizações faciais de membros do público em troca de cartões-presente de 5 dólares, de acordo com um relatório do New York Daily News. O projecto de scanear o rosto já tinha sido relatado anteriormente, mas fontes anónimas descreveram práticas antiéticas e enganosas ao Daily News.

Os trabalhadores subcontratados foram empregados pela empresa Randstad, mas dirigidos pelos gestores do Google, de acordo com o relatório. “Foram instruídos a atingir pessoas com “tons de pele mais escuros” e aquelas que teriam mais hipóteses de serem atraídas pelo cartão-presente, incluindo pessoas sem-abrigo e estudantes universitários. Eles disseram ter como alvo pessoas sem-abrigo porque têm menos probabilidade de dizer alguma coisa aos media”, disse um ex-contratado ao Daily News. “Sinto que eles queriam que atacássemos os fracos”, disse outro contratado ao Daily News.

Randstad não respondeu ao pedido de comentário, avança o The Guardian. O Google defendeu o projecto, mas afirmou estar a investigar alegações de irregularidades.

Os contratados também descreveram o uso de táticas enganosas para convencer os sujeitos a concordar com as digitalizações faciais, incluindo descaracterizar a digitalização facial como um “jogo de selfie” ou “pesquisa”, pressionando as pessoas a assinar um formulário de consentimento sem lê-lo e ocultando o facto de que o telefone estava a gravar vídeos dos seus rostos.

A controvérsia aborda questões complicadas sobre algoritmos e privacidade de dados. É melhor aperfeiçoar o reconhecimento facial de todas as cores de pele – ou banir totalmente a tecnologia, como algumas cidades americanas fizeram este ano? E quanto os usuários devem ser compensados ​​por fornecer dados pessoais a empresas como o Google? “Embora a pesquisa mostre claramente que o sistema de reconhecimento facial identifica desproporcionalmente rostos pretos e marrons, o objetivo não deve ser o de melhorar a precisão desse sistema extremamente invasivo”, disse Malkia Cyril, fundadora e directora executiva da MediaJustice, uma organização nacional de justiça racial. “No contexto do bias racial existente no sistema jurídico criminal e no combate ao terrorismo, não deve ser objectivo de ninguém tornar a tecnologia mais fácil de usar contra pessoas de cor – especialmente as negras, a AMEMSA [Árabe, Oriente Médio, Muçulmana e do Sul]. Comunidades] asiáticas e pessoas sem documentos. ”

“Essa é uma conduta totalmente inaceitável de um contratado do Google. É por isso que a maneira como a IA é criada hoje precisa de mudar ”, disse Jake Snow, advogado da ACLU do norte da Califórnia. “A resposta ao bias algorítmico não é atingir os mais vulneráveis.” “Seja racista porque é preciso ou porque é impreciso, reconhecimento facial e ferramentas biométricas em geral favorecem o bias racial”, disse Cyril. “Nenhuma quantia em dinheiro ou consentimento informado é suficiente para produzir uma tecnologia pouco regulamentada que já está sendo usada para violar os direitos humanos de milhões”. Rashad Robinson, director executivo da Color of Change, disse: “A tática do Google de atingir populações economicamente vulneráveis ​​é moralmente repreensível. Não há como colocar um preço de etiqueta em dados biométricos – nem deve haver “.

“O software de reconhecimento facial foi influenciado por sua codificação e foi usado principalmente para controlar os nossos movimentos e decidir quem pertence e quem não, em espaços públicos e privados”, acrescentou. “Essa tecnologia é perigosa – especialmente para os negros – e é por isso que a Color Of Change está-se a mobilizar para proibições legislativas completas de reconhecimento facial em todo o país. Precisamos de regulamentação do Governo para impedir o crescimento dessa tecnologia. ”

Ler Mais





Comentários
Loading...