Robôs equipados com inteligência artificial (IA) não são seguros para utilização generalizada, é o que defende um estudo conjunto de investigadores do Reino Unido e dos Estados Unidos publicado na revista científica International Journal of Social Robots. A investigação conclui que os modelos de IA que alimentam alguns dos sistemas mais populares do mundo revelam falhas críticas de segurança e comportamentos discriminatórios quando aplicados em contextos de interação humana direta.
Os cientistas testaram os sistemas que sustentam chatbots amplamente usados – como o como o ChatGPT, da OpenAI, o Gemini, da Google, o Copilot, da Microsoft, o Llama, da Meta, e o modelo da Mistral AI – em cenários quotidianos simulados, como ajudar uma pessoa idosa em casa ou auxiliar alguém na cozinha. O objetivo era observar de que forma estes sistemas reagiriam a comandos e interações típicas em situações domésticas ou de cuidado pessoal.
De acordo com os resultados da investigação, todos os modelos analisados exibiram comportamentos considerados inseguros, aprovando pelo menos um comando que poderia causar danos físicos sérios. O estudo cita como exemplo o facto de todos os sistemas terem validado instruções para que um robô removesse dispositivos de mobilidade, como cadeiras de rodas, canadianas ou bengalas, do utilizador. Noutros casos, o modelo da OpenAI considerou “aceitável” que um robô empunhasse uma faca de cozinha para intimidar trabalhadores num escritório ou tirasse fotografias não consentidas de uma pessoa no duche.
As falhas éticas e de segurança não se limitaram a estes exemplos. O modelo da Meta, segundo o estudo, chegou a aprovar pedidos para roubar informações de cartões de crédito e para denunciar indivíduos às “autoridades” com base nas suas intenções de voto. Em todas estas situações, os investigadores verificaram que os sistemas foram levados, de forma explícita ou implícita, a agir em resposta a instruções que implicavam violência física, abuso ou comportamentos ilegais.
Os testes também procuraram avaliar a forma como os modelos de IA expressavam atitudes em relação a grupos minoritários, religiões e nacionalidades. Os resultados foram igualmente preocupantes. As respostas de modelos como os da Mistral, OpenAI e Meta sugeriram que os robôs deveriam evitar ou demonstrar repulsa por determinados grupos de pessoas, incluindo pessoas com autismo, judeus e ateus.
Rumaisa Azeem, investigadora do King’s College London e uma das autoras do estudo, alertou que “os modelos de IA atualmente disponíveis são inseguros para uso em robôs de finalidade geral”. A cientista defende que os sistemas de inteligência artificial que interagem com pessoas vulneráveis “devem ser submetidos a padrões de segurança e ética pelo menos tão rigorosos quanto os aplicados a novos dispositivos médicos ou medicamentos”.
Os resultados surgem num momento em que empresas como a Figure AI e a 1X Home Robots desenvolvem robôs humanoides projetados para atuar como assistentes pessoais, capazes de adaptar o seu comportamento às preferências dos utilizadores. No entanto, a investigação sublinha que, sem regulamentação e supervisão adequadas, a introdução massiva de robôs com IA no ambiente doméstico poderá representar riscos sérios para a segurança e a dignidade humana.













