A verdade e o deepfake

Opinião de Nick Pickles, Chief Policy Officer da Tools for Humanity

Executive Digest

Por Nick Pickles, Chief Policy Officer da Tools for Humanity

No último ano, muitas pessoas começaram a experimentar produtos de Inteligência Artificial (IA), seja para resumir documentos, fazer pesquisas ou simplesmente para criar imagens e vídeos para partilhar com amigos. Estas ferramentas tornaram-se cada vez mais comuns no dia a dia, em milhares de aplicações e serviços, mas são apenas o primeiro passo da inteligência artificial nesta que é quarta revolução industrial.



O ano de 2025 ficará marcado como o momento em que os agentes de IA passaram a fazer parte do nosso quotidiano e, possivelmente, a primeira vez em que a inteligência artificial começou a realizar tarefas complexas que envolvem interagir com serviços.

Até agora, a tecnologia tem sido uma ferramenta que usamos para facilitar a vida – seja para comunicar com outras pessoas, fazer compras online ou utilizar serviços no trabalho. Mas, hoje, os agentes de IA representam uma mudança radical na forma como interagimos com o mundo digital.

Até hoje, fomos nós a controlar os cliques e as teclas que determinam como os serviços e as plataformas respondem. Com os agentes de IA, estas ações passarão a ser executadas por eles. Vamos assistir ao cursor a mover-se pelo ecrã, a palavras a serem digitadas e a compras a serem feitas – sem precisarmos de tocar no teclado ou no rato. Bastará apenas darmos as instruções iniciais, seja para marcar férias ou desenvolver um software.

Estes agentes serão altamente sofisticados, acessíveis a todos e terão diferentes níveis de controlo. Como acontece com qualquer tecnologia, haverá quem os utilize para benefício da sociedade e quem os explore para proveito próprio. Os agentes de IA vão transformar o mercado de trabalho, os serviços comerciais e a forma como interagimos online – para melhor e para pior.

Por um lado, no que toca à proteção do consumidor, estas questões não são novas. No entanto, a tecnologia exige uma resposta completamente diferente, sobretudo porque a sua escalabilidade é parte da transformação – uma única pessoa pode ter milhares, até centenas de milhares, de agentes de IA a trabalhar para si. Uma empresa pode até ter apenas uma pessoa e um conjunto de agentes de IA. E isso já está a acontecer – algumas das maiores tecnológicas do mundo começaram a congelar contratações para certas funções, prevendo que estes agentes as substituirão.

Torna-se cada vez mais evidente que, para responder a esta transformação, é essencial distinguir humanos de entidades de IA, um fator fundamental para garantir confiança e proteção online.

Quer o leitor esteja a usar uma aplicação de encontros e queira garantir que está a falar com uma pessoa real, quer seja um músico que quer assegurar que os bilhetes são comprados por verdadeiros fãs e não por revendedores oportunistas, ou um banco que

precisa de evitar que contas sejam abertas por burlões, saber que estamos a lidar com uma pessoa real é agora mais importante do que nunca. Até para os governos, garantir que quem marca uma consulta ou regista um documento oficial é, de facto, um ser humano tornou-se essencial, para evitar que os agentes de IA contornem os mecanismos de segurança e passem nos processos de verificação com documentos gerados digitalmente.

Grande parte desta questão não será resolvida apenas com regulamentação – será necessário colaboração, investimento em tecnologia e a consciência de que as soluções que funcionaram nos últimos 20 anos da internet já não chegam para responder aos desafios da era da IA.

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.