2024 será um ano crucial para a regulamentação da Inteligência Artificial

Por: Mike Beckley, Fast Company

Uma das maiores é: como regulamos a IA? Com esta pergunta surgem outras, como, por exemplo, como garantimos que a IA é segura e protegida, além de exacta e responsável? Como é que as leis e a legislação actuais e futuras irão regular uma tecnologia que ainda estamos a testar e com a qual aprendemos diariamente?
No mês passado, a Meta, a OpenAI, a Microsoft e a Google, bem como outras intervenientes importantes, assinaram um acordo com a Casa Branca com a promessa de investir numa IA mais responsável e, pouco tempo depois, várias destas empresas formaram uma coligação industrial denominada Frontier Model Forum. O objectivo é “promover a utilização segura e responsável de sistemas de IA inovadores”.

Grandes nomes, pequenas promessas
Os EUA estão muito atrasados relativamente à União Europeia, e as manobras publicitárias não os vão ajudar a recuperar o atraso. Há apenas dois meses, os líderes da UE aprovaram um projecto de lei conhecido como Lei da IA. Esta lei impõe novas restrições a casos de utilização “arriscados” e exige que empresas como a OpenAI revelem como os dados são utilizados para criar os seus programas. Se for aprovada, a Lei da IA será a primeira lei importante a regulamentar a inteligência artificial.
Nos Estados Unidos da América são lançados planos e declarações, mas nada é obrigatório ou vinculativo. Caso não tenha visto, em Outubro de 2022, a Casa Branca lançou a sua Declaração de Direitos de IA. O conjunto de directrizes foi criado para incentivar as empresas a “criar e implantar a IA de forma mais responsável e limitar a vigilância baseada em IA”. Os próximos tópicos de discussão provavelmente serão se veremos a proibição de certas aplicações, ou se veremos uma legislação para a tecnologia mais abrangente.

Como alguém que está diariamente na linha da frente, penso que a Declaração de Direitos da IA não compreende o objectivo. Antes de podermos pôr as coisas no papel, temos de reconhecer que as grandes empresas tecnológicas são o problema, não a solução.
O que nos leva a outra questão. As empresas maiores recebem mais manchetes e lugares à mesa quando ocorrem discussões como a regulamentação da IA. Então e as startups e empresas mais pequenas que também se encontram no espaço da IA com aplicações e plataformas? Como as incluímos na discussão para garantir que têm voz activa quando se trata de regulamentação? É mais do que justo, uma vez que terão de enfrentar o mesmo escrutínio que as empresas maiores.
Francamente, não podemos perder mais tempo para aprovar uma regulamentação abrangente de IA nos EUA. Se 2023 é o Ano da IA, então 2024 precisa de ser o Ano da Regulamentação da IA. Empresas grandes e pequenas devem ser responsabilizadas pelos órgãos governamentais por fazerem mais do que apenas algumas alterações. Todos precisamos de nos responsabilizar mutuamente e de dar o exemplo.

Embora não haja um consenso sobre como a regulamentação deve ser tratada e oficialmente implementada nos EUA, é justo dizer que todos queremos uma legislação tecnológica abrangente e uma lei federal de privacidade. Alguns estados avançaram e aprovaram as suas próprias leis, por exemplo, a Lei da Privacidade da Informação Biométrica no Illinois, mas esta só é aplicável a nível estadual. Como vamos fazer cumprir estas leis e, talvez mais importante, quem as fará cumprir? Os EUA terão coimas pesadas como a UE?
À medida que entramos no último trimestre do ano, há muitos marcos e momentos a aguardar e, apesar do medo e da preocupação em torno da regulamentação da IA, não devemos descartar as oportunidades interessantes que esta apresenta. As empresas dos EUA e de todo o mundo introduziram plataformas e iniciativas de ponta para transformar as suas indústrias e sectores. Só precisamos de ajudar todas as pessoas a compreenderem e a aperfeiçoarem as criações de IA para garantir um impacto duradouro.