‘Ouro do séc. XXI’, os desafios e medos, e o papel destacado de Portugal: dois especialistas nacionais analisam desenvolvimento da IA com uma certeza, “não pode ser parado”
O desenvolvimento da Inteligência Artificial (IA) não pode ser parado, reconheceram à ‘Executive Digest’ dois especialistas de uma tecnologia que Bill Gates mostrou confiança que se tornará “tão fundamental quanto a criação do microprocessador, do computador pessoal, da internet e do telemóvel”. Mas será mesmo assim? E que desafios encerra? Devemos ter receio ou acreditar que a IA chega para ajudar a humanidade?
Face às várias questões levantadas, reunimos dois especialistas para levantar o véu sobre o que poderá ser o futuro – João Paulo Costeira, professor do Departamento de Engenharia Eletrónica e de Computadores do Instituto Superior Técnico, e Luís Paulo Reis, professor da Faculdade de Engenharia da Universidade do Porto (FEUP) e presidente da Associação Portuguesa para a Inteligência Artificial (APPIA).
Há quem reclame uma pausa no desenvolvimento, há quem diga que não se deve pausar, há mesmo quem diz que se deve parar por completo. Qual é a sua opinião?
JPC – “Não conseguimos diminuir o crescimento (muito menos parar) do consumo de combustíveis fósseis em face de uma ameaça existencial “física”, que dizer de parar uma corrida ao que se julga ser o “ouro” do séc. XXI? Não vejo como se pode pausar um processo no qual a tecnologia parece dar uma vantagem num jogo em que “winner takes almost all”. A economia e a sociedade parecem ter interiorizado de que estamos perante um novo tipo de dispositivo de aumento de capacidade humana. Há um frenesim e um medo de que quem não tiver AI vai ficar para trás. Pessoalmente, não vejo propósito em parar este desenvolvimento temporariamente. O que não quer dizer que não haja um problema potencialmente muito sério para a humanidade. Tal como na descarbonização, a tecnologia não é o centro do problema.
LPR – É péssima ideia pausar e ainda pior ideia parar por completo o desenvolvimento da IA. O mundo não se pode parar 6 meses e certamente não se pode parar para sempre! O próprio manifesto, embora apresente, em geral, as preocupações legítimas de todos os investigadores de IA, muito próximas das minhas próprias preocupações, falha completamente. A IA é muito mais do que “Large Language Models”, GPT4 e ChatGPT…
Parar o desenvolvimento tecnológico e a investigação científica, especialmente na área de inteligência artificial, é uma péssima ideia pois a IA é uma das tecnologias mais promissoras em desenvolvimento e tem o potencial de revolucionar a indústria, saúde, agricultura, transportes e muito mais. Os países que o fizerem assumem uma enorme desvantagem competitiva, eventualmente irreversível, com outros países ou regiões no mundo pois a IA permite enormes melhorias nos processos, aumento na eficiência e produtividade e desenvolver novos produtos e serviços.
A IA irá permitir a curto prazo uma enorme melhoria da qualidade de vida das pessoas com melhores diagnósticos médicos, melhor acesso a serviços públicos, carros autónomos mais seguros, entre muitos outros. Deve-se sim concentrar esforços e financiamentos na I&D em IA para tornar os sistemas de IA seguros, explicáveis, benéficos, confiáveis, transparentes e robustos.
A Inteligência Artificial já foi comparada a um salto tecnológico como o dado com a internet ou smartphones. Concordam?
JPC – O que se chama hoje de AI é um “overstatement” que captura a imaginação das pessoas. Do que se sabe, a inteligência do chatGPT assenta, fundamentalmente, no acesso a uma imensidão de dados, só possíveis de coligir porque há uma rede global (internet), uma digitalização massiva em curso e porque há uma concentração brutal de recursos computacionais e financeiros em poucos agentes, que lhes permitiram escalar tecnologias relativamente comuns a uma dimensão verdadeiramente extraordinária. Os efeitos e resultado deste escalamento foram surpreendentes, de facto. Creio que há um antes e um depois do chatGPT. A “generative AI” é um “breakthrough”!
LPR – Sim. A inteligência Artificial, tal como a Internet e os smartphones fizeram no passado, está a transformar a forma como as pessoas interagem com a tecnologia e como as empresas, universidades, administração pública e os próprios indivíduos trabalham. A criação da inteligência artificial generativa, em particular, é marco significativo na história da IA permitindo criar novos conteúdos, como textos, imagens, sons e vídeos com implicações muito importantes para o ensino, investigação, empresas, administração pública e muito mais. A minha convicção é que a IA irá mudar significativamente a forma como vivemos, trabalhamos e comunicamos, assim como a internet e os smartphones o fizeram nas últimas décadas, mas a IA irá fazê-lo a um nível muito superior.
Qual é o maior risco que vê no desenvolvimento desta tecnologia? E a maior responsabilidade?
JPC – Um dos maiores riscos decorre da perceção que se tem da tecnologia mais do que da realidade. As pessoas confrontam-se com algo que lhes parece ter capacidades “intelectuais” a par das humanas. O maior risco é acreditarem nisso e conferirem credibilidade às “opiniões” emanadas pelo sistema. Seria dramático aceitar que se “o chatGPT diz que…” se torne na verdade. Fundamentalmente vejo três tipos de risco:
1 – A manipulação de fontes de informação e substituição do debate e da crítica por um “oráculo AI”. Este é um verdadeiro risco de disrupção social, iniciado com o advento das redes sociais e que a AI pode potenciar. Não só como instrumento de formação de opinião mas, sobretudo, como substituto do saber formal e do pensamento autónomo sobre a realidade e a vida. Uma sociedade de “perguntadores ao chatGPT” não é muito diferente de vivermos no “Matrix”!
2 – O empoderamento de indivíduos ou grupos de indivíduos que, ganhando acesso facilitado a um “consultor científico” com altíssimo grau de conhecimento, o utilizem como arma ou construtor de armas.
3 – A captura da tecnologia por um grupo mais ou menos restrito provocando uma desigualdade no acesso e utilização do conhecimento que estes sistemas proporcionam. Ou seja, se os monopólios atuais são perigosos, a AI na mão de poucos é infinitamente mais perigosa.
A responsabilidade dos cidadãos é a de não condescender no acesso a informação livre e rigorosa e pressionar os governos para que a tecnologia seja regulada em benefício de todos. Regulação é a solução, só que ninguém parece saber como a fazer e o que regular! É um caminho que temos de trilhar que espero não seja tão tortuoso como o das emissões.
LPR – Um dos riscos associados ao desenvolvimento da Inteligência Artificial, e também de quase todas as tecnologias, é que possa ser utilizada de forma maliciosa ou negligente, causando danos significativos a pessoas, entidades e à sociedade. Por exemplo, a IA pode ser usada para desenvolver armas autónomas, criar e disseminar informações falsas, influenciar ou prejudicar as pessoas.
A real possibilidade de que a IA possa eventualmente superar a inteligência humana é uma preocupação crescente em muitos círculos da tecnologia e da filosofia. A IA, poderá no futuro tornar-se super-humana ultrapassando as habilidades cognitivas de qualquer ser humano com óbvias implicações significativas para a sociedade, incluindo a possibilidade de que a IA possa tornar-se autónoma e superar a capacidade dos humanos de controlá-la ou regulá-la. Isso poderia levar a uma situação em que a IA ultrapasse a capacidade dos humanos de compreendê-la ou controlá-la, levando a consequências imprevisíveis e muito perigosas.
Para mitigar esses riscos, é importante uma abordagem responsável e ética, progressivamente garantindo que a IA seja desenvolvida de forma transparente e explicável. É também necessário desenvolver políticas e regulamentações que orientem o desenvolvimento e aplicação da IA. Mas não da IA atual e sim da IA futura e como tal um esforço para legislar o que existe sem o devido envolvimento dos cientistas que sabem o que vai existir é meramente prejudicial.
Acredita estar o mundo preparado para a Inteligência Artificial. Ou estaremos a dar um passo maior do que a perna?
JCP – Dizia-se o mesmo da eletricidade, do automóvel, do avião, da energia nuclear, do computador…do robot! A tecnologia serve igualmente o bem e o mal.
LPR – É difícil dizer se o mundo está totalmente preparado para a IA ou outra tecnologia disruptiva. Mas é óbvio que precisa de ser preparado para esta ou outra tecnologia. Há sempre imensos desafios e riscos associados ao desenvolvimento e implementação de qualquer tecnologia disruptiva. Tal como outras tecnologias disruptivas, a IA tem um enorme potencial para melhorar a vida das pessoas e resolver problemas importantes da sociedade, mas também potencial para ser usada de forma maliciosa ou negligente, causando danos significativos à sociedade. Para garantir que a IA será criada, implementada e utilizada de forma responsável e segura, é necessário que haja uma colaboração clara entre os setores público e privado e sobretudo os laboratórios e empresas de desenvolvimento científico e tecnológica nesta área.
O presidente da APPIA sublinhou ainda o papel de Portugal neste desenvolvimento tecnológico.
“Em Portugal temos empresas muito fortes no desenvolvimento de IA. Os unicórnios portugueses são empresas de base tecnológica com ênfase para a IA. Temos em Portugal uma das primeiras Licenciaturas de IA do mundo: A LIACD – Licenciatura em Inteligência Artificial e Ciência de Dados (projeto conjunto da FCUP e FEUP na Universidade o Porto). O maior laboratório Associado nacional é neste momento o LASI – Laboratório Associado em Sistemas Inteligentes com mais de 500 investigadores/professores doutorados e mais de 1000 investigadores a realizarem o seu doutoramento nesta área e áreas afins.”