Projeto Q*: Nova descoberta sobre IA pode ser um “perigo existencial para a humanidade”. Cientistas alertam para desenvolvimento que pode marcar nova época na história da civilização
Vários funcionários da OpenAI, responsável pelo ChatGPT, enviaram uma carta ao conselho de administração a alertar para o desenvolvimento de uma nova Inteligência Artificial (IA) com tal poder que, segundo os signatários do documento, “é um perigo existencial para a humanidade”, revelou a agência ‘Reuters’ e o site ‘The Information’.
Na carta é referida existência de um Inteligência Artificial Geral (AGI), uma IA capaz de raciocinar e compreender o mundo como um ser humano, um desenvolvimento que pode marcar uma nova época na história da civilização.
A gravidade deste desenvolvimento – que o CEO da OpenAi, Sam Altman, pode ter escondido do conselho de administração – pode ter sido o gatilho para a súbita demissão de Altman da empresa. Este sério apelo ajuda a explicar a razão pela qual Altman decidiu submeter a sua gestão a uma investigação interna: uma gestão que já estava a ser questionada por um conselho que já tinha alertado para a introdução muito acelerada de novas versões do GPT sem que fosse levado em linha de conta as possíveis ramificações do seu impacto na sociedade.
De acordo com o documento, o nome interno do projeto da AGI é Q* (Q-Star em inglês) e representa um avanço significativo – ao contrário das formas atuais de IA que usam modelos preditivos para compor imagens e textos, mas não conseguem compreender o mundo ou conceitos abstratos como os humanos, o novo algoritmo seria capaz de raciocinar a um nível comparável ao dos humanos.
Um dos testes da capacidade de Q* parece ser a sua capacidade de resolver problemas matemáticos com raciocínios ‘quase’ humanos: atualmente funciona a um nível semelhante ao de alunos do ensino primário, de acordo com a agência noticiosa, mas o Q* surpreendeu os investigadores porque pode ser um passo fundamental que levaria a IA ao nível de complexidade do pensamento humano.
Este avanço é tão significativo que fez disparar os alarmes entre os próprios cientistas da OpenAI, que assinaram uma carta no qual expressaram sérias preocupações sobre a segurança e as implicações éticas do seu desenvolvimento. Uma IA com capacidades tão avançadas poderia agir de forma independente, com consequências imprevisíveis e potencialmente perigosas para a humanidade, especialmente se o seu processo de tomada de decisão não for totalmente compreendido e não forem implementadas medidas de segurança adequadas.
Se a atual IA já está a ter um impacto extremamente negativo na sociedade, as consequências éticas e de segurança no desenvolvimento e implementação de uma AGI podem tornar-se catastróficas se não forem tomadas primeiro medidas sérias para o evitar.
A controvérsia em redor do projeto Q* e da carta dos investigadores reflete um momento crítico no desenvolvimento da IA. A OpenAI, conhecida pelos seus avanços significativos nesta área, como o desenvolvimento do ChatGPT (Generative Pre-trained Transformer), está agora numa encruzilhada vital para o seu próprio futuro e o da civilização.
A decisão de demitir Altman – uma figura chave no avanço e promoção da IA generativa – e a ameaça de demissão de mais de 700 funcionários, em contraste com aqueles que deram o alarme sobre Q*, mostram as tensões internas e preocupações éticas que vão além das conquistas tecnológicas.
A rápida evolução da IA e a sua integração em vários setores levantou questões sobre segurança, privacidade, emprego e o impacto social destas tecnologias. A AGI promete ‘baralhar’ ainda mais o cenário, com um horizonte de possibilidades e desafios – terá a capacidade cognitiva humana em relação a tudo o que nos rodeia, mas multiplicada pela capacidade de processamento e de gerir milhões de impulsos e dados simultaneamente, algo que os humanos não podem fazer.
Uma vez desenvolvida, o seu nível de autonomia e adaptabilidade será muito maior do que o nosso, transformando todos os setores imagináveis, desde a medicina e a engenharia até à educação e ao desenvolvimento de AGIs ainda mais avançados.
Mas também acarreta riscos enormes: a possibilidade de uma IA com capacidades gerais poder agir de forma independente ou de as suas decisões serem incompreensíveis para os humanos levanta sérios dilemas éticos e de segurança, tanto a nível pessoal como de espécie. A preocupação não é que a IA possa cometer erros, mas que o seu funcionamento possa escapar ao controlo humano.