“Podemos acabar com uma IA que não faz o que queremos e não se importa connosco”: desenvolvimento tem de parar, alerta especialista

Eliezer Yudkowsky , considerado um dos maiores especialistas em IA há mais de 20 anos, publicou um artigo na revista ‘Time’ no qual traçou um futuro negro para a humanidade

Francisco Laranjeira

Há quem peça uma pausa no desenvolvimento da Inteligência Artificial (IA) e há quem defenda que um travão não vai resolver os “desafios futuros” mas há que afirme ser necessário “desligar tudo”. Eliezer Yudkowsky , considerado um dos maiores especialistas em IA há mais de 20 anos, publicou um artigo na revista ‘Time’ no qual traçou um futuro negro para a humanidade.

Uma IA geral, alcançada nas atuais circunstâncias da humanidade, é algo que deve ser evitado: “Ou toda a vida biológica na Terra morre logo depois.”



Yudkowsky cofundou o MIRI Machine Intelligence Research Institute em 2000 e é um dos pioneiros e líderes no campo da IA amigável, uma versão projetada para ser compatível com os valores e objetivos humanos. No artigo, o especialista valorizou o pedido de uma paragem de 6 meses “porque é melhor do que não ter” mas garantiu que os signatários da carta aberta subestimaram a gravidade da situação e “pedem muito pouco para a resolver”. Defendeu que todos os ensinamentos da IA realizados atualmente devem ser interrompidos, por tempo indeterminado e em todo o mundo, até que seja possível desenvolver com segurança este tipo de sistema.

O problema, defendeu Yudkowsky, não é uma IA “a competir com humanos” mas quando for alcançada uma IA melhor do que a natural nos humanos. “Os principais limites [para obter] podem não ser óbvios. Definitivamente, não podemos calcular com antecedência o que acontece e quando, e atualmente é concebível que um laboratório de pesquisa possa cruzar linhas críticas inadvertidamente ”, explicou.

O resultado de uma IA verdadeiramente inteligente “sob qualquer coisa remotamente parecida com as circunstâncias atuais, é que literalmente significa que todos na Terra morrerão . Não um ‘talvez, possivelmente, um tiro no escuro’, mas uma ‘coisa óbvia que aconteceria'”. Sem “precisão, preparação e novos conhecimentos científicos”, provavelmente acabaremos com uma IA que “não faz o que queremos e não se importa connosco ou com a vida senciente em geral”.

O problema “é que não estamos prontos e não sabemos como fazer isso”, explicou o especialista: sem essa abordagem, a IA iria ver-nos como recursos para os seus propósitos. “Nem te ama nem te odeia. Somos feitos de átomos que ela pode usar para outra coisa.” Ou seja, para Yudkowsky, a humanidade a enfrentar uma IA superior seria desastroso. Tal como “o século XI a lutar contra o século XXI ou o australopiteco a tentar superar o homo sapiens”.

Assim, para travar esse futuro ‘Matrixiano’, é necessário interromper o treino por completo da IA em todos os países até que seja alcançada segurança suficiente, fechar os centros de computação de GPU, rastrear os GPU vendidos para impedir que um país construa uma, colocar limites no poder computacional que pode ser usado para treinar uma IA e sobretudo não conectá-los à internet.

“Não estamos preparados. Não estamos no caminho certo para estar significativamente mais preparados para o futuro próximo. Se continuarmos com isso, todos morrerão, inclusive as crianças que não escolheram isso e não fizeram nada de errado. Desligue-se tudo”, conclui.

Inteligência Artificial leva “empresas para o novo patamar da evolução digital”, diz CEO da PHC Software

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.