O ChatGPT é uma grande rede de Inteligência Artificial (IA) que procura ajudar utilizadores de todo o mundo a responder a todas as suas perguntas. Porém, alguns temem que possa ser usado para espalhar informações falsas ou prejudicar as conversas online. Além disso, alguns especialistas começam a alertar para os perigos de uma tecnologia tão específica e as outras empresas de tecnologia já começaram a reagir.
Antes de entrar em qualquer polémica, é importante esclarecer o que faz o ChatGPT. Esta plataforma, que significa ‘Generative Pre-Trained Transformer [Transformador Pré-treinado Generativo]’, é aquilo que se chama uma rede neural de linguagem treinada para responder perguntas e conversar com utilizadores de forma natural. Em forma de chat, como qualquer outra conversa, esta ferramenta foi treinada com milhões de exemplos de texto da Internet, o que lhe permitiu aprender a compreender e produzir linguagem humana.
Com a utilização desta informação, o ChatGPT é capaz de responder a perguntas, traduzir textos, gerar descrições, entre outras tarefas relacionadas com a linguagem. A ideia por trás do ChatGPT é fornecer uma tecnologia que permita aos utilizadores conversarem com uma inteligência artificial de forma natural e intuitiva, assim como fariam com outro ser humano.
O ChatGPT foi lançado pela OpenAI, um laboratório de pesquisas em inteligência artificial dos Estados Unidos da América (EUA), com sede em San Francisco, em 2018. Desde então, ele tem sido atualizado e aperfeiçoado com novos dados e melhorias na tecnologia.
A OpenAI foi criada em 2015 e, na altura, contou com personalidades reconhecidas para a sua fundação, como Sam Altman, que está à frente das operações, Peter Thiel, cofundador do PayPal, Reid Hoffman, cofundador do LinkedIn, e Elon Musk, criador da Tesla e da SpaceX, que já não se encontra na empresa, mas continua a falar sobre ela.
Esta é uma das muitas tecnologias de inteligência artificial disponíveis, e a sua principal diferença é a capacidade de responder a perguntas e conversar com os utilizadores de forma natural. Enquanto outras tecnologias de IA podem ser projetadas para realizar tarefas específicas, como reconhecimento de voz ou visão computacional, o ChatGPT foi especificamente treinado para compreender e produzir linguagem humana. Além disso, utiliza a arquitetura Transformer (uma rede neural de linguagem desenvolvida para processar sequências de dados, como palavras ou caracteres), o que o torna especialmente bom em tarefas como tradução automática ou produção de texto.
Destaca-se que o ChatGPT foi treinado principalmente na língua inglesa, mas também está disponível em outras línguas, como francês, alemão, espanhol, italiano, português, entre outras. No entanto, a precisão e a fluência variam de acordo com a língua e a quantidade de dados disponíveis para que a ferramenta possa ser treinada. Além disso, a OpenAI tem trabalhado continuamente para melhorar o desempenho do ChatGPT em várias línguas e adicionar suporte a novas línguas.
Nos últimos meses, muitos têm sido os críticos da plataforma que se tornou mais popular, sendo que alguns peritos receiam que possa ser mal utilizada, nomeadamente para plágio, fraude e divulgação de informações falsas.
As preocupações sobre os riscos em torno da tecnologia ChatGPT estão a ser abordadas em Bruxelas e continuarão a ser, segundo o comissário da indústria da União Europeia, Thierry Breton, que sublinhou a necessidade urgente da imposição de regras, numa tentativa de estabelecer o padrão global para a tecnologia.
“Como foi demonstrado pelo ChatGPT, as soluções de inteligência artificial podem oferecer grandes oportunidades para empresas e cidadãos, mas também podem apresentar riscos. É por isso que precisamos de uma regulação sólida, para garantir inteligência artificial confiável com base em dados de alta qualidade”, refere o comissário europeu à agência de notícias ‘Reuters’, por escrito.
Entretanto, inúmeras preocupações têm surgido em vários países. Por exemplo, relacionadas com o plágio de estudantes, que levaram algumas escolas públicas dos EUA e o Instituto de Estudos Políticos de Paris (Sciences Po, em França) a proibir o uso do ChatGPT.
Recorde-se que, em janeiro, um dos fundadores da OpenAI, o multimilionário Elon Musk, escreveu no Twitter: “É um novo mundo. Adeus, trabalhos de casa!”.
It’s a new world. Goodbye homework!
— Elon Musk (@elonmusk) January 5, 2023
Do outro lado do mundo, um juiz da cidade de Cartagena, na Colômbia, terá usado a ferramenta de Inteligência Artificial para tomar uma decisão em julgamento no tribunal.
“Os argumentos para esta decisão serão determinados com recurso a Inteligência Artificial. Assim sendo, introduzimos partes das questões legais nestes procedimentos… O objetivo de incluir estes textos produzidos por IA não é para substituir a decisão do juiz… O que queremos é otimizar o tempo gasto na elaboração das condenações depois de corroborar a informação providenciada pela IA”, pode ler-se nos documentos publicados.
E como estão a reagir os concorrentes?
Antes de mais, a Google anunciou um evento esta semana que será focado nos avanços que a empresa tem feito na área da Inteligência Artificial (IA), conta o site The Verge.
O evento, que está a ser visto como uma resposta à popularidade do ChatGPT, está marcado para o dia 8 de fevereiro e será transmitido pelo YouTube.
A tecnológica de Mountain View anunciou que o objetivo será mostrar como a empresa está “a usar o poder da IA para reimaginar como as pessoas pesquisam, exploram e interagem com informação, tornando-a mais natural e intuitiva do que nunca para encontrares o que precisas”.
A Google está ainda a planear lançar uma homepage que inclui um chatbot capaz de responder a questões. Denominada Apprentice Bard, esta inovação traz algo novo que o ChatGPT ainda não tem: a capacidade de falar sobre eventos recentes. O ChatGPT tem conhecimentos limitados sobre o mundo depois de 2021, já que foi o ano em que parou de ser “alimentado”, mas o Apprentice Bard está mais atualizado e consegue fornecer informação sobre eventos recentes.
Consequências para o mundo do ChatGPT
Entre as preocupações europeias já mencionadas, surge também a opinião da CTO da OpenAI, Mira Murati, que acredita que a ferramenta tem de ser regulada antes que possa ser usada de formas nocivas por “maus agentes”.
Estas declarações foram feitas numa entrevista à revista Time, onde revela ter ficado surpreendida com o sucesso com que o ChatGPT foi recebido, notando que esta popularidade leva a alguns problemas éticos. A executiva afirmou que “não é demasiado cedo” para regular o ChatGPT, declarando que a OpenAI precisará de toda a ajuda que conseguir neste processo.
“É importante para a OpenAI e para empresas como a nossa trazer isto para a consciência pública de uma forma que seja controlada e responsável”, afirmou Murati.
A Promessa da Inteligência Artificial cumpriu-se e um admirável mundo novo chegou








