A Comissão Europeia está a recolher, a partir de hoje e até 23 de janeiro, contribuições para o primeiro código de conduta para informar os internautas sobre conteúdos criados com recurso a inteligência artificial.
Em comunicado, o executivo comunitário europeu dá conta de que a partir de hoje e praticamente até ao final de janeiro do próximo ano vai recolher contribuições para criar o primeiro “código de conduta sobre marcação e rotulagem de conteúdos gerados por inteligência artificial”.
O primeiro projeto sobre este código de conduta foi publicado hoje e a intenção é finalizá-lo até junho de 2026.
De acordo com o artigo 50.º do regulamento de inteligência artificial da União Europeia, os fornecedores de serviços digitais, nomeadamente os responsáveis por plataformas como as redes sociais, que disponibilizam ferramentas para criar conteúdos com recurso à inteligência artificial, têm de identificar que esses conteúdos não são gravados, fotografados, criados por mão humana e que são produto da utilização da inteligência artificial generativa.
Este tipo de inteligência artificial não é senciente, ou seja, não tem consciência, e tudo o que cria é a partir de informações que recolheu de bases de dados textuais, de fotografias e vídeos.
A Comissão Europeia quer criar um “rótulo digital” que evidencie que um conteúdo digital é criado pela inteligência artificial generativa, de modo a dar aos internautas ferramentas para que possam discernir se algo é real ou produto desta tecnologia.
Os conteúdos gerados por inteligência artificial generativa são cada vez mais realistas e podem confundir-se com a realidade nas redes sociais.
Por essa razão, o executivo comunitário europeu quer garantir que não é deixada à adivinhação saber se um conteúdo é real ou ficcional.
A extrema-direita em vários países da União Europeia, por exemplo, utiliza conteúdos gerados por inteligência artificial generativa para deturpar informações e propagar desinformação.
O código de conduta em questão tem duas secções: a primeira, “abrange as regras de marcação e deteção de conteúdos de inteligência artificial [generativa]”, que são aplicáveis aos fornecedores de estes sistemas; a segunda, é para rotular falsificações profundas, comummente conhecidas como “deep fakes”, assim como textos falsos criados por esta tecnologia.
Nos últimos meses, aumentaram as denúncias de “deep fakes” de vídeos, por exemplo, de crianças e adolescentes, ou seja, conteúdos falsos gerados por inteligência artificial com o intuito de criar pornografia infantil.
As “deep fakes” mais conhecidas são discursos de intervenientes políticos gerados por inteligência artificial generativa, que são falsos, com o propósito de disseminar desinformação.














