“Depois da tempestade, vem a bonança” e depois do ChatGPT, vem a responsabilidade?

Por João Martins, Data Analytics & AI Manager na Noesis

Um ano depois do ChatGPT ser lançado, presenciamos a redução de utilizadores casuais, inicialmente curiosos com as promessas da ferramenta, e passamos a ver uma maior utilização da inteligência artificial generativa, dentro das organizações. Portanto, passámos da curiosidade, da experimentação, para a utilização profissional.

O céu é o limite para a implementação de inteligência artificial generativa no mercado de trabalho, é um novo capítulo emocionante na história da tecnologia, onde os algoritmos são capazes de processar informações e gerar conteúdo criativo de maneira, aparentemente, autónoma. Entretanto, à medida que admiramos o crescimento explosivo desta tecnologia, é imperativo ponderar também as implicações éticas que surgem quando a máquina assume um papel fulcral na criação de conteúdo. A responsabilidade ética associada com a IA generativa transcende a inovação técnica, exigindo uma consideração cuidadosa sobre como é que podemos garantir a integridade, equidade e transparência da informação fornecida.

A transparência e a explicabilidade do processo de tomada de decisão desempenham um papel central neste debate. Com algoritmos que aprendem e evoluem com base em grandes conjuntos de dados, é vital entender como é que estes modelos são treinados e quais os preconceitos que podem estar na sua génese. Isto porque são programados por seres humanos, que inevitavelmente podem perpetuar certos estereótipos, mesmo que subconscientemente. Como tal, é fundamental que haja uma aposta no desenvolvimento de uma IA generativa capaz de explicar o seu processo de “pensamento” e a lógica que levou à sua decisão final.

Além disto, quando aplicamos este princípio à realidade corporativa, enfrentamos alguns riscos de cibersegurança, nomeadamente o dos algoritmos aprenderem tendo por base informação confidencial. Isto é, e o melhor exemplo aqui é o ChatGPT, onde os profissionais estão possivelmente a inserir informação que não deve ser partilhada com ninguém fora da organização, quanto mais com uma base de dados que aprende consoante o que lhe é ensinado. Aqui entra também o papel dos gestores, que devem apostar na formação dos seus profissionais para que recorram a estas ferramentas, que trazem benefícios como o aumento da produtividade, de uma forma segura para a sua entidade patronal.

Em resposta a estas preocupações éticas, é imperativo estabelecer diretrizes éticas claras para o desenvolvimento e implementação da IA generativa. Algo que possivelmente passará pela explicabilidade e transparência dos algoritmos e pela formação dentro das empresas sobre o uso correto de ferramentas como o ChatGPT.

Acredito que a IA generativa tem um potencial incrível para impulsionar a inovação nas organizações ao tornar as operações mais eficientes. No entanto, para que esta revolução seja verdadeiramente bem-sucedida, a responsabilidade ética deve ser incorporada desde o início do desenvolvimento, assegurando que a inteligência artificial generativa tem um impacto positivo no mundo.

 

 

Ler Mais