Chatbots com Inteligência Artificial: o impacto nas empresas
Por Ana Silva, Territory Account Manager da Kaspersky Portugal
A inteligência artificial tem estado na boca de todos recentemente, com o aparecimento de chatbots equipados com IA generativa, nomeadamente o ChatGPT e aplicações de chatbot semelhantes, que alteraram a perceção da IA e das suas capacidades. Influenciados por esta tendência crescente, cada vez mais organizações e empresas em todo o mundo estão a recorrer a chatbots com IA numa tentativa de poupar tempo e recursos, ou automatizar tarefas, enquanto aumentam a criatividade e apoiam a inovação.
No entanto, as tentativas apressadas de beneficiar do potencial disruptivo da IA e de se juntar ao grupo de criadores de tendências que conseguiram capitalizar esta nova tecnologia deixam frequentemente de lado as considerações de segurança e privacidade.
Apressando-se a encontrar a aplicação de chatbots de IA nos seus processos de negócio, as empresas podem também ter de lidar com as consequências de uma utilização irrefletida dessas ferramentas, motivada quer por uma confiança excessiva nelas, quer por uma falta de visibilidade das mesmas.
É de salientar que os especialistas consideram que os chatbots modernos com IA, como o ChatGPT, têm uma IA limitada ou fraca. A IA fraca é utilizada para aprender algoritmos concebidos para executar uma única tarefa. Não é capaz de aprender por si só e, frequentemente, não tem o contexto para fornecer veredictos exatos ou consciência humana. Como não existe uma opinião comum sobre o momento em que a IA forte poderá ser desenvolvida, os especialistas preveem que poderá demorar algumas décadas ou até um século, pelo que teremos de aprender a viver com a IA limitada para benefício mútuo. O que devemos esperar das ferramentas generativas existentes a médio prazo e qual será o seu futuro?
O potencial efeito no mercado laboral
O vasto âmbito de aplicação dos chatbots com IA deu origem não só a um debate sobre os sectores que podem beneficiar da inteligência artificial generativa, como também a um questionamento sobre as tarefas que podem ser inteiramente confiadas aos assistentes de IA.
Embora a IA possa, de facto, realizar algumas tarefas de rotina, continua a carecer de inteligência humana, o que significa que pode imitar o cérebro humano na ligação de padrões, mas não pode substituí-lo como um todo, nem pensar “fora da caixa”, nem ter ideias novas.
O que a IA faz melhor é aumentar as capacidades humanas existentes, automatizando e acelerando a realização das tarefas diárias, ajudando os profissionais a concentrarem-se em tarefas mais importantes que exigem uma abordagem mais inventiva. À medida que as pessoas ficarem mais informadas sobre as capacidades da IA, os receios iniciais sobre o seu potencial perturbador no que diz respeito ao emprego humano darão lugar a uma relação vantajosa, em que os empregados podem aumentar a sua eficiência utilizando os robots de IA como assistentes úteis a tempo inteiro, prontos a assumir tarefas mundanas e a poupar o seu tempo.
Regulação vai apertar
Uma vez que a utilização de chatbots de IA generativa já gerou muita atenção – e por vezes não de uma forma muito positiva, levantando preocupações de privacidade ou segurança – é provável que vejamos os reguladores a desenvolver cada vez mais legislação para controlar a implementação e utilização da IA. A regulamentação da IA estará provavelmente a desenvolver-se no contexto mais amplo da tendência crescente para a localização de dados.
À semelhança do desenvolvimento de outras tecnologias, um controlo mais apertado da IA por parte das entidades reguladoras irá abrandar o ritmo a que a IA está a ser desenvolvida e adotada pelas organizações, e o crescimento explosivo que evidenciámos recentemente será seguido por um desenvolvimento a um ritmo mais lento, com as organizações a terem de adaptar os processos existentes a novos requisitos e a terem em conta considerações adicionais antes da implementação dos novos.
Como, em termos de potenciais preocupações com a privacidade e a segurança, a IA tem muito em comum com as tecnologias de cloud, as políticas podem seguir o mesmo caminho que a regulamentação sobre a computação na nuvem.
É necessário reforçar a segurança
É provável que o futuro da IA generativa assista a um crescimento e inovação contínuos e a uma elevada concorrência, com o surgimento de novos casos de utilização em diferentes sectores.
No entanto, a ameaça representada pelos ataques baseados em IA generativa também é suscetível de evoluir, uma vez que mais casos de utilização alargam inevitavelmente a potencial superfície de ataque.
Para se prepararem para esta situação, as empresas terão de investir em novas medidas e tecnologias de segurança que possam detetar e bloquear este tipo de ataques. Terão também de se manter vigilantes e adaptar-se às novas ameaças à medida que estas vão surgindo, trabalhando em estreita colaboração com especialistas em cibersegurança e fornecedores de tecnologia para garantir que dispõem das ferramentas e técnicas mais recentes para proteger os seus ativos.