POR: Elizabeth M. Renieris, Editora associada do programa Responsible AI Big Idea da MIT Sloan Management Review.
David Kiron, Director editorial da MIT Sloan Management Review e co-autor do livro “Workforce Ecosystems.
Steven Mills, Managing director/ sócio do Boston Consulting Group, e director de ética em IA.
Anne Kleppe, Managing director/ sócia do Boston Consulting Group, e líder global em IA responsável.
Na Primavera de 2025, também realizámos um inquérito global aos executivos, que gerou 1221 respostas, para descobrir a que ponto as organizações estão a abordar a IA responsável. No nosso artigo mais recente, explorámos a relação entre a explicabilidade e a supervisão humana na responsabilização dos sistemas de IA. Desta vez, aprofundámos a responsabilização pela IA agêntica. Embora não exista uma definição consensual, a IA agêntica refere-se geralmente a sistemas de IA capazes de perseguir objectivos de forma autónoma, tomando decisões, realizando acções e adaptando-se a ambientes dinâmicos sem supervisão humana constante. Segundo o Índice de Agentes de IA do MIT, a implementação destes sistemas aumentou em áreas como a engenharia de software e o serviço ao cliente, apesar da transparência limitada sobre os seus componentes técnicos, utilizações pretendidas e segurança.
Dada a aparente lacuna na governança, solicitámos ao nosso painel que reagisse à seguinte provocação: responsabilizar a IA agêntica pelas suas decisões e acções exige novas abordagens de gestão. Uma clara maioria (69%) concorda ou concorda fortemente com a afirmação, argumentando que a IA agêntica representa uma mudança de paradigma devido à sua capacidade de executar tarefas complexas de forma autónoma em escala e ao seu potencial para criar uma força de trabalho sobre-humana. Muitos especialistas defendem que as estruturas de gestão devem ser reinventadas para corresponder à nova dinâmica de os humanos colaborarem cada vez mais com os agentes de IA no local de trabalho. No entanto, uma minoria sólida (25%) rejeita esta visão, alertando que reflecte um tipo de “excepcionalismo da IA” que pode desviar a atenção da responsabilização das pessoas e das organizações. Acreditam, em vez disso, que as estruturas de gestão existentes podem ser adaptadas para manter a clara responsabilidade humana pelo design, comportamento e resultados dos sistemas de IA agêntica.
A seguir, partilhamos perspectivas dos nossos painelistas e baseamo-nos na nossa própria experiência com a IAR para recomendar como as organizações podem introduzir novas abordagens de gestão ou reformular as existentes para melhorar a responsabilização e a supervisão dos sistemas de IA agêntica e de uma força de trabalho cada vez mais híbrida, composta por humanos e IA.
Os sistemas de IA agêntica desafiam os modelos de gestão tradicionais. A maioria dos nossos especialistas acredita que a IA agêntica exige novas abordagens de gestão devido à sua maior autonomia e complexidade em comparação com as tecnologias anteriores. Como observa Shamina Singh, presidente do Mastercard Center for Inclusive Growth: «Estes sistemas trazem níveis sem precedentes de autonomia, complexidade e risco, exigindo que as organizações repensem as estratégias de gestão tradicionais.» Jai Ganesh, director de produto da Harman International, observa que «os sistemas de gestão tradicionais são concebidos para sistemas determinísticos», enquanto «os sistemas de IA agêntica operam de forma independente, são orientados para objectivos e possuem capacidades de memória e raciocínio, o que torna as suas decisões complexas, autónomas e opacas». Isto, defende, «requer a definição dos papéis dos agentes, incluindo decisões permitidas, barreiras à utilização de dados, limites éticos e aumento dos limites de confiança». Embora existam com trabalhadores humanos, são implícitas e dependem do julgamento tanto do gestor como do trabalhador. Os sistemas de IA agêntica, porém, exigem regras e valores-limite explicitamente definidos. Acertá-los pode ser bastante desafiante e foge aos modelos tradicionais de gestão. Yan Chow, da Automation Anywhere, acrescenta: «Provar causalidade e culpa torna-se incrivelmente difícil, especialmente com sistemas de IA complicados, autónomos e obscuros.»
Os nossos especialistas também apontam a velocidade e a escala sobre-humanas da IA agêntica como especialmente disruptivas. Como explica Shelley McKinley, directora jurídica do GitHub, «os fluxos de trabalho actuais não foram desenvolvidos tendo em mente a velocidade e a escala da IA, pelo que a abordagem das lacunas exigirá novos modelos de governança, caminhos de decisão mais claros e processos reformulados que possibilitem monitorizar, auditar e intervir em decisões baseadas em IA».
Tshilidzi Marwala, da Universidade das Nações Unidas, concorda que «devido à sua tomada de decisão autónoma, à aprendizagem adaptativa e às operações de alta velocidade, a IA agêntica é difícil de ser gerida pelos modelos de gestão tradicionais — que foram criados para a agência humana». David Hardoon, líder de capacitação de IA do Standard Chartered Bank, alerta: «Os modelos de gestão antigos, desenvolvidos para sistemas ao ritmo humano, não conseguem monitorizar o comportamento dinâmico da IA, correndo o risco de erros ou danos não resolvidos.» Isto «pode levar a consequências significativas se não for controlado», acrescenta, «necessitando de monitorização automatizada com protecções éticas».
Perante estes desafios, vários painelistas defendem uma supervisão contínua e iterativa. Como explica Franziska Weindauer, CEO do TÜV AI.Lab, «estes sistemas tomam decisões por conta própria, e estas decisões podem ter impacto directo nas pessoas, nos fluxos de trabalho e nas decisões críticas». A gestão da IA, afirma, significa que os humanos permanecem envolvidos durante todo o ciclo de vida. Contudo, Weindauer acrescenta que «não basta executar uma lista de verificação uma vez e considerá-la concluída», mas «para se manterem responsáveis, as organizações precisam de ferramentas e processos que acompanhem os sistemas de IA durante toda a sua utilização». Douglas Hamilton, que lidera a investigação e engenharia de IA na Nasdaq, sugere transformar «revisões periódicas e rápidas de processos num processo técnico de aprendizagem e design orientado para o ROI». Os gestores necessitarão de novas competências para prestar uma supervisão eficaz, e os criadores de sistemas de IA agêntica devem desenvolver sistemas que permitam este tipo de supervisão.
A IA agêntica exige que repensemos a relação entre os humanos e as máquinas. Além da supervisão técnica, a gestão da IA agêntica também exige clareza sobre a relação entre os humanos e os agentes de IA. Katia Walsh, líder de IA da Apollo Global Management, defende um modelo colaborativo, afirmando: «Se procedermos de forma responsável, os humanos irão colaborar, supervisionar e garantir que os “trabalhadores de IA” atinjam os seus objectivos pretendidos com integridade.» Mas outros questionam se a supervisão humana deve sempre prevalecer. «O verdadeiro desafio surge quando os humanos anulam a IA e cometem erros», afirma Alyssa Lefaivre Škopac, directora de confiança e segurança em IA do Alberta Machine Intelligence Institute. Ela questiona: «A tomada de decisão humana deve ser sempre priorizada, ou precisamos de recorrer à IA em certos casos?» Da mesma forma, Hamilton alerta que «os sistemas de IA com agentes exigem que os gestores pensem cuidadosamente sobre os custos de estarem errados, quais as intervenções que são aceitáveis sem supervisão humana e quais a exigiriam».
Os nossos especialistas sublinham ainda que todos precisam de repensar a responsabilização, uma vez que os agentes de IA não são pessoas — o que significa que ainda não podemos responsabilizá-los da mesma forma. «Como a IA não tem personalidade jurídica», observa Chow, «não pode ser processada, presa ou responsabilizada directamente da mesma forma que os humanos ou as empresas». Marwala acrescenta: «Novos quadros legais e éticos são também essenciais porque os sistemas jurídicos existentes não reconhecem a IA como pessoa jurídica, exigindo uma gestão proactiva e aberta do ciclo de vida da IA que vá além das métricas de desempenho convencionais.» McKinley, do GitHub, afirma que «como a IA não é uma pessoa ou entidade legal, a responsabilização por decisões e acções exige uma responsabilidade ampla e partilhada desde o início». E acrescenta: «Os criadores de IA agêntica devem incorporar factores como a transparência e a supervisão humana durante o desenvolvimento, enquanto os utilizadores devem implementá-las de forma responsável e monitorizar e documentar os impactos.»
Em última análise, trata-se de responsabilizar as pessoas, e não a IA. Nem todos concordam que a IA agêntica exige novos modelos de gestão. Ben Dias, cientista-chefe de IA do IAG, rejeita a ideia de que «a IA exige mudanças revolucionárias nas práticas organizacionais comprovadas», argumentando: «Os gestores delegam rotineiramente tarefas a membros da equipa cujos processos de tomada de decisão não conseguem prever ou controlar totalmente, mas ainda assim mantêm a responsabilização através de limites claros, supervisão focada nos resultados e monitorização apropriada.» Para Dias, «a IA agêntica representa simplesmente um novo tipo de membro da equipa dentro desta estrutura estabelecida». O presidente do Instituto RAI, Manoj Saxena, defende de forma semelhante que «se a sua IA age como um funcionário (ou pior, como uma equipa de freelancers), está na hora de começar a geri-la como tal».
Outros consideram também os apelos por novos modelos de gestão errados. Para o coCEO da RAIght.ai, Richard Benjamins, «afirmar que são necessárias novas abordagens de gestão devido à transferência de responsabilidade das pessoas para os sistemas de IA agêntica é, no estado actual da questão, ir longe de mais». Em vez disso, estes especialistas sublinham que a responsabilidade deve permanecer firmemente nas pessoas e organizações por detrás da tecnologia. Como afirma Steven Vosloo, da UNICEF, «é importante reconhecer desde já que a IA agêntica (ou seja, o software) não pode ser responsabilizada pelas suas decisões e acções» e que «as pessoas que criam e implementam o software são responsáveis pelo seu comportamento». Rebecca Finlay, CEO da Partnership on AI, partilha a visão de que «responsabilizar a IA agêntica significa responsabilizar-nos a nós próprios e aos outros pelas escolhas que fazemos sobre como e quando utilizar esta nova tecnologia». Como resume Mark Surman, presidente da Mozilla: «As pessoas que implementam sistemas de IA e os fornecem aos utilizadores finais são as que precisam de ser responsabilizadas, não a IA em si.»
RECOMENDAÇÕES
Em resumo, oferecemos as seguintes recomendações para as organizações que procuram melhorar a responsabilização pelos sistemas de IA agêntica:
1.º Adopte abordagens de gestão baseadas no ciclo de vida. A IA agêntica é rápida, complexa e dinâmica. Implemente um processo de gestão contínuo e iterativo que acompanhe os sistemas de IA agêntica desde o projecto inicial até à implementação e utilização contínua. Em vez de revisões pontuais, introduza avaliações recorrentes, auditorias técnicas e monitorização de desempenho para detectar e resolver problemas em tempo real. As abordagens de gestão devem tornar a supervisão uma parte integrante das operações diárias, e não uma tarefa de conformidade periódica ou isolada.
2.º Integre a responsabilização humana nas estruturas de governança da IA. Conceba estruturas de gestão para atribuir explicitamente funções e responsabilidades específicas tanto para o gestor humano como para o sistema de IA agêntica em cada fase do ciclo de vida da IA. Estabelecer protocolos de tomada de decisão, percursos de escalonamento e pontos de verificação de avaliação deve fazer parte de toda a implementação de um sistema de IA agêntica para garantir que as pessoas se mantêm responsáveis pelos resultados. Estas estruturas devem reforçar que a IA agêntica é uma ferramenta dentro dos processos liderados por humanos.
3.º Viabilize decisões lideradas por IA em circunstâncias definidas. Embora a supervisão humana seja essencial, as propriedades da IA agêntica alargam os seus limites. As novas abordagens de gestão devem identificar as áreas onde a IA pode e deve prevalecer com base na sua velocidade, precisão ou consistência superiores. Nestes casos, a governança pode concentrar-se na definição de limites, na monitorização do desempenho e na garantia de que a intervenção humana é reservada para cenários de maior risco. Estas responsabilidades devem ser acordadas entre a alta direcção corporativa e comunicadas claramente aos gestores para que estes compreendam plenamente a sua responsabilidade nestas situações.
4.º Prepare-se para uma IA agêntica que cria outros sistemas de IA. A não contabilização de sistemas de IA desenvolvidos ou modificados autonomamente por outros sistemas de IA pode resultar numa lacuna significativa de visibilidade numa organização. Reconhecer e integrar estes sistemas emergentes será fundamental para definir o âmbito da IA na empresa. As estruturas de governança e as abordagens de gestão que não tenham em conta os descendentes da IA irão promover, e não mitigar, os riscos relacionados com a IA.
5.º Quando se trata de IA agêntica, torne o implícito explícito. Uma vez que os sistemas de IA agêntica exigem regras e valores-limite explicitamente definidos, as organizações devem clarificar o papel e o âmbito da IA agêntica nas suas estruturas de gestão. Tal como o trabalho humano se expande mediante sistemas de gestão hierárquicos ou estruturados, concebidos para garantir a responsabilização, a integração da IA agêntica na força de trabalho exige uma compreensão e noção claras do seu âmbito e uma articulação deliberada do seu papel dentro destas estruturas organizacionais, incluindo a sua relação com os componentes humanos de uma força de trabalho cada vez mais sobre-humana.
Artigo publicado na Revista Executive Digest n.º 235 de Outubro de 2025













