Para além do hype da IA

Opinião de Ricardo Cardoso, Senior manager de Audit and Assurance Financial Services, da Forvis Mazars em Portugal

Executive Digest

Por Ricardo Cardoso, Senior manager de Audit and Assurance Financial Services, da Forvis Mazars em Portugal

 



Modelos, benchmarks e promessas de produtividade: esta tem sido a discussão em torno da Inteligência Artificial (IA) nas empresas, assente numa narrativa tecnológica sobre os sistemas mais poderosos e que ganhos de eficiência podem trazer. Os riscos, claro, são muitos, mas raramente estão nos algoritmos. Estão, sim, na governação.

A IA já começa a influenciar decisões sobre clientes, crédito, preços, fraude ou contratação. No entanto, as estruturas de responsabilidade, dados e incentivos que enquadram essas decisões ainda pertencem, muitas vezes, a uma outra era. O resultado é um desfasamento crescente entre o poder que as organizações delegam em sistemas algorítmicos e a maturidade da governação que os supervisiona.

Três pontos cegos surgem com frequência. O primeiro é o problema dos “donos”. Muitas empresas já têm princípios de “IA responsável”, comités ou políticas internas. Mas quando surge um problema concreto – um resultado enviesado, uma decisão automatizada contestada, um modelo que muda de comportamento – torna-se menos claro quem decide.

A responsabilidade dilui-se entre IT, negócio, risco, jurídico e compliance. Todos participam, mas ninguém manda verdadeiramente. Sem responsabilidade nominal por sistemas ou casos de uso críticos, a governação transforma-se, facilmente, num exercício formal. Sem dono, não há escala, nem decisões rápidas. A governação começa quando alguém pode ser identificado como responsável por um sistema e pelas decisões que dele resultam.

O segundo ponto cego é a obsessão com temas como o modelo, explicabilidade, LLMs e adversarial robustness, quando existe pouca disciplina face ao governance de dados (qualidade, proveniência, rotulagem, viés nas bases de treino), controlo sobre uso secundário (como as decisões são tomadas a partir dos outputs de IA) e function creep (modelos treinados para um caso de uso, reutilizados para outro sem reavaliação).

Grande parte do debate sobre IA concentra-se na sofisticação dos algoritmos, mas muitos incidentes nascem daquilo que os alimenta: dados incompletos, enviesados ou mal documentados. É necessário exigir um mínimo de data sheet por sistema crítico, com fontes de dados, critérios de qualidade, testes de viés, populações excluídas e restrições de uso; definir, ao nível do conselho/comité de risco, em que decisões é obrigatório manter human in the loop com poder real de override e como isso fica evidenciado em logs e relatórios; e pedir um plano faseado de data governance alinhado com o AI Act, com linhagem de dados, classificação, donos de dados e processos de correção com prazos definidos em caso de erros ou enviesamentos.

Existe ainda um problema frequentemente ignorado: o que acontece depois do modelo produzir um resultado. Sistemas desenvolvidos para um determinado fim acabam muitas vezes por influenciar decisões para as quais nunca foram avaliados. Sem rastreabilidade sobre dados e limites de utilização, torna-se difícil explicar decisões ou demonstrar conformidade. Estamos obcecados com o ‘modelo inteligente’ e distraídos com o óbvio: lixo que entra, decisões erradas que saem, mas agora à escala e à velocidade da máquina.

O terceiro ponto cego são os incentivos. Quase todas as organizações publicaram princípios de ética ou “IA responsável”. Mas a cultura organizacional segue métricas, não princípios. Se os indicadores de gestão premiam sobretudo velocidade de implementação e redução de custos, as equipas tenderão naturalmente a otimizar para esses objetivos. Riscos éticos ou preocupações regulatórias tornam-se facilmente obstáculos ao time-to-market. A maior parte das falhas de governação não nasce de más intenções, mas de incentivos mal desenhados.

A entrada em vigor do AI Act europeu aumenta a exigência. A IA deixa de ser apenas um tema tecnológico para se tornar um tema de governação corporativa. Sistemas classificados como de alto risco passam a exigir gestão contínua de risco, supervisão humana, qualidade de dados e documentação clara sobre como funcionam e como são utilizados.

Para além do hype, o desafio real é este: a IA já está a tomar decisões em nome das empresas, muitas vezes em áreas de alto risco. A questão para os administradores não é se é boa ou má, mas se a governação – donos, dados e incentivos – está ao nível do poder que já deram às máquinas e do nível que o AI Act vai exigir provar.

 

 

Partilhar

Edição Impressa

Assinar

Newsletter

Subscreva e receba todas as novidades.

A sua informação está protegida. Leia a nossa política de privacidade.