Massachusetts Institute of Technology: Gestão Algorítmica: O papel da IA na gestão da força de trabalho

Com a ajuda da tecnologia digital, tarefas de gestão complexas, como a supervisão de colaboradores e a avaliação de candidatos a emprego, podem agora ser assumidas por máquinas. Embora ainda na sua fase inicial, a gestão algorítmica – a delegação de funções de gestão a algoritmos numa organização – está a tornar-se uma parte fundamental da transformação digital estimulada pela IA nas empresas.
A gestão algorítmica promete tornar os processos de trabalho mais eficazes e eficientes. Por exemplo, os algoritmos podem acelerar as contratações filtrando grandes quantidades de candidatos a custos relativamente baixos. Os sistemas de gestão algorítmica também permitem às empresas compreender ou monitorizar a produtividade e o desempenho dos colaboradores. No entanto, os desafios éticos e as potenciais desvantagens negativas para os trabalhadores devem ser considerados aquando da implementação da gestão algorítmica. No caso da contratação, as ferramentas de IA têm enfrentado fortes críticas devido a preconceitos prejudiciais que podem desfavorecer vários grupos de pessoas, o que deu origem a esforços para criar directrizes e regulamentos para a concepção ética da IA.
Neste artigo, baseamo-nos nos nossos anos de pesquisas sobre gestão algorítmica e centramo-nos na forma como esta transforma as práticas de gestão, automatizando tarefas repetitivas e reforçando o papel dos gestores enquanto coordenadores e decisores. No entanto, a introdução de algoritmos nas funções de gestão tem o potencial de alterar as dinâmicas de poder dentro das organizações, e os desafios éticos devem ser abordados. Aqui, apresentamos recomendações sobre a maneira como os gestores podem abordar a implementação usando novos conjuntos de competências.

LUCRAR COM A ESCALA E A EFICIÊNCIA, MELHORANDO SIMULTANEAMENTE O BEM-ESTAR DA FORÇA DE TRABALHO
Os algoritmos podem aumentar a escala e a eficiência das operações de gestão. Na economia do temporário, os sistemas algorítmicos coordenam e organizam o trabalho a uma escala sem precedentes – pense no número de passageiros e condutores que utilizam a Uber ou a Lyft em qualquer altura em todo o mundo. Do mesmo modo, as organizações de padronizações já tiraram partido da maior precisão do processamento algorítmico para gerir tarefas e trabalhadores. A UPS equipa os camiões com sensores que monitorizam todos os movimentos dos condutores para aumentar a eficiência. Do mesmo modo, a Amazon depende fortemente de algoritmos para controlar a produtividade dos trabalhadores, e até para gerar a documentação necessária para rescindir o contrato de trabalho se estes não cumprirem os objectivos.
Contudo, a nossa pesquisa sugere que a concentração exclusiva na eficiência pode diminuir a satisfação e o desempenho dos trabalhadores a longo prazo, tratando-os como meras “engrenagens de uma máquina” programáveis. As provas das fronteiras da IA mostram-nos que os processos algorítmicos utilitários podem maximizar determinados objectivos à custa da minimização de outros. Muitos estudos apontam para o facto de a gestão algorítmica centrada na eficiência poder prejudicar significativamente o bem-estar e a satisfação dos trabalhadores, por exemplo, levando-os a continuar a trabalhar até à exaustão.
A gestão algorítmica que dá prioridade à vigilância e ao controlo recorreu à adopção de sistemas semelhantes para monitorizar a produtividade da força de trabalho remota, principalmente após a pandemia, com o aumento do trabalho virtual. A vigilância é eticamente questionável e resulta frequentemente em reacções negativas por parte dos trabalhadores. Por exemplo, os colaboradores do centro de atendimento da Apple manifestaram receio em relação às câmaras de vigilância nas suas casas. Do mesmo modo, os sistemas algorítmicos nos armazéns, que utilizam diferentes sensores e critérios para avaliar os resultados dos trabalhadores, reforçam automaticamente a eficiência do trabalho, mas, nalguns casos, levaram alegadamente à desmoralização dos trabalhadores ou mesmo a lesões físicas. Em muitas das actuais implementações da gestão algorítmica, os trabalhadores têm poucos recursos para influenciar e escapar a resultados indesejáveis.
Apelamos a uma perspectiva mais centrada nos stakeholders na adopção da gestão algorítmica, que equilibre a racionalização dos processos com a satisfação das necessidades e interesses dos diferentes grupos de stakeholders, tais como gestores, trabalhadores e accionistas. A vigilância, o controlo e a pressão levados ao extremo exercidos pela gestão algorítmica não são apenas prejudiciais para o bem-estar dos trabalhadores – podem também afectar negativamente as empresas devido à reputação manchada e à rotatividade dos trabalhadores.
Para além de protegerem contra o excesso de gestão, os sistemas de gestão algorítmica devem ser concebidos para beneficiar os trabalhadores, por exemplo, alertando-os automaticamente quando as situações são susceptíveis de serem perigosas. A nossa perspectiva ajuda a encontrar um equilíbrio entre os processos simplificados que alimentam a eficiência e o lucro, e o bem-estar dos trabalhadores.

CRIAR UMA DIVISÃO SIMBIÓTICA DO TRABALHO ENTRE GESTORES HUMANOS E ALGORÍTMICOS
Embora algumas empresas prevejam um futuro no qual os algoritmos possam efectivamente tomar decisões sozinhos com o mínimo de intervenção humana, a realidade é que a IA tem limitações na automatização total das funções de gestão que envolvem tarefas cognitivas complexas e tomadas de decisão intuitivas. As organizações devem certificar-se de que criam uma divisão simbiótica do trabalho entre gestores humanos e algorítmicos. A nossa pesquisa sugere que os sistemas algorítmicos podem lidar melhor com espaços de decisão de âmbito restrito (como tarefas de coordenação de grande volume, mas repetitivas), enquanto os gestores humanos continuarão a destacar-se ao lidar com espaços de decisão pouco definidos (como a tomada de decisões tácitas e estratégicas com “incógnitas conhecidas”).
Aqui, o contexto em torno da implementação é altamente relevante. A Uber e a Lyft automatizaram praticamente todas as funções dos gestores tradicionais (algumas tarefas, como a resolução de conflitos ou reclamações, ainda são mediadas por humanos). É improvável que isso aconteça na maioria das organizações padrão, devido à complexidade e diversidade das tarefas de trabalho. Nas organizações tradicionais, prevemos uma parceria mediada pela tecnologia entre humanos e IA na execução de funções de gestão. Pensemos nos programas de formação das empresas. A IA pode fornecer formação personalizada baseada na web a um colaborador e medir eficazmente os ganhos de produtividade. Porém, para outras tarefas, em especial as mais criativas e tácticas, como o brainstorming e o pensamento estratégico, ou as que exigem competências sociais, como a empatia, pode ser necessário um instrutor humano.
A figura abaixo ilustra um protótipo desta relação simbiótica em diferentes níveis de gestão. Nos níveis mais baixos, os sistemas de IA podem proporcionar recursos para uma melhor coordenação das tarefas (desagregação, distribuição, agregação e avaliação das tarefas), enquanto os gestores humanos estão mais bem posicionados para assumir funções mais interactivas e de supervisão (por exemplo, proporcionando flexibilidade aos trabalhadores na execução das tarefas). Nos níveis superiores de gestão, os sistemas de IA podem analisar e fornecer informações sobre os ambientes interno e externo da organização, enquanto os gestores trazem uma perspectiva estratégica e holística para a tomada de decisões. Por exemplo, os sistemas de IA podem ajudar as organizações a integrar, monitorizar e analisar centenas de pontos de dados sobre o comportamento dos clientes em tempo real, enquanto os gestores humanos podem articular as suas implicações para a evolução das exigências.
As organizações devem reconhecer e promover as capacidades únicas tanto da IA como dos gestores humanos e esforçar-se por captar formas de trabalharem em parceria, algo a que os líderes tecnológicos da Accenture, Paul Daugherty e H. James Wilson, chamam “the missing middle” (o meio em falta). Empresas como a Microsoft utilizaram “pontuações de produtividade” geradas automaticamente que fornecem aos gestores informações agregadas sobre a frequência com que os seus colaboradores enviam emails e participam em reuniões por vídeo. Esta informação só é valiosa quando contextualizada por um gestor humano que pode fazer avaliações sobre a qualidade do trabalho (enquanto as pontuações representam apenas uma medida centrada na quantidade), ou se as funções de trabalho são suficientemente semelhantes para serem comparadas com base nas respectivas pontuações.
Uma sinergia humano-IA bem-sucedida não é um dado adquirido. Normalmente, os processos empresariais têm de ser reformulados quando as organizações pretendem implementar ferramentas algorítmicas que se adequem à tarefa de gestão que pretendem automatizar total ou parcialmente.

EVITAR O PRECONCEITO ALGORÍTMICO PROMOVENDO A EQUIDADE, A TRANSPARÊNCIA E A RESPONSABILIDADE
As empresas que decidem envolver-se na gestão algorítmica devem reconhecer que os algoritmos não são decisores neutros ou tecnocráticos. Podem introduzir e amplificar preconceitos baseados na raça ou no género, o que pode conduzir a injustiças e desigualdades. Os preconceitos algorítmicos foram identificados em várias funções organizacionais, incluindo a gestão de recursos humanos e, em particular, na selecção de currículos de candidatos a emprego, em que os algoritmos são frequentemente treinados com base em dados históricos que reflectem decisões de contratação humanas tendenciosas.
O preconceito algorítmico também é evidente no sistema de justiça penal, onde os juízes têm utilizado sistemas preditivos para determinar a probabilidade de reincidência dos arguidos. Estes sistemas têm sido criticados por preverem uma maior probabilidade de reincidência dos arguidos negros, possivelmente devido a preconceitos nos dados utilizados para treinar os algoritmos. Os ciclos de feedback de confirmação no policiamento preditivo também podem levar à presença repetida da polícia em determinadas áreas, resultando num escrutínio injusto de indivíduos específicos.
Pode ser difícil detectar preconceitos ou injustiças algorítmicas nos sistemas de gestão algorítmica porque o funcionamento interno dos algoritmos utilizados nestes sistemas é frequentemente complexo e opaco para os utilizadores. Esta falta de transparência, também conhecida como opacidade algorítmica, dificulta a identificação de quaisquer preconceitos ou desigualdades codificados no sistema.
Para resolver este problema, encorajamos as organizações a considerarem a utilização de soluções técnicas como a Explainable AI (XAI), que pode fornecer explicações para previsões específicas de input/output. Ao integrar algoritmos em processos de gestão, as organizações também precisam de considerar como a tomada de decisões algorítmicas e os desafios de explicabilidade se alinham com os quadros regulamentares, como o Regulamento Geral de Protecção de Dados da União Europeia.
Embora as leis e políticas que regem a gestão algorítmica, incluindo as protecções contra o preconceito algorítmico, sejam ainda incipientes, as organizações poderão ter de adoptar práticas de autorregulação. A auditoria algorítmica pode ser uma abordagem útil para examinar sistematicamente os resultados da tomada de decisões algorítmicas e as potenciais consequências discriminatórias. As auditorias algorítmicas efectuadas por terceiros podem identificar preconceitos nos algoritmos, bem como avaliar outros impactos negativos, tais como danos ecológicos, riscos de segurança, violações da privacidade e falta de transparência, explicabilidade e responsabilidade. As auditorias algorítmicas podem tornar-se legalmente exigidas em vários contextos, como a recente lei de Nova Iorque que regula as práticas de contratação baseadas em IA.
Incentivamos as empresas a assumirem a responsabilidade e a reflectirem sobre a ética das suas práticas actuais. É urgentemente necessária uma abordagem ética que enfatize o acesso à informação sobre quais os algoritmos utilizados para gerir processos, como são utilizados e como têm impacto em diferentes grupos, incluindo trabalhadores e clientes. Os inquéritos internos constantes ajudam as organizações a decidir como os algoritmos organizam os processos relacionados com o trabalho. Mais uma vez, são necessários esforços de transparência com o objectivo de divulgar informação suficiente sobre a gestão algorítmica para que os vários stakeholders possam compreender o poder dos algoritmos e responsabilizar os gestores humanos e os algorítmicos.
Por fim, instamos as organizações a pensar para além das capacidades dos algoritmos (o que eles poderiam realisticamente alcançar) e a decidir cuidadosamente quais as funções de gestão que devem e não devem ser delegadas aos algoritmos. Estas questões de “deve” levantam questões morais complicadas sobre condições de trabalho, ética e responsabilidade organizacional. A realização de uma análise dos stakeholders pode ajudar as organizações a considerar de forma transparente as potenciais implicações dos sistemas de gestão algorítmica para os stakeholders e a abordar questões como o preconceito na tomada de decisões, a responsabilidade e os direitos e a dignidade dos stakeholders.
A gestão algorítmica é muito promissora para as organizações e pode transformar as funções e os deveres dos gestores. A sua aplicação bem-sucedida exige um novo conjunto de competências e atitudes algorítmicas para lidar com os riscos. Os futuros gestores precisam de competências para se envolverem efectivamente com os algoritmos, darem-lhes sentido, implementá-los e até colaborarem com eles nos seus fluxos de trabalho. A gestão no futuro das organizações exige a organização de uma rede complexa de pessoas, dados e sistemas automatizados. As organizações devem aprender a tirar partido da gestão algorítmica e a fomentar as competências algorítmicas para criar uma simbiose entre as capacidades dos humanos e das máquinas.

Artigo publicado na Revista Executive Digest n.º 206 de Maio de 2023






Comentários
Loading...