A IA generativa promete ajudar os líderes a tomarem decisões melhores, mas também podem empurrar os líderes para armadilha da gestão mecanicista; confira três orientações sobre como aproveitar só o que é bom na ferramenta
À medida que as tecnologias de inteligência artificial se desenvolvem, os gestores procuram mais e mais maneiras de colher seus benefícios. As atuais ferramentas de IA generativa [ou GenAI, se nosso leitor preferir nomeá-las em inglês] podem ajudá-los na tomada de decisões estratégicas, sem dúvida, e auxiliar na resolução de problemas em uma variedade de contextos, do desenvolvimento de produtos ao apoio em situações de conflitos relacionados a funcionários. O ChatGPT – uma ferramenta de IA generativa já bastante comum – está sendo usado até mesmo como parceiro para debater possibilidades em processos de tomada de decisão da gestão.
Interagir com a tecnologia como parte de um processo de tomada de decisão ou da resolução de problemas, no entanto, é 100% diferente de consultar humanos. Os sistemas de IA, por definição, são voltados para eficiência, previsibilidade e soluções, sempre com base em dados. E é justamente por conta dessa ênfase que os líderes, sem querer, podem se meter em problemas.
Recentemente fizemos uma pesquisa a esse respeito. E os achados sugerem que, quando interagem com as ferramentas de IA gen para tomar decisões, os líderes podem ser empurrados para uma abordagem de gestão mais rígida e mecanicista. Dando um exemplo específico, o estudo mostrou que, quando usaram o ChatGPT para ajudar a resolver um problema relacionado com o comportamento dos funcionários e as condições de trabalho, os gestores ficaram propensos a propor soluções mais orientadas para o controle do que para as pessoas.
Sobre a pesquisa
Durante décadas, tanto pesquisadores acadêmicos como profissionais de empresas advogaram que o modelo de gestão centrado no ser humano é o mais avançado, e o gerador de mais benefícios para todos. Nesse sentido, nosso estudo levanta um ponto preocupante que nos põe em estado de alerta: sem o devido cuidado, o uso de ferramentas de IA generativa apresenta o risco de regredirmos para um modelo de gestão mais mecanicista e baseado em comando-e-controle. E isso é um problema sério, já que tal estilo não gera nem engajamento nem confiança nos funcionários.
Em nosso estudo, fizemos um experimento em que alunos de MBA eram chamados a atuar como gestores que trabalhavam para a divisão de logística da Amazon, nos EUA, responsável por entregar o que é comprado no e-commerce. No cenário dado, esses gestores eram informados de que os motoristas não estavam fazendo o uso – obrigatório – de um aplicativo de smartphone que monitora seu trajeto e rastreia comportamentos na direção, como frenagem brusca, excesso de velocidade e o próprio uso do telefone.
Conforme descrito no caso aplicado, os motoristas diziam achar que o aplicativo é muito invasivo e às vezes injusto porque ignorava o contexto das ações tomadas durante o percurso, ou seja, não lhes permitia explicar esse contexto. Eles expressavam seu aumento de estresse e ansiedade ao gestor, citando as imprecisões do aplicativo e a pressão para cumprir prazos de entrega rígidos. O gestor descobria que era por causa do estresse e da pressão que os motoristas estavam desligando o aplicativo e não cumprindo a ordem de usá-lo. Mas essa não conformidade era problemática porque os dados do aplicativo são necessários para relatórios de segurança e eficácia organizacional.
Após a análise do caso, foi pedido aos participantes que propusessem soluções para a situação. Em um grupo, os participantes foram instruídos a consultar o ChatGPT para obter informações sobre como resolver o problema antes de propor soluções. No grupo de controle, os participantes deveriam fornecer soluções para o problema com base apenas em suas próprias reflexões e experiências – e não usar o ChatGPT de modo algum.
Foi solicitado aos participantes de ambos os grupos a elaboração de três soluções para o problema organizacional. É importante ressaltar que mesmo o grupo que interagiu com o ChatGPT para obter insights teve que trazer três de suas próprias soluções de “escrita livre” para o problema gerencial (embora nós, como pesquisadores, ainda pudéssemos ver os outputs de suas trocas com o ChatGPT).
Os resultados foram claros: quando o ChatGPT era consultado antes de serem propostas as soluções, o foco era intensificado em soluções baseadas em controle e vigilância, muitas vezes às custas da autonomia e do bem-estar do motorista. Mais especificamente, os gestores que se usaram o ChatGPT eram cerca de duas vezes mais propensos a propor soluções baseadas em controle, como punir motoristas por não usar o aplicativo de rastreamento, adicionar câmeras de monitoramento, contratar auditores externos para garantir a conformidade e incentivar a denúncia de transgressões por pares.
Os participantes do grupo de controle, por outro lado, foram mais propensos a propor soluções relacionadas à escuta e negociação com os motoristas sobre melhores condições de trabalho e/ou reavaliação da carga de entregas.
Além disso, quando revisamos as interações que as pessoas fizeram com o ChatGPT, descobrimos que, mesmo quando a ferramenta sugeria soluções mais humanas, os participantes ainda propunham mais soluções focadas em controle, monitoramento e eficiência em comparação com as propostas do grupo de controle. Isso sugere que o mero uso da tecnologia, mais do que o conteúdo de suas sugestões, predispõe as pessoas a dar respostas mais baseadas em controle e menos centradas nas pessoas.
As ferramentas de IA generativa podem desempenhar um papel benéfico na tomada de decisões das chefias. Mas a observação que fizemos dos resultados alerta que, se as organizações não forem cuidadosas sobre como essas ferramentas são incorporadas à solução de problemas como os que propusemos, elas correm o risco de voltar aos dias da “administração científica” – concentrando-se mais na eficiência e no controle do que em práticas que levam em consideração as pessoas e o contexto.
Nossa pesquisa sugere que os gestores devem ter cuidado extra com a IA generativa quando a questão da resolução de problemas tem implicações nas condições de trabalho e no bem-estar dos funcionários. Nesses casos, interagir com a IA generativa pode criar distância psicológica entre os gestores e os funcionários envolvidos.
Vejas as principais conclusões do nosso trabalho:
1. Tome cuidado com o efeito das ferramentas de IA generativa.
A aplicação da ferramenta de IA gen desviou a atenção dos gestores da experiência direta e do pensamento centrado no ser humano e os preparou para usar um modo de pensamento mais imparcial e analítico.
Assim, o uso de IA generativa pode criar uma expectativa de que as soluções para os problemas devem ser “avançadas” ou orientadas para a tecnologia, levando a uma preferência por soluções de controle e monitoramento que aproveitem recursos tecnológicos semelhantes. Os gestores devem se tornar mais conscientes de seus preconceitos ocultos e atentos não apenas ao conteúdo fornecido pelas ferramentas de IA, mas também ao fato de que o uso da ferramenta pode gerar um viés de abordagem para a solução de problemas.
O que se deve aproveitar: os líderes devem reconhecer ativamente o possível efeito que pode surgir ao recrutar a IA generativa como um “parceiro” de solução de problemas em desafios centrados no ser humano. Ao usar a IA gen para suporte à decisão na gestão de pessoas, eles devem adotar uma estrutura de decisão que incorpore ativamente o bem-estar dos funcionários e fatores humanísticos.
2. Entenda que as ferramentas generativas de IA podem gerar desengajamento moral.
Nossos resultados indicam que é possível que a natureza orientada por dados da IA generativa possa levar os gestores a verem os funcionários mais como conjuntos de dados do que como indivíduos com necessidades e circunstâncias únicas.
De fato, para os gestores que usam ferramentas de IA gen, as soluções baseadas em controle podem ser vistas como de implantação e gestão mais simples, se comparadas com alternativas mais sutis e centradas no ser humano. Essa situação pode promover o desengajamento moral – o processo em que os indivíduos se desconectam de sua bússola e valores morais e transferem a responsabilidade pelas decisões para uma entidade externa, em vez de assumi-la.
Para evitar esse resultado, os gerentes devem buscar deliberadamente as perspectivas dos funcionários sobre os problemas. Sempre que possível, eles devem contextualizar a situação do ponto de vista de um funcionário para obter insights que os números e dados por si só não podem fornecer.
O que se deve aproveitar: Manter os humanos no circuito é preciso: os gestores devem se envolver regularmente com os funcionários e buscar suas opiniões para equilibrar as sugestões orientadas pela IA gen com os insights das experiências do mundo real.
3. Ao usar ferramentas de IA generativa, enfatize – bastante – a transparência.
Muitos funcionários, como os motoristas de entregas da Amazon em nosso estudo de caso, não sabem como as ferramentas de IA influenciam as decisões de sua empresa sobre seu desempenho e agenda de trabalho. Essa falta de transparência pode levar as pessoas a tentarem burlar o sistema. Quando as organizações deixam os funcionários no escuro sobre como os sistemas de IA julgam seu desempenho, determinam seus horários ou ajustam suas condições de trabalho, os líderes podem promover um ambiente de desconfiança e, assim, experimentar consequências não intencionais.
Esse tipo de lacuna de comunicação também pode levar a um aumento do estresse entre os trabalhadores, que podem se sentir julgados por um sistema inescrutável e potencialmente injusto. Sem uma compreensão clara das métricas e do raciocínio por trás das avaliações orientadas por IA, os funcionários provavelmente se sentirão desmotivados para melhorar seu desempenho. As organizações devem priorizar a transparência e canais de comunicação claros sobre o uso da IA, divulgar as justificativas dos líderes para as decisões e criar mecanismos para feedback e solicitações dos funcionários.
O que se deve aproveitar: os líderes devem implementar políticas claras de comunicação sobre quando e como a IA gen está sendo usada e também sobre quais dados estão sendo considerados nas decisões gerenciais.
Desde a primeira revolução industrial, as organizações vêm expandindo seu pensamento para além dos princípios de gestão científica pro-eficiência que Frederick Winslow Taylor defendia. Os líderes refinaram progressivamente as abordagens de gestão para equilibrar a produtividade com o bem-estar e a satisfação dos funcionários. A pesquisa demonstrou os muitos benefícios de desempenho e produtividade que vêm de práticas de administração centradas no ser humano, como dar às pessoas maior autonomia, estabelecer grupos de trabalho autogeridos e valorizar a contribuição dos trabalhadores em relação à motivação e às condições de trabalho. Nossa pesquisa mostra que, quando os gerentes usam IA generativa para a tomada de decisões, as ferramentas podem levá-los a um caminho indesejado para um estilo de gestão orientado para o controle.
DAQUI POR DIANTE, O DESAFIO DOS LÍDERES será saber o que fazer para aproveitar o poder das chamadas ferramentas de IA generativa e, ao mesmo tempo, manter-se fiel ao que já aprendemos [ou deveríamos ter aprendido] sobre a importância da autonomia, engajamento e bem-estar das pessoas. Esse equilíbrio exigirá um diálogo contínuo entre a gestão e os funcionários (e até mesmo desenvolvedores de ferramentas de IA gen) para garantir que os avanços tecnológicos sirvam para aprimorar, em vez de minar, o elemento humano nas organizações.
[N. do E.: Muitos leitores talvez ironizem o título deste artigopor partir do princípio de que, no Brasil, a liderança comando-e-controle, e do microgerenciamento, nunca deixou realmente de existir. Isso varia de empresa para empresa naturalmente, e o ponto é que a IA generativa pode tornar as coisas piores, seja qual for o estágio em que se encontrem, reforçando o mecanicismo em detrimento do humanismo, e o ímpeto de controlar.]
1. P.E. Spector, “Perceived Control by Employees: A Meta-Analysis of Studies Concerning Autonomy and Participation at Work,” Human Relations 39, no. 11 (November 1986): 1005-1016; and T.W.H. Ng and D.C. Feldman, “Employee Voice Behavior: A Meta-Analytic Test of the Conservation of Resources Framework,” Journal of Organizational Behavior 33, no. 2 (February 2012): 216-234.