GESTÃO 15 min de leitura

O perigo de colocar a ética no piloto automático

Quando a IA generativa passa a tomar decisões pelos colaboradores, eles perdem a capacidade de refletir sobre a dimensão ética do trabalho. Uma pesquisa aponta a saída

Julian Friedland, David B. Balkin e Kristian Ove R. Myrseth
Julian Friedland, David B. Balkin e Kristian Ove R. Myrseth
O perigo de colocar a ética no piloto automático
Link copiado para a área de transferência!

Com o avanço da inteligência artificial generativa, os minions estão à solta. Mas não os atrapalhados asseclas amarelinhos do vilão do filme Meu Malvado Favorito – e sim a legião de assistentes automatizados que está sendo lançada no mercado. São os chatbots e copilotos que fornecedores de software estão criando com base em LLMs (os grandes modelos de linguagem) e que nos ajudam a dar conta das nossas tarefas mais simples ou trazem sugestões.

O lado bom disso é que esses novos colegas de trabalho podem aumentar a produtividade e automatizar as tarefas mais entediantes. Mas, se deixarmos eles entrarem no universo corporativo no passo atabalhoado dos minions, sem cuidado na implementação, corremos o risco de diminuir a competência dos colaboradores para tomar decisões. O que é perigoso, especialmente, quando a ética está em jogo.

Por isso, avaliamos as consequências das técnicas de nudging – aquele “empurrãozinho” para alguém fazer uma escolha, como teorizam o economista e ganhador do Prêmio Nobel Richard H. Thaler e Cass R. Sunstein, professor da Escola de Direito da Harvard University –, usadas por organizações para influenciar funcionários ou clientes a realizar determinadas ações. E vimos que isso tem implicações para as organizações que estão adotando essa nova geração de chatbots e assistentes automatizados.

As empresas que implementam agentes de IA generativa são incentivadas a adaptá-los para aumentar o controle gerencial. A Microsoft disponibilizou copilotos em seu conjunto de software de produtividade, oferecendo uma ferramenta personalizável que permite orientar com mais precisão o comportamento dos funcionários. Isso eleva o nudging à máxima potência. Em nossa pesquisa sobre os efeitos desses nudges, descobrimos que, com o tempo, eles reduzem a vontade e a capacidade dos indivíduos de refletir sobre a dimensão ética de suas decisões.

Os nudges gerados por IA podem ser bastante convincentes – especialmente em um momento em que as pessoas estão inclinadas a descartar seus próprios julgamentos em favor do que a tecnologia sugere. Em uma situação extrema, abdicar desse pensamento crítico pode se tornar uma espécie de arrogância tecnológica, que despreza o raciocínio humano em favor das capacidades computacionais mais poderosas da IA.

Por isso, será extremamente importante incentivar os funcionários a manter uma perspectiva crítica sobre o que a IA produz – e que os gestores prestem atenção às oportunidades para o que chamamos de impulso ético, as intervenções comportamentais que usam reflexão consciente ao invés da reação irracional. Isso melhora a competência ética dos indivíduos (em vez de deixar as habilidades cognitivas se atrofiarem).

Nudges digitais, especialmente na forma de incentivos e metas evidentes, podem sutilmente deslocar a motivação dos colaboradores, ofuscando os objetivos finais da equipe ou da organização – e mudando os objetivos a serem alcançados ao longo do processo para atingir a meta final.

Quando uma medida de desempenho se torna o objetivo principal de um colaborador ou uma colaboradora, deixa de funcionar como um índice eficaz, um fenômeno conhecido como lei de Goodhart.

Um exemplo: copilotos podem ser projetados para incentivar os trabalhadores mais voltados para os clientes a manter classificações de cinco estrelas, oferecendo recompensas financeiras ou por pontos.


Mas, se os funcionários se concentrarem inteiramente em aumentar a sua classificação, em vez de oferecer um ótimo atendimento na expectativa de receber uma pontuação alta, eles podem ser tentados a enganar os clientes. Em outras palavras, as classificações podem se tornar metas por si mesmas, em detrimento de qualidades importantes que são difíceis de medir, como honestidade e atendimento confiável.

As implicações do nudging são perniciosas especialmente em contextos eticamente complexos, que exigem autoconsciência dos valores que mais prezamos. Ao aceitar acriticamente a orientação do copiloto de IA, os gestores podem deixar de lado o “porquê” subjacente a suas decisões. Portanto vamos explicar como isso pode levar ao risco de degradação das competências éticas com o tempo – e o que se pode fazer a respeito.

DO MODO REATIVO PARA O REFLEXIVO

Esses nudges geralmente exploram o que o psicólogo (e também ganhador do Nobel de Economia) Daniel Kahneman chama de pensar rápido, um modo reativo que contrasta com o pensar lento, ou seja, fazer uma reflexão mais aprofundada. São intervenções que podem alavancar leves incentivos financeiros ou gatilhos emocionais (incluindo alegria, medo, empatia, pressão social e recompensas reputacionais) para induzir as pessoas a agir como deveriam se parassem para pensar eticamente.

Depender desses incentivos pode desviar, de modo reativo, a atenção dos colaboradores para a recompensa, desvinculada do fato em si, tomando o lugar dos motivos éticos que pretendiam encorajar.Essa mudança ocorre porque a maturidade moral e a autonomia só são alcançadas com a criação de bons hábitos voltados para recompensas intrínsecas, em oposição às extrínsecas.

Embora as intervenções de nudging sejam eficazes quando usadas com cuidado e moderação – uma vez que levam as pessoas a aumentar a autoconsciência e a autonomia –, o poder e a onipresença da IA generativa podem levar ao uso excessivo. Esse abuso poderia provocar uma desordem, um deslocamento motivacional, uma dependência, suprimindo bons hábitos de reflexão ética.

Também pode ter o efeito contrário, fazendo com que alguns colaboradores recuem ao perceber um certo paternalismo ou um nível excessivo de vigilância. Os gestores devem ter cuidado para não criar uma versão virtual do Admirável Mundo Novo de Aldous Huxley, em que o comportamento é condicionado – por respostas cognitivas automáticas – a seguir o que é exaltado pela IA e seus criadores.

Em todo caso, a dependência desses nudges comportamentais hoje não pode ser totalmente evitada, especialmente nos processos que envolvem gerenciamento de risco ou conformidade regulatória. A boa notícia é que mecanismos de verificação podem ser aplicados para manter os humanos conscientemente engajados e desencadear uma reflexão ética antes da ação, o que nos protegeria dessa tendência de atrofiar nossas habilidades cognitivas por falta de uso.

Dadas as muitas limitações atuais dos LLMs (incluindo a tendência a fornecer informações tendenciosas e imprecisas, bem como falta de compreensão e coerência lógica), os gestores devem priorizar gatilhos de engajamento para que os colaboradores continuem pensando de modo crítico sobre o conteúdo das respostas de seu copiloto de IA, mesmo quando não há um nudge ou uma escolha ética a fazer.

O POTENCIAL DO IMPULSO ÉTICO

Será possível desenvolvermos nossa capacidade de fazer uma reflexão sobre escolhas éticas e resistir às opções padrão, mais fáceis, que os nudges apresentam tanto no trabalho como em nossas interações como consumidores e cidadãos? Nesse sentido, vemos potencial nos impulsos éticos, que estão enraizados em uma visão positiva do potencial humano de aprender e de crescer.

Enquanto os nudges promovem a reatividade e levam as pessoas a escolher um comportamento específico sem muita reflexão própria, o reforço é um exercício de desenvolvimento em longo prazo para incentivar hábitos de atenção plena e reflexão. Os reforços podem assumir a forma de regras mentais práticas, ou um atalho mental que nos ajuda a identificar dilemas éticos e realmente refletir sobre eles.

Como na velha regra de ouro que nos lembra de tratar os outros como gostaríamos de ser tratados.
Reforçar os princípios também é uma maneira de lidar com as contingências negativas, usando lembretes em momentos críticos para corrigir padrões que são prejudiciais ao ambiente de trabalho. Nesse caso, até mesmo os copilotos de IA conseguem atuar, se forem capazes de incentivar as pessoas a refletir em vez de simplesmente clicar em “aceitar” uma recomendação.

Descobrimos que o copiloto da Microsoft nas ferramentas de e-mail já sabia muito bem como avisar os usuários de que estavam usando uma linguagem sutil e potencialmente ofensiva nas mensagens. No entanto, eles tinham a opção de exercitar o cérebro reescrevendo e-mails com suas próprias palavras, por exemplo, em vez de aceitar as recomendações genéricas do sistema.

Para incentivar esse tipo de mentalidade, aplicativos de mensagens poderiam sugerir que usuários parassem um pouco para pensar antes de responder a uma cascata de e-mails que têm boas chances de serem rudes ou hostis, para esfriar os ânimos e refletir um pouco melhor.

A imagem de uma pessoa digitando raivosamente poderia aparecer na tela para servir como uma espécie de quebra-molas que nos ajudaria a desenvolver uma autoconsciência virtuosa. Também existem treinamentos que visam aprimorar habilidades cognitivas, como a de reconhecer seus próprios vieses e suposições – essa é a proposta do programa Sirius, do Director of National Intelligence, que supervisiona a implementação do programa federal de inteligência dos Estados Unidos.

OS GESTORES DEVEM PRESTAR ATENÇÃO ao apelo retórico do branding da IA generativa como um copiloto pessoal – que sugere um papel capaz, autônomo e responsável – em vez de um suporte à decisão ou um assistente, reconhecendo que a tecnologia é subserviente ao usuário.

Afinal, na vida real, um copiloto é totalmente qualificado para pilotar o avião na ausência do piloto. Esse prestígio implícito de competência convida sutilmente os colaboradores a confiar e a seguir os nudges da IA. Se os copilotos de IA trouxerem maior controle e eficiência gerencial às custas do declínio da competência ética da força de trabalho, os gestores terão de considerar se não é uma boa ideia instalar alguns quebra-molas para reflexão.

Entenda como a IA distorce nosso senso
de responsabilidade

Pesquisas mostram que confiar demais em sistemas autônomos prejudica a capacidade de ação POR RIAD TITAH*

Conforme a IA ganha um papel cada vez maior em sistemas automatizados e na tomada de decisão, surgem preocupações sobre como isso afeta nossa forma de agir. Há evidências crescentes de que a IA diminui o senso de responsabilidade de seus usuários pelas consequências de suas decisões – um ponto negligenciado nas discussões sobre IA responsável. 

Hoje nos limitamos a administrar riscos legais e reputacionais, uma visão limitada de responsabilidade, se nos basearmos no conceito do filósofo alemão Hans Jonas. Ele definiu três tipos de responsabilidade, mas a prática de IA parece preocupada com apenas dois: a responsabilidade legal (o dever de reparar danos ou compensar perdas) e a moral (punição pelos atos).

O que mais nos preocupa aqui é o terceiro tipo: o senso de responsabilidade, que implica pensamento crítico e reflexão preditiva sobre o propósito e as possíveis consequências de suas ações. 

Um estudo que realizamos com veículos autônomos mostra que, na presença de um sistema automatizado, muita gente se sente encorajada a evitar a responsabilidade de intervir (para evitar um acidente, por exemplo). Em outro, descobrimos que quanto mais uma pessoa confia no sistema automatizado, menor é a sua intenção de reaver o controle do que está fazendo. 

Esse tipo de resultado mostra que os indivíduos tendem a perder de vista seu poder de decisão mesmo quando são capazes de agir. Quando sentem menos controle (ou que a IA está no comando), seu senso de responsabilidade também diminui.

A questão é: como encorajamos os humanos a aceitar que têm responsabilidade proativa – e exercê-la? Para compensar essa tendência, recomendamos mudar a ênfase nas comunicações aos funcionários de confiar na IA para entender a IA e seu potencial de errar ou causar danos. Assim se gera uma confiança condicional na tecnologia, sujeita à avaliação dos resultados. 

Também é preciso nutrir uma cultura de responsabilidade em oposição à de evitar a culpa pelo erro, deixando espaços claros de possibilidade para a inteligência humana.

*Ryad Titah é professor associado e presidente do departamento acadêmico de tecnologias da informação da HEC Montréal, no Canadá. 

Julian Friedland, David B. Balkin e Kristian Ove R. Myrseth
Julian Friedland, David B. Balkin e Kristian Ove R. Myrseth
SOBRE OS AUTORES Julian Friedland é professor de ética nos negócios na College of Business, Metropolitan State University of Denver, nos Estados Unidos. David B. Balkin é professor emérito de administração na Leeds School of Business da University of Colorado em Boulder, Estados Unidos. Kristian Ove R. Myrseth é professor de administração na School for Business and Society da University of York, na Inglaterra.

Este conteúdo está tagueado como:

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui