7 min de leitura

A inteligência artificial pode ser confiável?

Para enfrentar a cautela dos usuários, criadores de aplicativos de inteligência artificial (IA) deveriam parar de prometer demais, tornar-se mais transparentes e pensar em obter a certificação de terceiros

Thomas Davenport
29 de julho de 2024
A inteligência artificial pode ser confiável?
Link copiado para a área de transferência!

É triste constatar que muitas pessoas não confiam em decisões, respostas ou recomendações de inteligência artificial. Em uma enquete com consumidores norte-americanos, quando apresentados a uma lista de serviços frequentemente baseados em IA (por exemplo, de assistência doméstica, planejamento financeiro, diagnóstico médico ou contratação de mão de obra), 41,5% dos respondentes disseram que não confiavam em nenhum deles. Apenas 9% deles afirmaram confiar na IA para suas finanças, e apenas 4% confiavam em IA no processo de contratação de funcionários. Outra pesquisa perguntou a 2 mil consumidores norte-americanos: “Quando você pensa em IA, que palavras melhor descrevem suas emoções?”. “Interesse” foi a resposta mais comum (45%), mas seguida por “preocupação” (40,5%), “ceticismo” (40,1%), “insegurança” (39,1%) e “desconfiança” (29,8%).

Qual é o problema? E ele pode ser superado? Acredito que várias questões precisam ser abordadas para que as pessoas possam confiar na IA, tanto nos negócios como na vida em sociedade.

RÉDEA CURTA NAS PROMESSAS

O Gartner, dedicado a pesquisas de tecnologia da informação (TI), sugere que tecnologias como computação cognitiva, machine learning e deep learning, muito incensadas, tendem a logo cair na vala comum da desilusão. 

É possível culpar os vendedores por isso. Pense no imenso orçamento publicitário que a IBM alocou para o Watson e nas afirmações exageradas sobre suas habilidades. Um importante pesquisador de IA, Oren Etzioni, chamou o Watson de “o Donald Trump” da indústria de IA –  ou seja, “aquele que faz afirmações extravagantes que não têm o suporte de dados críveis”.

Elon Musk da Tesla é outro que frequentemente contribui para o excesso de euforia em relação à IA, especialmente quanto à capacidade dos carros da Tesla de se autodirigirem. A empresa usa o termo “autopilot” para descrever essa habilidade, o que sugeriria autonomia total, mas é controverso. Os carros Tesla têm habilidades de direção semiautônoma impressionantes e são impactantes em muitos aspectos, mas não são ainda 100% autônomos. 

Felizmente, nem todas as empresas estão alardeando demais suas habilidades de IA. É o caso, por exemplo, do banco nórdico SEB e de seu uso da Aida, uma agente inteligente derivada da Amelia, da Ipsoft. O SEB vem sendo conservador na descrição do que a Aida pode fazer, primeiro lançando-a para uso interno no help desk de TI (onde ainda é usada e é popular com os funcionários) e então tornando-a disponível a clientes experimentalmente. Um press release do SEB resume o tom conservador: “No momento, a Aida tem duas atribuições principais: ela é funcionária digital do service desk de TI interno do banco, onde se comunica em seu idioma original, o inglês, e é trainee no call center, onde está aprendendo a conversar com os clientes em sueco, na seb.se”. “Tentamos pensar na Aida como uma pessoa”, diz Erica Lundin, chefe do Aida Center of Excellence. “Então, estamos construindo seu CV para mostrar o que ela conquistou e no que é competente, e mais adiante trabalharemos em seu PDD sigla em inglês para diálogo de desenvolvimento pessoal para desenvolver suas áreas de competência.”

Quer o uso de tecnologias cognitivas seja interno ou externo, é melhor prometer menos e entregar mais. Introduza novas habilidades, como ofertas beta, e diga que o objetivo é aprender sobre o uso da tecnologia. Não elimine abordagens alternativas (geralmente humanas) para resolver problemas de funcionários e clientes. E, ao longo do tempo, tanto a máquina como a descrição de suas funções poderão tornar-se mais confiáveis.

OFEREÇA TRANSPARÊNCIA TOTAL

Outra forma de aumentar a confiança em IA é revelar completamente, tanto quanto possível, como o sistema funciona e como será usado. Essa transparência pode incluir, por exemplo, observar que o cliente está trabalhando com um “agente inteligente do sistema de computação” em vez de um representante humano. Ou, se a solução for híbrida, com parte dos conselhos humanos e parte computadorizados, a transparência deve dizer quem faz o quê. 

Esse tipo de esclarecimento deveria ser desenvolvido não por advogados – que tendem a embrulhar o discurso em juridiquês – mas por pessoas de marketing. A ideia a ser transmitida para superar as barreiras é que esta é uma oportunidade de tentar algo novo, que a ajuda está disponível 24 horas por dia, e que isso pode atender bem à demanda do cliente. 

Agora, as empresas precisam ter cuidado com a combinação de IA com marketing. Em uma pesquisa com 2 mil pessoas nos EUA, 87% dos respondentes disseram que apoiariam uma lei que proibisse sistemas de IA – como bots, chatbots e assistentes virtuais – que se passassem por humanos. E 88% dos respondentes disseram que IA em marketing deveria seguir um código de conduta ética. De um lado mais positivo, dois terços dos entrevistados estavam abertos a empresas e marcas que usassem IA para se comunicar com eles e atendê-los, com “o pré-requisito da transparência e dos esclarecimentos”.

CERTIFICAÇÃO

Conforme nossa sociedade e a economia começarem a se basear mais em IA e no machine learning, é muito provável que haja a necessidade de alguma forma de certificação externa quanto aos modelos e algoritmos usados. Assim como a FDA órgão equivalente à Anvisa certifica a eficácia dos medicamentos e auditores certificam processos financeiros, haverá necessidade de organizações confiáveis – governamentais ou privadas – que apoiem a confiabilidade, replicabilidade e acurácia dos algoritmos de IA. 

Adam Schneider, consultor que trabalha em serviços financeiros, foi o primeiro a destacar as possibilidades de certificação de IA para mim. Ele tem vários exemplos de configurações nas quais a certificação talvez tivesse de ser exigida:

• IA dirigindo carros: precisamos de um conselho de avaliação de veículos autônomos para entender as falhas do carro, permitir comparação entre diferentes abordagens de IA entre os fabricantes e monitorar as evoluções? 

• IA diagnosticando pacientes: precisamos de um protocolo no qual médicos humanos verifiquem o suficiente dos diagnósticos pessoalmente, usando técnicas estatisticamente válidas?

– IA investindo roboticamente: uma empresa anunciou “Temos IA”, avisando que foi “amplamente testado”. Esse nível de esclarecimento é bom o suficiente? O que “Temos IA” significa? Padrões deveriam ser definidos antes de a IA poder ser anunciada a investidores menos letrados no tema? 

Entrevistei um consultor da Deloitte, Christopher Stevenson, sobre seu trabalho com os já conhecidos “robôs-investidores”. Ele disse que sua empresa já fornece consultoria e certificação a instituições financeiras nesta área. Ele oferece serviços como estabelecimento de controles e testes periódicos de efetividade, avaliação da comunicação com os cliente e esclarecimentos, avaliação de algoritmos e avaliação de compliance às regras de trading.

Não sei se a certificação vai pegar, mas suspeito que sim, neste e em outros mercados. Mas, para que se torne exigência legal, talvez seja necessário um fracasso que receba muita atenção da mídia.

Thomas Davenport
Thomas H. Davenport é professor de tecnologia da informação e gestão do Babson College e membro sênior da MIT Initiative em economia digital, além de um pioneiro na economia dos dados e do analytics.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui