Mais sobre o colunista

8 min de leitura

ChatGPT: aprendendo a diferenciar hype e amor eterno

Problemas como os da concessionária Chevrolet e da Air Canada, gerados pela automação de certos processos com IA generativa, provam que parcimônia e critérios técnicos são necessários para decidir usar ChatGPT e afins

Alexandre Nascimento
ChatGPT: aprendendo a diferenciar hype e amor eterno
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

O ano de 2023 foi, sem dúvida, o ano em que o ChatGPT causou sensação no mundo corporativo. Executivos, investidores e mesmo profissionais de organizações do setor público compraram a ideia de que ele e outras inteligências artificiais generativas poderiam resolver muitos dos problemas de negócio e de automação que nem os humanos conseguem resolver. Essa expectativa desproporcionalmente otimista diante do que a tecnologia realmente pode fazer criou o tal medo de ficar para trás (abreviada em inglês como Fomo, ou “feeling of missing out”) que empurrou todos para uma corrida do ouro desenfreada, buscando automações que pareciam possíveis.

Ao longo do ano passado inteiro, aconselhei muitos executivos a tomarem cuidado com isso, pois, apesar de estarmos diante de uma tecnologia incrível, ela não tinha ainda maturidade suficiente para automatizar os processos de negócios, de atendimento ou mesmo de elaboração de trabalhos que exigem o conhecimento profundo de uma área, como no caso do direito ou da medicina.

Nem sempre fui ouvido. Muitos preferiram dar mais atenção ao hype e ao medo de ficar para trás. E tomaram decisões de embarcar em projetos de automação com essas tecnologias, apoiados por especialistas em ChatGPT e IA generativa que brotaram da noite para o dia.

Foi interessante observar que, até em entrevistas, minhas críticas ao excesso de entusiasmo e crenças irreais quanto a essas novas ferramentas acabaram não encontrando espaço. A sensação que tive foi de que estava apontando os defeitos da esposa para o marido apaixonado em plena lua-de-mel.

Um dos grandes casos de uso que vários perseguiram foi a automação do atendimento ao cliente, pois o ChatGPT parecia realmente ter condições de automatizar completamente o atendimento, substituindo aqueles antigos e limitados chatbots.

Bem, parece que agora estamos chegando ao fim dessa paixão. E confesso: tenho dificuldade em deixar de dizer “eu avisei” sempre que se trata de um assunto técnico, não sendo diferente agora. Hype não é amor, muito menos amor eterno.

Na mesma proporção que surgiram os especialistas em ChatGPT e IAs generativas, começaram a brotar os casos de insucesso na automações de atendimento. Comentarei apenas alguns para ilustrar o que está acontecendo.

O primeiro caso ocorreu numa concessionária da Chevrolet no estado de Massachusetts, nos EUA. Segundo noticiado pelo do site carscoops.com, um usuário se surpreendeu ao ser atendido pelo chatbot e obter respostas que, inesperadamente, promoviam veículos de outras marcas, destacando o Rivian R1T e o Ford F-150 Lightning por suas notáveis capacidades fora de estrada, impressionante autonomia de bateria e robusta capacidade de reboque.

Essa interação foi particularmente inusitada, considerando que o usuário não havia induzido perguntas enganosas ou provocativas. Ainda assim, o chatbot omitiu qualquer menção ao Silverado EV da Chevrolet, um dos principais veículos elétricos da própria marca.

Esse exemplo evidencia a maneira em que as IAs generativas, como o ChatGPT, podem desviar-se dos interesses comerciais da empresa. Revela também o desafio de precisão das ferramentas de IA no ambiente de vendas.

O segundo caso ocorreu no Canadá e chegou a ser discutido na Justiça canadense, conforme noticiado pelo site ArsTechnica. Após meses de disputa, a Air Canada finalmente concordou em reembolsar parcialmente um passageiro que foi erroneamente informado pelo chatbot de atendimento da empresa sobre a política de viagem por luto.

Jake Moffatt, que buscava compreender as tarifas de luto após a morte de sua avó, foi induzido pelo chatbot a comprar um bilhete imediatamente, acreditando que poderia solicitar um reembolso posteriormente, conforme instruído pelo sistema automatizado. No entanto, contrariando as informações fornecidas pelo chatbot, a política da companhia aérea não permitia reembolsos após a compra para viagens de luto, levando a uma tentativa frustrada de Moffatt em conseguir seu dinheiro de volta.

A situação escalou para o Tribunal de Resolução Civil do Canadá, onde, após um prolongado debate, a decisão foi favorável ao cliente. A Air Canada, defendendo-se, alegou que o chatbot era uma entidade legal separada, o que foi rejeitado pelo tribunal. Este entendeu que a empresa é responsável por garantir a precisão das informações fornecidas por seus agentes automatizados, independentemente do conteúdo ser estático ou dinâmico, e ainda criticou a Air Canada por não tomar o cuidado razoável para assegurar a veracidade das informações do chatbot. O incidente levou a Air Canada a desativar seu chatbot.

Nesses casos, tudo leva a crer que os usuários não desejavam enganar o chatbot para tirar proveito da situação. Mas e quando esse não é o caso? E quando os usuários desejam obter vantagens? Foi o que ocorreu nos Estados Unidos. Segundo noticiado pelo The Sun, o ex-funcionário do X (antigo Twitter) Chris Bakke revelou a impressionante sequência de eventos na qual ele induziu o chatbot de uma concessionária da Chevrolet a vender para ele uma SUV de luxo (Chevy Tahoe 2024) que custava quase R$ 400 mil por apenas US$ 1.

A automação de atividades jurídicas por profissionais do direito e do judiciário

Os casos acima mostram que a tecnologia ainda não está madura o suficiente para automatizar completamente os processos de atendimento e vendas. No entanto, há um assunto que me preocupa ainda mais do que a utilização de gambiarras baseadas na utilização da API do ChatGPT para automação de atendimento e força de vendas. Trata-se da automação de atividades jurídicas por parte de advogados e profissionais do judiciário.

Minha preocupação vem do fato de que, nesse caso, estamos falando de um impacto na justiça. Algo que pode causar prejuízo à garantia de direitos em uma disputa ou, até mesmo, gerar condenações ou absolvições indevidas, colocando em risco a sociedade.

Na mídia americana, há várias notícias de advogados que utilizaram o ChatGPT para gerar petições que continham argumentos baseados em jurisprudências falsas, baseadas em delírios da ferramenta de IA generativa para gerar uma argumentação persuasiva. Como resultado, esses advogados descuidados estão tendo suas licenças para advogar caçadas.

No Brasil, várias varas judiciais estão promovendo iniciativas de automação baseadas no ChatGPT. Em várias oportunidades, procurei chamar a atenção para o fato de que a tecnologia ainda não tem o grau de maturidade necessário e, portanto, não funciona da forma como as pessoas esperam.

Na verdade, o estudo “”Hallucinating Law: Legal Mistakes in Large Language Models Are Pervasive”” (em tradução livre, “alucinação na lei: erros jurídicos em modelos de linguagem de grande escala são onipresentes”), publicado pela Stanford University, encontrou um problema significativo em modelos de linguagem de grande escala: a propensão a gerar informações legais incorretas ou enganosas, um fenômeno frequentemente referido como “”alucinação””.

A pesquisa revelou que, apesar dos avanços tecnológicos, esses modelos frequentemente falham ao tentar fornecer orientações jurídicas precisas, criando riscos potenciais tanto para os usuários que confiam nessas informações quanto para a integridade do sistema jurídico como um todo. Um dos pontos alarmantes do estudo é a conclusão de que tais erros não são apenas ocasionais, mas sim um problema generalizado, que afeta a confiabilidade das informações legais fornecidas por esses sistemas.

Parcimônia e critérios técnicos no uso da IA

Faço aqui uma pausa para ressaltar que a tecnologia por trás de ferramentas como o ChatGPT é espetacular. Como grande entusiasta dela, afirmo que pode e deve ser utilizada no apoio de nossas atividades. Mas destaco é fundamental ter parcimônia e utilizar critérios técnicos no lugar da empolgação ou de FOMO para selecionar o que pode ser feito com ela.

E a essa altura você pode estar se perguntando: que critérios técnicos me permitiram antecipar esse tipo de problema e a não aplicabilidade do ChatGPT em diversas situações?

O critério foi a incompatibilidade entre a natureza dos processos ou atividades que muitos desejam automatizar e a natureza algorítmica do ChatGPT. Os processos de negócio possuem uma natureza algorítmica determinística, ou seja, eles possuem previsibilidade e consistência.

De fato, os executivos desejam que eles produzam o mesmo resultado ou saída cada vez que são executados com um determinado conjunto de entradas; que a execução seja completamente previsível; e o caminho ou passos a serem seguidos estejam claramente definido.

Mas a verdade é que o ChatGPT, apesar de ser construído sobre fundamentos determinísticos, foi elaborado para funcionar de forma não determinística, não garantindo previsibilidade e consistência.”

Alexandre Nascimento
Alexandre Nascimento realiza pesquisas aplicadas em tecnologias inovadoras ligadas a algumas das principais universidades do mundo, como o próprio MIT, Stanford e Singularity University, e é empreendedor em série, hoje sediado no Vale do Silício. Tem trabalhado com desenvolvimento de inteligência artificial desde 1998, possuindo diversas patentes na área.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui