Este episódio do podcast Me, Myselft, and AI lança luz sobre o impacto da IA generativa no pensamento crítico e nas habilidades interpessoais e os riscos de usá-la indiscriminadamente
No episódio 1004 do podcast Me, Myselft, and AI, os host Sam Ransbotham e Shervin Khodabandeh recebem o jornalista Jeremy Kahn, autor e editor de IA na revista Fortune, para conversar sobre os riscos do uso excessivo da inteligência artificial (IA). O tema foi alvo da vasta pesquisa que ele realizou e que agora está refletida no seu mais novo livro, Mastering AI: A Survival Guide to Our Superpowered Future.
O bate-papo explora uma variedade de temas, incluindo a crescente dependência das pessoas em relação à tecnologia de IA — especialmente a IA generativa, cujos resultados são difíceis, se não impossíveis, de rastrear até uma fonte confiável. Eles também discutem o impacto da IA no pensamento crítico, como educar melhor as pessoas sobre os riscos e limitações da tecnologia, o valor de cultivar a adaptabilidade dos funcionários e como a capacidade da IA generativa de simular interações humanas pode estar afetando as habilidades interpessoais das pessoas na vida real.
A seguir, confira a transcrição completa do episódio.
Jeremy Kahn é um jornalista premiado da Fortune, onde escreve sobre inteligência artificial e tecnologias emergentes. Além de produzir matérias de capa e reportagens, ele é responsável pelo boletim semanal “Eye on AI” e codirige as conferências de tecnologia Brainstorm AI como editor de IA. Antes de sua atuação na Fortune, Kahn cobriu tecnologia, incluindo IA, na Bloomberg. Seus textos também já foram publicados em veículos como The New York Times, Newsweek, The Atlantic, Smithsonian Magazine, The Boston Globe, The New Republic e Slate. Ao longo de sua carreira, ele realizou reportagens em países como Índia e outras partes do sul da Ásia, Costa do Marfim, Iraque, Venezuela e boa parte da Europa Ocidental. Ele é autor de Mastering AI: A Survival Guide to Our Superpowered Future.
Sam Ransbotham: Olá a todos. Obrigado por se juntarem a nós hoje. Shervin e eu estamos animados em conversar com Jeremy Kahn. Ele é o editor de IA da Fortune, na qual escreve o boletim informativo semanal “Eye on AI”. É também é autor do livro Mastering AI: A Survival Guide to Our Superpowered Future. Jeremy, estamos ansiosos para conversar hoje.
Jeremy Kahn: É ótimo estar aqui.
Sam Ransbotham: Ouvimos muito sobre os benefícios da IA, mas vamos abrir a conversa com alguns desses riscos que você prevê. Por exemplo, você adverte contra deixar que as proezas cognitivas da IA diminuam nossas próprias proezas. Pode nos explicar como uma ferramenta poderosa como essa pode diminuir nossas próprias habilidades humanas?
Jeremy Kahn: Uma das coisas que me preocupa é que essa tecnologia é, de certa forma, tão fácil de usar e tão sedutora que podemos usá-la em excesso e, como resultado, perder algumas de nossas importantes habilidades cognitivas. Uma que me preocupa é o pensamento crítico. Qualquer pessoa que já tenha usado um desses chatbots da OpenAI, Anthropic ou qualquer outro obteve uma resposta muito fluida e plausível, além de um resumo bem completo sobre qualquer informação que deseje. E eu acho que é muito fácil pegar esse resultado, não pensar muito sobre a qualidade dele e sair dizendo: “Ei, eu consegui a resposta”.
Da maneira como esses sistemas são projetados hoje, não há nenhum aviso claro para o usuário verificar a proveniência das informações que está recebendo. O próprio sistema não tem a menor ideia da origem do que está fornecendo. Por isso, não há chance de ele dizer como ele sabe o que sabe.
Sam Ransbotham: Para começar, explique o que quer dizer com proveniência.
Jeremy Kahn: Proveniência significa a fonte da informação. Algo em particular diz de onde veio aquele dado? Ou o sistema tem como dizer?
As pessoas disseram coisas parecidas sobre o Google quando ele apareceu, e houve algumas críticas de que ele nos tornaria “estúpidos”. Mas um dos fatos bons sobre o Google é que nele, pelo menos, você tem os links à disposição. Há algo no UX (da sigla em inglês, interface do usuário) que o leva a pensar sobre a fonte da informação. Já diante de uma resposta de chatbot baseada em IA generativa, você não precisa fazer nada – e isso me preocupa.
Outra tendência desses grandes modelos de linguagem (LLM, na sigla em inglês) é funcionar como se escrever e pensar fossem atividades completamente separadas. “Vou só dar ao sistema alguns pontos e ele escreverá todo o ensaio para mim. Ele fará todo o trabalho duro de pensar nos argumentos.” Me preocupo com isso porque, novamente, acho que escrever e pensar são atividades indissociáveis – é por meio da escrita que refinamos muito do nosso raciocínio.
Shervin Khodabandeh: O BCG fez um dos maiores estudos controlados, com MIT, Harvard e Wharton, em que analisamos milhares de consultores que tiveram acesso ao ChatGPT no trabalho. Em certas tarefas que incluíam amplo pensamento criativo e ideação, aqueles que foram instruídos a usar a ferramenta se saíram melhor que outros. Isso porque ela expande o reino das possibilidades para muitos em termos de “como criar uma campanha?” ou “como considerar determinado tema sob diferentes ângulos”. Mas em temas nos quais consultores devem se destacar, como estratégia de negócios e resolução de problemas, a IA generativa não se saiu tão bem. A dependência excessiva da IA pode embotar o pensamento crítico.
Antes de todos esses LLM, a IA era uma ferramenta que nos ajudava a prever melhor, otimizar ou fazer coisas que os humanos não podiam fazer. Acho que entramos em uma fase em que a IA está fazendo o que os humanos também poderiam fazer e, em muitos aspectos, melhor que a tecnologia. Pensamos nela mais como um colega de trabalho do que como uma ferramenta. O caminho, então, é desafiá-lo.
Os melhores resultados que obtenho de um bate-papo com a IA generativa são quando realmente me envolvo com ela da mesma forma que me envolveria com um recém-formado ou um jovem aprendiz que contratasse. Você os desafia.
O que me preocupa no longo prazo é a primeira coisa que você disse: “Estamos usando demais?”. O que os humanos inventaram que não usaram em excesso?
Jeremy Kahn: Sim, essa é uma ótima pergunta, e realmente existe esse risco. No meu livro, exploro a importância de usar a IA de maneira específica e consciente. O problema é que as empresas que desenvolvem essas ferramentas não têm incentivos para desencorajar o uso excessivo ou inadequado por parte dos usuários.
Uma forma de mitigar esse risco é direcionar o uso da IA para complementar, e não substituir, o trabalho humano. Por exemplo, o ideal seria que um consultor humano criasse a redação inicial de um documento ou proposta e, em seguida, utilizasse a IA como uma espécie de “colega sênior” para revisar o material. A ferramenta poderia apontar falhas, sugerir melhorias ou destacar aspectos que o redator original talvez tenha deixado passar ou não considerado.
Essa abordagem ajuda a treinar as pessoas para usarem os sistemas de IA de maneira mais eficiente, pensando neles como treinadores, editores ou auditores do nosso trabalho, em vez de delegar a eles o papel de redatores principais.
Sam Ransbotham: E o que as pessoas podem fazer na prática para adotar esse tipo de uso? Por exemplo, sugerir que elas esbocem algo primeiro antes de recorrer à IA. Há outras estratégias que poderiam ser recomendadas?
Jeremy Kahn: Com certeza. Uma sugestão importante é treinar as pessoas para compreenderem bem as capacidades e limitações desses sistemas. Saber onde a IA é realmente eficaz e onde não é faz toda a diferença. Isso deve ser incorporado ao treinamento dos funcionários para que usem essas ferramentas como copilotos em suas tarefas.
Por exemplo, durante o processo de aprendizagem, as pessoas poderiam ser expostas a situações que demonstrassem claramente os pontos fortes e fracos da IA. Mostrar exemplos concretos de erros comuns, como quando o sistema “alucina” (isto é, inventa informações) ou ignora argumentos inteiros porque eles não estão bem representados no conjunto de dados de treinamento, é fundamental para criar essa consciência.
Shervin Khodabandeh: Veja, eu fico dividido. Por um lado, percebo os benefícios — tenho filhos no ensino médio e vejo como isso pode ajudá-los. Mas também vejo os riscos. Recentemente, meu filho estava usando o ChatGPT e perguntei: “O que você está fazendo? É tarefa de matemática?” Ele respondeu: “Não entendo como resolver esse problema. Está me ensinando. Agora vou tentar resolver sozinho e depois verificar se está certo.” Isso me deixou aliviado, porque ele estava usando a ferramenta como um suporte, e não como uma muleta.
O que me preocupa é que essa tecnologia reduz significativamente a carga cognitiva dos humanos, o que pode ser positivo, mas também perigoso, dependendo do contexto. Acho que isso é algo que as pessoas estão começando a perceber. Porém, dado que estamos apenas no início dessa era — uma tecnologia com apenas dois anos que já é impressionante, mas ainda tem falhas — existe um longo caminho a ser percorrido.
Outra questão que me intriga é como estamos discutindo principalmente o uso individual da IA neste momento. Contudo, se olharmos para onde os grandes investimentos estão sendo direcionados, vemos que eles estão focados no ambiente corporativo. Empresas estão liderando o consumo dessas tecnologias, com bilhões e trilhões de dólares fluindo para isso. Ainda assim, acredito que estamos em um estágio muito inicial, especialmente no que diz respeito à adoção em larga escala.
O que realmente me preocupa é a ampliação das desigualdades. A distância entre as empresas ou indivíduos que têm acesso e sabem usar essa tecnologia e aqueles que não têm está aumentando rapidamente. Isso cria uma divisão perigosa. Sam, como discutimos em nossa pesquisa, há a “lacuna da IA”: apenas 10% das empresas estão obtendo valor significativo dela, enquanto a grande maioria ainda não sabe como avançar. E o que vai acontecer com essas empresas que estão ficando para trás?
Jeremy Kahn: Não acredito que essa desigualdade persistirá daqui a 10 anos. Acho que, até lá, teremos refinado e otimizado muitos aspectos do acesso e uso da IA, tornando-a mais acessível e eficaz para um público mais amplo.
Shervin Khodabandeh: Enquanto ouvia você, Jeremy, comecei a pensar não apenas nos trabalhadores que estão sendo requalificados, nos novos talentos entrando no mercado ou nas empresas contratando pessoas que normalmente não contratariam devido a picos de demanda além da IA. Minha mente também foi para a geração mais jovem.
Isso me leva a uma pergunta para você, Sam, como educador e professor: o que podemos fazer agora, nas escolas, para preparar esses jovens? Quando estávamos na escola, era fundamental pensar de forma profunda, memorizar conceitos, ler bastante, estudar matemática intensamente e demonstrar esforço. Esse era o caminho para o sucesso, e acredito que…
Sam Ransbotham: Você falou como um verdadeiro engenheiro.
Shervin Khodabandeh: Tudo bem, é verdade, mas para áreas como ciência e engenharia, isso era uma realidade. E agora, o que você acha que essas mudanças significarão para as disciplinas do ensino médio e universitário nos próximos cinco a 10 anos?
Sam Ransbotham: É uma questão importante. Shervin e eu temos filhos de idades parecidas, e eu também convivo com estudantes universitários o tempo todo. Uma das minhas preocupações é com o conselho amplamente difundido para que sejam flexíveis. Não que eu discorde dessa orientação, mas será que ela é tão convincente quanto algo prático como “compre na baixa e venda na alta”? Acho que ninguém vai aceitar o contra-argumento de que “Ah, sim, você deveria ser mais rígido e menos flexível.” Mas como podemos realmente ensinar as pessoas a serem flexíveis? Tenho algumas técnicas que aplico em sala de aula, mas, Jeremy, como podemos ir além de simplesmente dizer “seja flexível”? O que as pessoas poderiam fazer na prática? Alguém que esteja ouvindo agora: o que ele ou ela pode começar a fazer amanhã para desenvolver essa habilidade?
Jeremy Kahn: Essa é uma ótima pergunta, e confesso que não tenho uma resposta definitiva. Mas acredito que, para se tornar mais adaptável, as pessoas precisam ser expostas a mudanças frequentes. A única maneira de praticar a adaptação é enfrentando situações que exijam isso constantemente.
Alguns trabalhos, por exemplo, possuem processos muito rotineiros e não exigem que o profissional se adapte com frequência. Já outros demandam que a pessoa lide com novos desafios ou questões a cada dia, o que força um aprendizado contínuo. Para os alunos, seria interessante estruturar o ensino de forma que eles fossem expostos a abordagens diferentes ao longo do tempo — talvez a cada ano ou em cada ciclo escolar. Incluir a prática da adaptação no sistema educacional seria uma maneira eficaz de ensiná-los a lidar com mudanças.
Passei algum tempo conversando com o pessoal da NASA sobre como eles ensinam os astronautas a trabalhar ao lado de sistemas automatizados. No meu livro, discuto a questão da vigilância humana. Quando você coloca uma pessoa nesse papel de apenas monitorar um sistema automatizado, o ser humano, em geral, não é muito eficaz nisso. A NASA tentou diversas abordagens para melhorar esse processo, mas, no final, a única solução eficaz foi introduzir falhas de forma aleatória no sistema, forçando os astronautas a estarem sempre alerta. Isso cria um cenário interessante. Talvez possamos aplicar uma abordagem semelhante no treinamento de alunos ou na formação da força de trabalho, onde você introduz artificialmente interrupções e mudanças, ajudando as pessoas a se acostumarem com o processo de adaptação constante.
Sam Ransbotham: Isso é realmente fascinante. Na verdade, isso me lembra de um exemplo que você mencionou no livro sobre um experimento da Georgia Tech. Como eu sou da área, acabei prestando atenção, e achei incrível o fato de que as pessoas seguiam robôs que estavam, de forma óbvia, cometendo erros repetidos. Mesmo assim, continuavam a seguir os robôs, sem questionar suas falhas. Achei isso muito interessante.
O que você está sugerindo é que educadores e o sistema de ensino precisam introduzir uma dose de ceticismo em relação a esses sistemas, ajudando os alunos a entender que eles também falham. Isso faz total sentido, e se a NASA já utiliza essa abordagem, eu acredito que devemos considerar isso seriamente.
Jeremy Kahn: Concordo. Acho que podemos aprender muito com a indústria espacial e com a aviação, que há décadas usam sistemas automatizados em diversos contextos. Um dos aspectos mais subestimados nesse campo é o que chamam de engenharia de fator humano ou interação humano-computador. Essas áreas, sem dúvida, terão um papel muito mais relevante à medida que os sistemas automatizados se tornem mais comuns.
Sam Ransbotham: Exatamente. Uma coisa que me chama atenção quando falamos sobre a interação com dispositivos, em contraste com a interação com pessoas, é a questão da empatia. De certa forma, interagir com um dispositivo pode nos tornar menos empáticos, não acha?
Jeremy Kahn: Sim, isso é algo que eu discuto bastante no livro. A empatia, ao meu ver, é o que torna as interações humanas únicas. É, em última análise, a habilidade que temos de nos conectar com os outros com base em nossa própria experiência de vida e de entender a experiência dos outros. O grande problema com a IA é que ela não tem experiência vivida. Chatbots, por exemplo, podem imitar a empatia com bastante precisão – eles podem soar simpáticos, até parecerem empáticos, mas não é uma empatia genuína. De certa forma, isso é uma fraude. Não é autêntico. Precisamos lembrar dessa diferença entre uma empatia real e a mera imitação dela.
Eu fico especialmente preocupado com pessoas que começam a usar chatbots como se fossem amigos ou até companheiros, substituindo as interações humanas. Isso, na minha opinião, representa uma desqualificação de uma habilidade humana essencial – a habilidade de interagir com seres humanos reais, que são, sem dúvida, muito mais complexos. Isso também pode afetar a maneira como as pessoas se relacionam na vida real.
Há estudos interessantes sobre como homens, por exemplo, interagem com a Alexa, a assistente digital da Amazon. Em alguns experimentos, homens ficaram sozinhos com a Alexa em um ambiente onde não perceberam que estavam sendo gravados. Curiosamente, muitos começaram a ser abusivos com ela, especialmente por ser uma voz feminina. O mais alarmante é que, em interações posteriores com pessoas reais, alguns desses homens transportaram essa linguagem misógina para os seus relacionamentos. Isso é perigoso, porque nos leva a questionar como a tecnologia pode influenciar e até distorcer as relações humanas.
Esse tipo de comportamento gerou preocupações em relação às crianças também. Uma das razões pelas quais a Amazon foi pressionada a introduzir uma função na Alexa para que ela só respondesse se a criança fosse educada – se usasse palavras como “por favor” e “obrigado” – é justamente para que a IA não incentivasse comportamentos desrespeitosos. Isso nos leva a refletir sobre como outras tecnologias de IA estão moldando as nossas interações e se estamos, de certa forma, usando esses sistemas para nos tornar mais educados ou, ao contrário, para diminuir nossa capacidade de ter relações genuínas.
Sam Ransbotham: Isso é muito interessante, Jeremy. Mas agora, mudando um pouco de direção, eu queria te fazer uma pergunta rápida: qual você vê como a maior oportunidade para a IA neste momento?
Jeremy Kahn: Acho que a descoberta de medicamentos talvez seja a maior oportunidade.
Sam Ransbotham: Sim. Certamente vimos alguns exemplos disso com a covid-19. Espero que não tenhamos outra oportunidade semelhante chegando. Qual é o maior equívoco que as pessoas têm sobre inteligência artificial?
Jeremy Kahn: Que todos nós vamos perder nossos empregos.
Sam Ransbotham: Esse medo se dá quando há inteligência artificial demais?
Jeremy Kahn: Eu acho que é demais se estiver fazendo coisas em que você quer emoção e conexão humanas. Acho que há um ótimo exemplo com aquele anúncio das Olimpíadas do Google, em que eles tinham o garoto escrevendo uma carta como fã e o pai fazia o garoto no anúncio usar IA para escrever a carta, e houve uma reação contra isso, acho que com razão. Isso é algo em que você quer que a criança faça isso: essa é essa conexão com seu herói.
E há muito aprendizado acontecendo na escrita dessa carta. E essa é uma dessas experiências humanas fundamentais que se baseia na conexão entre duas pessoas. Você não quer que a IA faça isso.
Sam Ransbotham: Quero dizer, é por isso que temos as máquinas: para fazer essas outras coisas; não para fazer as partes divertidas. Existe uma coisa que você gostaria que a inteligência artificial pudesse fazer agora que não pode?
Jeremy Kahn: Eu gostaria que ela realmente fizesse minhas compras. E acho que, muito em breve, será capaz de fazer. Estou realmente ansioso por isso.
Shervin Khodabandeh: Jeremy, foi maravilhoso ter você no programa. Obrigado por vir e por inspirar muitos pensamentos profundos sobre o futuro.
Sam Ransbotham: Ei, Shervin, isso foi divertido. Foi uma conversa diferente. Muitas vezes, nos concentramos nos aspectos positivos da inteligência artificial, mas acho que o Jeremy compartilhou alguns bons riscos — não aqueles loucos e existenciais, tipo “os robôs vão dominar o mundo”, mas sim riscos mais sutis, como “como a IA está mudando nosso comportamento”. E acho que é interessante pensar nisso. O que você acha que as pessoas poderiam aprender com o que o Jeremy disse?
Shervin Khodabandeh: Acho que, assim como qualquer peça de tecnologia, não podemos tratá-la como uma caixa preta. Os usuários precisam ter um certo grau de compreensão das limitações da IA: quais são os riscos, quando não precisamos nos preocupar tanto com a saída da IA e onde precisamos parar, questionar e investigar mais profundamente.
Sam Ransbotham: Concordo, mas esse é o problema, não é? Qual é o nível de compreensão necessário? Não estamos pedindo às pessoas que entendam, por exemplo, como os transistores de silício funcionam — isso não parece necessário para entender o mundo moderno da IA. Por outro lado, não podemos simplesmente aceitar tudo o que a IA diz sem questionar. Encontrar esse ponto parece difícil. As pessoas precisam ser capazes de construir um modelo por conta própria? Ou basta saber como usá-lo? Onde está o limite?
Shervin Khodabandeh: Não acho que o entendimento que estou falando seja técnico, mas sim o entendimento de que a IA é uma ferramenta com limitações. E, assim como quando você está dirigindo um carro, você precisa entender que, se estiver a 30 milhas por hora e usar o freio, você vai parar muito mais rápido do que se estiver a 100 milhas por hora.
Sam Ransbotham: E se estiver chovendo? Isso muda toda a equação.
Shervin Khodabandeh: E essa equação vai mudar, dependendo da condição da estrada, dos seus pneus, de várias outras coisas. Algumas pessoas aprendem isso da maneira mais difícil, e é por isso que ensinam essas coisas nas autoescolas: o que fazer em caso de derrapagem, como reagir em diferentes condições. Acho que a IA é um pouco parecida. Mas, pensando bem… não acho que nossa conversa tenha sido necessariamente sombria. Há tanta exuberância sobre a IA hoje em dia, que talvez um pouco de “volta à realidade” seja até positivo.
Sam Ransbotham: Acho que essa é a melhor maneira de descrever.
Shervin Khodabandeh: E, talvez, uma maneira melhor de pintar o quadro, mesmo que o Jeremy não tenha feito isso, seria imaginar a situação negativa mais extrema que poderia gerar um grande impacto, assim você começa a pensar de maneira mais cuidadosa e ponderada.
Sam Ransbotham: Voltando para o exemplo do pneu, acho que ele é perfeito. Para mim — e, acredito, para você também, com sua formação em engenharia — isso nos remete a pensar em atrito, coeficientes de atrito que mudam com as superfícies. Estou no meio de ensinar meu filho de 16 anos a dirigir, e há tanta coisa que damos como certa que eu já tinha esquecido.
Shervin Khodabandeh: Sim, exatamente. Honestamente, até hoje, muito do meu jeito de dirigir ainda é moldado por coisas que me ensinaram. Como, por exemplo, quando as condições mudam. A maioria das coisas que me disseram, graças a Deus, eu nunca precisei vivenciar, mas me ensinaram: “Está chovendo. Pode haver uma fina camada de óleo na pista. Você não vai ver nem sentir, a menos que seja tarde demais, então diminua a velocidade.”
Sam Ransbotham: Mas esse é o ponto, né? Quando você está dirigindo, não está pensando nessas coisas o tempo todo. Mas você sabe que “Ei, começou a chover, vou diminuir a velocidade”. A maioria das pessoas faz isso assim que começa a chover, porque já aprenderam: “Você só precisa desacelerar porque pode haver uma película de óleo e isso vai tornar a pista mais perigosa.”
Sam Ransbotham: Acho que você dirige em lugares diferentes dos meus, né?
Shervin Khodabandeh: O que eu ia dizer é que, embora “ser adaptável” seja uma meta e um resultado desejado, a verdadeira questão é: como você se torna adaptável? Acho que isso começa com a educação. Assim como, no passado, as pessoas aprenderam a usar planilhas e foram ensinadas a incluir checagens de erros, é preciso aplicar algo semelhante. Quando você vincula planilhas entre si, a chave para desbloquear a adaptabilidade e a cautela está em ensinar as pessoas a lidar com situações de resposta errada, como uma dependência excessiva da IA, que pode gerar resultados irrealistas. Um exemplo claro disso são os vídeos no YouTube em que o ChatGPT comete erros simples, como afirmar que 2+2 é 5.
Sam Ransbotham: Acho que você acertou ao conectar isso à educação. Para que as pessoas possam trabalhar dessa maneira, elas precisam ser educadas de forma adequada. O treinamento é fundamental, mas o que exatamente deveria ser ensinado? Empresas como Levi’s e Delta, por exemplo, estruturaram treinamentos. Como as organizações podem promover essa educação de maneira eficaz? O que deve ser incluído nesse treinamento?
Shervin Khodabandeh: Não acho que a resposta seja simplesmente “vamos todos ter um campo de treino”. A chave é segmentar os tipos de uso e os contextos. Precisamos identificar onde a GenAI será aplicada na empresa. Existem áreas onde ela não deve ser usada de jeito nenhum, por questões estratégicas, e outras onde o risco é baixo e o uso é aceitável.
Sam Ransbotham: Como na detecção de fraudes, por exemplo.
Shervin Khodabandeh: Exatamente. A detecção de fraudes é uma área em que não seria adequado usar IA. Em outras situações, como sempre, a IA deve atuar em conjunto com o ser humano. O ponto-chave é: o que pode dar errado? Quais são as proteções necessárias? E qual o conhecimento adequado para o tipo de usuário e de situação? Esse é o conteúdo essencial para o treinamento.
Sam Ransbotham: O que eu gostei do que você disse foi essa reação contra o treinamento genérico… ouvimos muito sobre treinamento, e não quero ser negativo sobre eles, mas me parece que falta um pouco da personalização que a ferramenta oferece. Temos uma variedade de casos, uma variedade de maneiras – você listou várias delas – que podemos usar essas ferramentas, e o treinamento monolítico ou o tipo de educação corporativa clássica não parece certo aqui.
Tenho certeza de que esses treinamentos são necessários nas organizações, eu também preciso implementá-los. Não quero reclamar muito deles, entendo por que muitos deles existem. Mas muitas dessas ferramentas de educação corporativa não são particularmente adaptadas ao que você sabe.
Shervin Khodabandeh: Sim, mas olhe… quer dizer, isso denuncia minha idade.
Sam Ransbotham: Tudo bem, você está em um espaço seguro comigo.
Shervin Khodabandeh: Mas eu penso em planilhas, e penso na educação que recebi como um jovem consultor aprendendo a tirar o melhor proveito das planilhas porque…
Sam Ransbotham: Certo. Você teve que perder um total em algum momento para acertar.
Shervin Khodabandeh: E como usar uma fórmula, ou como você faz isso melhor ou mais rápido? E à medida que a ferramenta evoluiu, [houve] mais e mais aprendizado. E eu realmente acho que essas coisas ajudam.
Sam Ransbotham: Você chegou a ser um guru de planilhas assistindo às aulas ou fazendo?
Shervin Khodabandeh: Ambos. Mas as aulas realmente ajudaram, e conversar com as pessoas que estavam nessas aulas realmente ajudou. E então depende para o que você está usando. Não foi o mesmo para todos.
Quero dizer, acho que a maioria dos consultores, quando começarem isso, estarão no mundo dos números e planilhas, e farão verificações e refinarão. E agora a coisa está tão adiantada que se está refinando e ao mesmo tempo indagando: “Tem certeza de que quer fazer isso?”
Mas eu acho mesmo que, agora, isso é uma caixa preta, e acho que há uma grande variação dentro das organizações na compreensão das pessoas sobre riscos e benefícios, e o que a IA pode fazer e o que não pode fazer, e ela vai me substituir ou não vai me substituir? Há tanto ruído e mal-entendido que a única maneira de romper isso é por meio de um design de conteúdo real e cuidadoso e educação em toda a empresa. E eu concordo com você que, como para a maioria das corporações, a maneira como eles lidam com isso agora é criando.
Sam Ransbotham: O pacote monolítico.
Shervin Khodabandeh: Isso, exatamente. É, criando um pacote monolítico para a educação. Mas não acho que já tenhamos desenvolvido os currículos certos em escala para o aprendizado e o desenvolvimento da empresa. Quero dizer, muitas empresas fizeram isso. Fizemos isso no BCG porque usamos essas ferramentas o tempo todo e precisamos saber. Mas para uma empresa típica, para uma empresa não nativa digital, não acho que esses currículos existam. E acho que essa é uma grande preocupação para os diretores de recursos humanos dessas empresas – implementar esses tipos de conteúdos.
Sam Ransbotham: Sim, mas parece que é hora porque por analogia … Gostei da sua analogia com a planilha porque as planilhas são o que abriu o mundo dos computadores para a maioria das pessoas. Eles fazem parte do aplicativo matador que abriu o uso de computadores pessoais para a maioria das pessoas, e espero que os large language models tenham o mesmo tipo de efeito com a inteligência artificial. Essa é a porta de entrada, a estreia, para a maioria das pessoas na inteligência artificial. E você está certo: acho que a maioria das empresas não têm bons currículos para esse aprendizado.
Sam Ransbotham: O pacote monolítico.
Shervin Khodabandeh: Isso, exatamente. É, criando um pacote monolítico para a educação. Mas não acho que já tenhamos desenvolvido os currículos certos em escala para o aprendizado e o desenvolvimento da empresa. Quero dizer, muitas empresas fizeram isso. Fizemos isso no BCG porque usamos essas ferramentas o tempo todo e precisamos saber. Mas para uma empresa típica, para uma empresa não nativa digital, não acho que esses currículos existam. E acho que essa é uma grande preocupação para os diretores de recursos humanos dessas empresas – implementar esses tipos de conteúdos.
Sam Ransbotham: Sim, mas parece que é hora porque, por analogia… Gostei da sua analogia com a planilha, porque as planilhas são o que abriram o mundo dos computadores para a maioria das pessoas. Elas fazem parte do aplicativo matador que abriu o uso de computadores pessoais para a maioria das pessoas, e espero que os large language models tenham o mesmo tipo de efeito com a inteligência artificial. Essa é a porta de entrada, a estreia, para a maioria das pessoas na inteligência artificial. E você está certo: acho que a maioria das empresas não têm bons currículos para esse aprendizado.