
Com as LLMs, nós pagamos por um serviço de fornecimento de argumentos, o “argument as a service”, mas isso não significa que o serviço fornece sabedoria. Esta, é preciso entender, encontra-se na outra margem do rio de Homero que separa os mundos, o dos vivos e o dos mortos
Homero, em sua obra A Ilíada, foi o primeiro a mencionar o rio Estige, entidade fundamental da cosmologia grega. Descrito como o rio infernal do Hades – o submundo –, o Estige define a fronteira inviolável entre o mundo terreno e o mundo dos mortos. O alegórico rio bem serve para ilustrar a divisão entre as expectativas que depositamos na inteligência artificial (IA). Há uma fronteira semelhante entre nossas percepções “terrenas” e as influências que esta tecnologia exerce subterraneamente em nossa visão de mundo.
A IA nos oferece atalhos para o conhecimento, desonera-nos de tarefas repetitivas e acelera nossa produção de respostas. No entanto, ao nos desocupar, ela também nos priva da experiência de nos colocarmos à prova, de vivenciar a escassez que fomenta a nossa criatividade.
Convém lembrar que é a experiência, e não o conhecimento, que modela nossa disposição para imaginarmos os efeitos de nossas ações. Alguém que sobreviva a um choque de alta voltagem, dificilmente aceitará colocar a mão em um fio desencapado, mesmo usando botas com solado de borracha. Ao tomar conhecimento de que o solado evita o choque, o que predomina na imaginação é a experiência do trauma, fazendo-o hesitar diante desta nova experiência.
Em grande medida, o conhecimento pode ser entendido como um curativo temporário, enquanto a experiência é uma “cicatriz” permanente. O primeiro serve como acessório, um equipamento que nos permite aceder às situações e às circunstâncias do mundo; o segundo – a experiência – determina um modo de ser e agir com este equipamento, tenhamos optado por usá-lo ou não.
É claro que a IA tem uma valia inquestionável: ela nos permite experimentar a satisfação de “poder encontrar” o conhecimento, de maneira rápida e desintermediada. No entanto, ela nos priva da experiência mais própria de saber como o conhecimento é construído, desenvolvido e legitimado. Isso pode parecer sem importância, haja vista que a acessibilidade da tecnologia cresce continuamente; afinal para que precisaríamos nos preocupar com o modo de construção do conhecimento?
A resposta é simples: a “experiência de saber” nos aperfeiçoa, enquanto o conhecimento apenas nos instrumentaliza temporariamente. Você pode pedir para que a IA componha uma música para você, ela é seu instrumento de acesso a um talento que você não possui. Mas isso não lhe provoca a experiência de saber como se compõe uma música. É a diferença entre consciência e manualidade. A consciência potencializa a sabedoria, já o conhecimento, reforça hábitos (como diz a famosa expressão corporativa “é como fazemos as coisas aqui”). Quando nos interessamos em saber como as coisas são do jeito que são, estamos operando com sabedoria.
Essa é a primeira barreira do Estige da IA: a separação entre conhecimento e sabedoria. A IA, com seus algoritmos probabilísticos, oferece respostas baseadas na predominância daquilo que é semelhante, comum, o habitual, ou seja, o que é conhecido. Por habitar as entranhas do mundo digital, a IA reverbera mensagens que reforçam nossas crenças, territórios que, em geral, não queremos que sejam perturbados. O que sobra no âmbito submerso da IA, ali onde poucos se interessam em acessar, são as possibilidades de as coisas não serem do modo como estamos habituados a vê-las. Nas águas do rio Estige correm natimortas as potenciais mentes brilhantes que, como escreveria Adam Grant, pensam o novo. É onde acontece a procura por respostas além do senso comum.
O que isso significa exatamente? Como é possível que uma tecnologia tão extraordinária e útil adultere o ser humano e as estruturas sociais ao se constituir como fonte de conhecimento para que possamos amplificar nossas capacidades de fazer o que supostamente deve ou pode ser feito?
Em larga medida, o conhecimento sempre foi envelopado como produto ou serviço. Podemos tomá-lo pelo escambo gratuito entre indivíduos, em conversas casuais. Ou adquiri-lo pela compra de um curso universitário, de livros, jornais e outros formatos.
O mundo digital promoveu uma descalcificação desse modelo, permitindo aceder ao conhecimento por meio da internet e das ferramentas de busca. Em essência, ainda pagamos por ele, uma vez que precisamos assinar serviços de conexão à internet, comprar um computador e alguns softwares. Contudo, com o advento da IA, especialmente com as LLMs, tivemos um acréscimo potencialmente nocivo no acesso ao conhecimento.
Qualquer modelo de LLM é capaz de gerar, por demanda, um conjunto de argumentos que reforçam ou refutam hipóteses. Não é preciso muito sofisticação para “encomendar” tal “produto”. Muito comumente queremos estar perto daquilo que confirma nossas hipóteses ou que refutem as hipóteses propostas pelos outros que conflitam com nossos interesses. Os algoritmos das redes sociais realizam isto de maneira sutil, pois acrescentam à nossa interação digital os conteúdos que mais se ajustam às nossas preferências. Não me parece impróprio caracterizar o acirramento da polarização social como um efeito deste convívio com as engrenagens da IA que operam durante nossa interação com o ambiente digital.
No caso das LLMs (chatgpts e similares), nós pagamos por esse serviço de obtenção de argumentos por meio de tokens (unidade de monetização das LLMs). Eu chamo esse modelo de AaaS – sigla em inglês para “argumento como serviço“. Esse modelo permite enriquecer nossas narrativas com argumentações convincentes (vide artigo meu publicado neste MIT Sloan Review Brasil, sob o título “O Nobel para a IA e o efeito Bob Dylan”).
Toda e qualquer afirmação, ilação, suposição, extrapolação pode ganhar características de verdade por meio de narrativas bem engendradas. A facilidade com que argumentos podem ser construídos e justificados, mesmo que careçam de substância, cria um cenário de predominância de retóricas que não necessariamente se comprometem com a verdade.
Outro âmbito do Estige da IA é que ela nos oferece probabilidades de que um determinado conteúdo se conforme com aquilo que predomina nos dados que a alimentam. Mas não é a IA que descobre possibilidades. São os humanos. A IA pode prever o futuro com base em dados, mas somos nós que decidimos o que fazer com essas previsões. A IA pode nos dar insumos, mas somos nós que os usamos para criar a novidade, o disruptivo.
Ter diante de si probabilidades que permitam predizer um evento ou prescrever uma ação na direção do que é mais provável para o sucesso de uma empreitada é muito útil. Nesse sentido, a IA nos permite expandir o mundo, analisá-lo segundo conhecimentos já disponíveis e economizar tempo. Contudo, no subterrâneo, ela pode configurar-se como uma bolha de interpretações viciadas (ou costumeiras), com o acréscimo de que ela nos ocupa com o digital além do necessário.
Não é a IA que descobre possibilidades. São os humanos. A IA pode prever o futuro com base em dados, mas somos nós que decidimos o que fazer com essas previsões. A IA pode nos dar insumos, mas somos nós que os usamos para criar a novidade, o disruptivo
Se não praticarmos mudanças de perspectivas, se não nos abrirmos a outras experiências sensíveis, as possibilidades que podemos deslumbrar encontrão limites crescentes.
No livro Assim Falou Zaratustra, Nietzsche aborda a ideia do “mundo verdadeiro” como uma fábula, ou seja, uma ilusão. A fabulação do mundo considerada por Nietzsche encontra canteiro fértil para a concepção de storytellings que justificam crenças mesmo quando estas se desinteressam pela verdade. Mas falar em verdade a partir do século 20 se tornou descabido, pois assumimos há muito, conscientemente ou não, de que a verdade é apenas uma hipótese que ainda não foi refutada.
Esta visão de verdade é extremamente apelativa, principalmente para aqueles que sabem manipular o que se convencionou chamar de senso comum. Em um mundo onde aceitamos a relatividade da verdade, o que se torna importante não é a verdade em si, mas o “por-se em obra” da verdade. Este “por-se em obra” deve ser entendido como uma disposição para não aceitar as fabulações tacitamente, mas antes tratar de investigar as hipóteses contrárias àquelas construídas para desobstruir o storytelling de ser aceito como tal.
Nesse sentido, as LLMs podem remeter nossa capacidade de investigar premissas para um exercício de descoberta das probabilidades que sustentam as fábulas engendradas. Se a IA se torna o centro de todas as referências, então nossa capacidade interpretativa se reduz substancialmente. Em sentido amplo, é um “encurtamento hermenêutico”, que refere qualquer limitação ou restrição do escopo da interpretação. Como se pode ler em Heidegger, isto pode ocorrer quando se prioriza uma determinada perspectiva ou metodologia em detrimento de outras, resultando em uma compreensão parcial ou incompleta do objeto de estudo.
O que temos como resultado é uma sensação de que a razão já não é mais suficiente para lidarmos com o mundo. Então, diante de tal fragilidade, qualquer história pode alcançar o estatuto de “verdadeira”.
O aspecto peculiar de todo este ensaio é a relação entre conhecimento e linguagem de um lado, e de sabedoria e sentido do outro. Yuval Harari , tão logo se deu o lançamento do ChatGPT da OpenAI, apressou-se em afirmar que a humanidade teve o seu sistema operacional quebrado ou hackeado. Diante da facilidade conversacional do ChatGPT e sua aparente compreensão da linguagem em termos nunca antes visto fora manifesto fora do ser humano, Harari concedeu dezenas de entrevistas aludindo à ideia do fim da civilização tal qual a conhecemos.
É preciso ser justo com Harari. Não pude ver em nenhuma de suas entrevistas se ele ignorou ou não o salto conceitual que existe entre linguagem e sentido. Mas também não vi qualquer alusão explícita que o absolvesse de um esquecimento essencial.
É preciso deixar bem claro: a linguagem não é o sistema operacional do ser humano. Ela é o output gerado pela execução contínua do nosso sistema operacional. Este sistema operacional é o sentido. Nem tudo o que é sentido pode ser expresso de maneira imaculada pela linguagem. Na maioria das vezes trata-se apenas de uma aproximação rudimentar do que realmente se dá como sentido. Além disso, não é verdade que uma palavra refira um único sentido. Se diante de um tropeço seu em uma calçada mal acabada eu disser “quasar o seu” você vai capturar o sentido, apesar da palavra. O sentido é antes da palavra.
As LLMs – e a IA de maneira geral – não lidam com sentidos. Elas lidam única e exclusivamente com a linguagem. E operam como a servir de invólucro de um conhecimento que precisa ser comunicado de uma entidade para outra, sejam entidades humanas ou artificiais. É algo totalmente diverso quando falamos de sentido. O sentido flerta com o saber sem poder traduzir em palavras. A sabedoria é o acontecimento do sentido livre da prisão da palavra.
Esse é o rio que separa o mundo das percepções mundanas dos sentidos subterrâneos. O Estige da IA é um instrumento de amputação desta habilidade que desenvolvemos ao longo de nossa curva evolutiva: a capacidade de pensar por conta própria, de não assumir o que é mais provável, mas sim o que é possível.
Nós não podemos cair no erro de crer que a IA nos entrega sabedoria. Isso está na outra margem do Estige. Na margem de cima, o que temos é uma sabedoria de cátedra, o que se oferece como direito de transmitir ideias, opiniões e fatos sem sofrer quaisquer pressões, como difamação pública, perda de emprego ou prisão.
Como escreveu Nietzsche: “Para todos estes sábios catedráticos, tão ponderados, a sabedoria era dormir sem sonhar: não conheciam melhor sentido da vida. […] Bem-aventurados tais dormentes porque não tardarão a dormir de todo.”