O raciocínio do Strawberry também é imitação; o real problema está em ele ser projetado para maximizar seus objetivos, talvez em detrimento dos valores humanos
Não, não é possível observar os avanços da IA generativa sem se deixar impressionar. Toda a pesquisa e os desenvolvimentos nesse campo estão em um frenesi raramente observado na história da tecnologia. Sobretudo porque há nesta corrida convulsiva a ideia de um prêmio a ser alcançado: a AGI (sigla em inglês para inteligência artificial geral).
A criadora do ChatGPT, a OpenAI, lançou esta nova inteligência artificial (IA) chamada “Strawberry” (morango), projetada não apenas para fornecer respostas rápidas a perguntas, como a versão “tradicional” do ChatGPT, mas para pensar ou “raciocinar” (reasoning) como os humanos (presumindo-se que pensar e raciocinar já é algo sobre o qual temos conhecimentos suficientes para não nos deixar enganar por conflitos conceituais).
Reconheço que a velocidade do Strawberry para resolver um problema complexo é extraordinariamente superior à de qualquer humano com Ph.D. Porém, só podemos assumir que o problema foi resolvido porque um humano já o havia solucionado anteriormente e, assim, sabe que a resposta do Strawberry está certa.
Dois aspectos precisam ser considerados:
Segundo a OpenAI, essa nova versão foi desenvolvida do zero, usando um paradigma completamente novo. O sistema foi desenvolvido para ter a capacidade de acomodar, segundo a empresa, “um fluxo de pensamento” ou “rascunhos de raciocínio”, investindo, segundo o prof. dr. Alan D. Thompson, em mais processamento e dinheiro a fim de dar mais tempo para o sistema “pensar”. A ideia é superar todos os benchmarks de QI (mais uma vez, questiono se quociente de inteligência é um indicador confiável).
Como explicado em um breve artigo de Shweta Singh (especialista em sistemas de informação da University of Warwick, Reino Unido):
“Quando as coisas parecem boas demais para ser verdade, muitas vezes há um problema. Bem, esse conjunto de novos modelos de IA foi projetado para maximizar seus objetivos. O que isso significa na prática? Que, para atingir um objetivo desejado, o caminho ou a estratégia escolhida pela IA podem nem sempre ser justos – ou alinhados com os valores humanos.”
Apesar da importância do comentário de Singh, faço a consideração de que há algo ainda mais essencial a ser investigado. Se o novo modelo da OpenAI encontra as respostas que as gerações anteriores de IA generativa não encontravam, precisamos aceitar sem ressalvas que ele é um avanço. Mas, como já mencionei em artigos anteriores, inteligência não aparece nas respostas, e sim na elaboração dos problemas. A inteligência aparece na dúvida, na interrogação, na articulação do questionamento, não na resposta. Se a resposta estiver disponível, dados os conhecimentos e metodologias de resolução de problemas de que dispomos, é improvável que a resposta não seja encontrada em algum momento.
Isso nos transporta para uma segunda consideração: o tempo de resolução do problema. Bem, esse caso é mais fácil compreender. Se aumentarmos a capacidade de processamento, não há como imaginar que a resposta não seria encontrada em um tempo reduzido. Dobre-se a quantidade de processamento, e ela será de alguma forma mais rápida. E não me parece sensato colocar capacidade e inteligência na mesma categoria, mesmo quando assumimos que inteligência seja a capacidade de responder.
O QUE DEVERÍAMOS FOCAR
Considerações feitas, é saudável, para nossa compreensão de todo esse espectro comparativo (máquina x máquina, modelo x modelo, máquina x humano) que nos debrucemos no seguinte aspecto: o raciocínio imputado como novo mecanismo do Strawberry o torna superior a modelos anteriores.
Primeiro, vamos às definições de raciocínio. Entre as disponíveis, escolho (pelo menos agora) a definição da American Psychology Association: “é o conjunto de processos lógicos de caráter indutivo ou dedutivo que são utilizados para alcançar conclusões a partir de fatos e premissas (conclusões aqui podem ser entendidas como respostas de um problema enunciado a partir dos fatos e premissas disponíveis)”.
Tomando essa definição como base, não me parece impossível oferecer um modelo de IA que teste hipóteses a partir de pesos concedidos às premissas e fatos que se dispõem a partir da enunciação de um problema. Também me parece admissível – embora matematicamente complexo – implementar no modelo aqueles elementos lógicos que constituem nossa (humana) metodologia de resolução de problemas. Então, dado um problema que tenha uma resposta, a resposta poderá ser encontrada.
Eu me curvo à inteligência daqueles que imaginaram maneiras de conceber nanoprocessadores e agrupá-los em minúsculas pastilhas de silício para produzir computadores cada vez mais velozes. Eu também me curvo à inteligência daqueles que descobriram o número de parâmetros necessários para treinar os algoritmos de IA. Curvo-me ainda àqueles que escreveram esses algoritmos, aos que formularam os problemas complexos para testar os modelos de IA, e aos que foram desafiados a encontrar respostas sem usar a IA para poder comparar o tempo de resposta entre os humanos e o Strawberry.
Todo esse grupo tem algo em comum que o novo modelo da OpenAI não tem: as capacidades de imaginar um destino, formular o problema, testar as hipóteses, ajuizar acerca das conclusões encontradas e avaliar o impacto destas conclusões para a sociedade.
Como propôs Alan Turing: “É possível imaginar computadores digitais que se sairiam bem no jogo da imitação?” Sim, é possível. O jogo da imitação tem sido jogado de maneira impecável. A máquina imita o que fazemos, mas não faz o que fazemos. O camaleão, quando assume a coloração verde, imita as folhagens; o papagaio imita a nossa linguagem, a Strawberry imita o raciocínio. E isso tudo é espetacular! Mas nada é tão espetacular como o ser humano que é capaz de compreender tudo isso e admirar-se com isso.
Tudo isso não deveria nos assustar, portanto. Exceto…
O QUE DEVERIA NOS ASSUSTAR
Deveria nos assustar, isto sim, a perspectiva de Shweta Singh, previamente apresentada. Se tais modelos são projetados para maximizar seus objetivos, em que medida suas estratégias serão necessariamente alinhadas com os valores humanos? A pergunta parece descabida, mas não nos esqueçamos: os problemas que a IA resolve sem nossa ajuda são aqueles para os quais já sabemos a resposta. Todos os outros precisam de nós. Isso impõe aceitar que a trapaça é uma resposta plausível, conhecida, para evitar que alguém me vença num jogo de cartas.
A plausibilidade da trapaça é de toda sorte tão grande que muitos cientistas já apelaram para esse expediente a fim de ganhar notoriedade. Segundo matéria do The Guardian publicada em fevereiro de 2024, o número anual de artigos que precisaram ter retratação por parte de revistas científicas em 2023 ultrapassou os 10 mil. E a maioria dos analistas acredita que o número é apenas a ponta do iceberg de fraude científica.
Mas mesmo a fraude requer – para que ela se apresente como uma resposta possível – fatos e premissas que alimentem um algoritmo escrito segundo uma metodologia de resolução de problemas, e que produza a resposta que eu quero – uma conclusão suficientemente convincente para a grande maioria. Mesmo a fraude não prescinde de raciocínio. Podemos até assumir como verdade que fraudadores possuem uma inteligência robusta.
Na sabedoria popular, quando alguém está prestes a cometer uma fraude, costumamos ouvir o “pense bem”. Pensar bem é pensar pelo bem. E pensar pelo bem é compreender o valor do bem comum. E o bem comum é aquele que coopera para o benefício que melhor atende o todo e não apenas uma parte. Não basta raciocínio; é necessário ter bom senso.
É aqui que deveríamos nos assustar com a inteligência de morango – algo que parece um fruto, mas é apenas receptáculo de uma florescência original composta (as LLMs), onde os verdadeiros frutos são minúsculos pontinhos com uma única semente (a maximização do objetivo do algoritmo).