10 min de leitura

Mal-entendidos da “inteligência artificial”

Tenha em mente que toda automação é fundamentalmente estúpida, pois tudo que está fora do seu escopo é ignorado. Inteligência é intenção, mas função é apenas operação. O algoritmo não tem intenção como os humanos, ele só cumpre uma função

Cássio Pantaleoni
12 de julho de 2024
Mal-entendidos da “inteligência artificial”
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

No primeiro capítulo de seu tratado Sobre o céu, Aristóteles escreve: “O menor desvio inicial da verdade é multiplicado por mil mais tarde”. Tomás de Aquino, na introdução de Sobre o ser e a essência, parafraseia-o escrevendo: “Um pequeno erro no começo leva a um grande erro no final”.

Todos os empréstimos tomados da expressão “inteligência artificial” (IA) para nutrir as opiniões hiperbólicas, que ora se lê ou se escuta, radicam nesse mal-entendido epigenético, ou seja, a alteração das características essenciais de uma ferramenta por alteração ou por introdução de conceitos inapropriados.

Em última instância, há um movimento – consciente ou inconsciente – para encontrar nos algoritmos qualquer coisa que se assemelhe à inteligência, mesmo quando tudo do que dispomos é nada mais do que técnicas de machine learning (ML).

Como destaca Noam Chomsky em recente entrevista: “Por mais úteis que esses programas possam ser em alguns domínios estreitos, não há como equiparar o machine learning de agora com a mente humana”.

Há algo substancialmente importante a considerar: colocar na mesma categoria artefatos construídos por humanos – os algoritmos – e as características essencialmente humanas é um erro inicial perigoso. O que deriva desta assunção (as opiniões decorrentes) ignora que nossa inteligência dispõe de recursos muito mais específicos do que isto que convencionamos denominar ML. Ao realizarmos o intercâmbio entre os conceitos de ML e IA, degeneramos nossa capacidade de analisar criticamente (e por consequência, construtivamente) os impactos reais dessas novas ferramentas.

Em função disto, já há algum tempo evito a expressão “inteligência artificial” para qualificar ferramentas como o ChatGPT ou o MidJourney. Não me parece fazer qualquer sentido. É aceitável considerar estes códigos de vocação probabilística na categoria de machine learning; mas aludirmos à inteligência para nos referirmos a eles já desconfigura o estreito deste Gibraltar (referência ao Estreito de Gibraltar, na Espanha, que separa os continentes europeu e africano) conceitual.

Inteligência não, automação sim

Preliminarmente deve-se compreender que ML nada mais é senão um robusto algoritmo de base estatística escrito para encontrar padrões em gigantescas bases de dados. Sua função é descobrir estruturas probabilisticamente relevantes que possibilitarão a construção de estruturas análogas.

Em outras palavras, é simplesmente uma automação de um processo de análise probabilística orientado a meta de “responder” com base nos padrões encontrados. Não há nada inteligente nisso. Toda a automação é fundamentalmente estúpida: tudo que está fora do seu escopo é ignorado.

Alguém poderia argumentar que poderíamos ter uma infinidade de escopos orquestrados por um algoritmo supervisor e com isso teríamos algo inteligente. Bem, o fundador da empresa de videogames Significant Gravitas Ltd, Toran Bruce Richards, lançou uma ferramenta que pretendia algo semelhante – o AutoGPT. Mas aqui reside um novo equívoco interpretativo. O AutoGPT nada mais é do que uma camada entre o usuário e o ChatGPT que automatiza as tarefas que supostamente seriam necessárias para atingir um objetivo deste usuário.

Apenas como exemplo, suponha que você queira escrever um parágrafo no estilo de James Joyce. A primeira coisa que você precisaria saber é quem foi James Joyce e o que ele escreveu. Depois você teria que ler algumas páginas de Ulysses (a obra mais famosa dele). Em seguida teria que entender o que significa o estilo “fluxo de consciência” e, por fim, gerar um texto que se aproxime das características do escritor.

O AutoGPT exime o usuário de todas estas tarefas na medida em que ele transfere o comando original para o ChatGPT (escrever um parágrafo ao estilo de James Joyce), criando uma série de tarefas derivadas para atingir o objetivo, sem a necessidade de novas interações com o usuário. Novamente, é pura automação de tarefas. Não há nada de imaginação inteligente ali.

Como já afirmei diversas vezes, os algoritmos “respondem” aos seus usuários somente se solicitados. Eles não possuem a necessidade vital de comunicar qualquer coisa sem que haja uma solicitação formal de um usuário. O AutoGPT não é exceção. Aliás, eles nem estão pensando ou mesmo imaginando que isto possa ser possível!

Recentemente, em um final de semana na serra, tive a oportunidade de observar uma aranha a tecer laboriosamente a sua teia. A obra do aracnídeo me impressionou de algum modo e, tão logo voltei para São Paulo, senti necessidade de comunicar esta minha experiência para outras pessoas. Esta necessidade de comunicar – que inexiste no ML – é o que nos torna inteligentes.

O fato que o ChatGPT sintetiza a forma mais humana de expressão (que é a linguagem), nos assombra muito mais do que a capacidade do MidJourney ou do Dall-e de gerar imagens. Não é fortuito. Como escreveu o grande Guimarães Rosa: “”(…) a linguagem e a vida são uma coisa só. Quem não fizer do idioma o espelho de sua personalidade não vive; e como a vida é uma corrente contínua, a linguagem também deve evoluir constantemente (…) O idioma é a única porta para o infinito (…) e como é a expressão da vida, sou eu o responsável por ele, pelo que devo constantemente cuidar dele”.

A linguagem é onde o ser habita e ao observarmos uma máquina capaz de a dominar, tendemos a humanizá-la, como se ela tivesse a mesma necessidade que temos de criar pela linguagem o sentido da existência. A necessidade nos levou a inventar a roda, a criar a agricultura, a criar indústrias, a criar a tecnologia. Tecnologias que nos permitiram existir tal qual existimos hoje, demonstrações de nossa inteligência.

Alguém poderia contra-argumentar de que nos humanos toda esta suposta inteligência seja algo geneticamente programado para que atuemos tal qual um criador. Neste caso poderíamos aludir à inteligência dos genes, que nos criaram do modo como somos para se eles – os genes – pudessem perpetuar ao longo das inúmeras gerações (como já afirmava Richard Dawkins: um organismo nada mais é do que um meio para que os genes sejam repassados de geração à geração, por necessidade de se perpetuar). Mas estaríamos fugindo do aspecto essencial dessa discussão: o erro preliminar que contamina nossas opiniões sobre a “inteligência” sintética.

Machine learning é um algoritmo burro como uma rocha. Ele só procura padrões a partir dos dados de que dispõe. Se alguém mal-intencionado modificasse a palavra “dinheiro” por “carvão” em seu banco de dados, eventualmente, poderíamos ler a frase “carvão não traz felicidade” na tela do ChatGPT.

Inteligência é intenção, função é operação

Seres humanos possuem a intenção no agir, assim como outros animais, seja esta intenção intuitiva ou consciente. Mas algoritmos de ML apenas cumprem uma função. Chaves de fenda não possuem a intenção de apertar parafusos; a intenção reside em quem as manuseia. Algoritmos de ML não têm a intenção de produzir imagens com o estilo de Michelangelo ou Portinari; tais imagens só serão produzidas se houver a intenção de quem faça uso.

Podemos, entretanto, aludir à intenção de quem inventa a chave de fenda ou de quem desenvolveu o algoritmo. Esta intenção reside na entidade humana e não na ferramenta (sim, é isto que o ML é: uma ferramenta).

Para termos uma ideia da importância deste aspecto caracteristicamente humano, basta fazer remissão à obra Society of Mind, do co-fundador do laboratório de IA do MIT lá em 1959. Minsky já discorria sobre a essencialidade da inteligência na observação de crianças brincando com blocos.

No segundo capítulo, ele explica que as crianças não somente gostam de construir com os blocos, mas também gostam de ver tudo vir abaixo. Uma entidade inteligente, neste exemplo das crianças, dispõe de dois agentes distintos: o construtor e o destruidor. E assim ele postula: “Uma criança real pode ir para a cama e ainda construir ou destruir blocos na sua imaginação”. Esta urgência em brincar, ou imaginar a brincadeira com os blocos, aumenta ou diminui conforme a intenção da criança. E este é um traço de sua inteligência.

O algoritmo, por sua vez, não tem intenção alguma. Quando solicitado pelo usuário, o ML apenas opera de acordo com a função para o qual foi desenvolvido. Não há algo como “gostar de responder”. Nem mesmo agentes do tipo responder ou calar. Não há imaginação. Ele só responde aquilo para o qual foi desenvolvido – sua função.

Logo, toda e qualquer alusão a capacidade de sentir ou inteligência é uma notícia alvissareira.

Boas respostas ou respostas convenientes?

As respostas produzidas por machine learning são essencialmente convenientes ao viés da probabilidade estatística que as sustentam. Elas não resultam de reflexão, compreensão profunda ou conhecimentos construídos ao modo da cognição humana. Assim, não podemos assumir que o ChatGPT ou o MidJourney produzam boas respostas aos nossos questionamentos. São apenas respostas convenientes para o algoritmo em si, segundo o paradigma das probabilidades.

Em recente entrevista, Chomsky usa um argumento bastante esclarecedor: “Enquanto os humanos encontram explicações conjecturadas racionalmente, os sistemas de ML podem aprender tanto que a Terra é plana quanto redonda, pautando-se apenas por probabilidades dadas pelos padrões disponíveis””.

Acreditar que o ML possa substituir a capacidade da mente humana para interpretar fatos e dados e assim produzir boas respostas é subestimar sua superficialidade e dubiedade. Dado que o algoritmo opera de modo a produzir respostas convenientes para a função para o qual foi desenvolvido, a ideia de boa resposta é apenas um traço de nossa ingenuidade em humanizar entidades não humanas.

Assim que reitero, sem qualquer hesitação: é preciso subtrair o uso da expressão “inteligência artificial” para nos referirmos a estes algoritmos, sob o risco de sempre e toda vez emitir opiniões assentadas em um equívoco original. A expressão “aprendizado de máquina” reinaugura o sentido desta distância entre humanos e máquinas. Qualquer tentativa de aproximação entre o orgânico e o inorgânico confunde a essencialidade que define as entidades materiais e abstratas. O risco é bem mais sutil do que podemos imaginar: que a IA generativa seja um disfarce da IA degenerativa, transformando-nos em humanos artificiais.”

Cássio Pantaleoni
Cássio Pantaleoni é managing director da Quality Digital e membro do conselho consultivo da ABRIA (Associação Brasileira de Inteligência Artificial). Tem mais de 30 anos de experiência no setor de tecnologia, é graduado e mestre em filosofia, e reúne experiências empreendedoras e executivas no currículo. Vencedor do prestigioso prêmio Jabuti, com a obra *Humanamente Digital: Inteligência Artificial centrada no Humano*.

Este conteúdo está tagueado como:

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui