
Saber como usar modelos de linguagem (LLMs) – e conhecer suas limitações – fará cada vez mais diferença em uma sociedade regida pela tecnologia
Francis Bacon teria afirmado que “conhecimento é poder”. Mas a frase atribuída ao filósofo do século 17 pode ter ficado desatualizada. Hoje, conhecimento, por si só, não garante poder.
No mundo atual, o conhecimento é algo amplamente disseminado e acessível. Entrelaçada a ele está a desinformação, o que cria uma realidade em que a ficção se funde aos fatos.
Precisamos então redefinir o que entendemos por conhecimento. E devemos refletir: o que realmente confere poder hoje?
Vamos começar analisando esses dois conceitos, conhecimento e poder.
Conhecimento – assim como “inteligência”, é um conceito multifacetado. Do ponto de vista de um ser humano que detém conhecimento (perspectiva pessoal), pode ser entendido como:
No entanto, a adoção de ferramentas de inteligência artificial assumiu essas três esferas do conhecimento, nivelando-as entre praticamente todas as pessoas que têm acesso a tais tecnologias.
Podemos adquirir informações altamente específicas em segundos, redigir argumentos irrefutáveis, responder a quase qualquer pergunta e até mesmo aprender com a experiência de outros. Então, se todos estamos nivelados, que tipo de conhecimento realmente confere poder?
Porém, esse nivelamento é relativo. A ampliação das habilidades de conhecimento com IA será ainda mais eficaz para pessoas com letramento em IA, ou seja, que sabem fazer as perguntas, que dão os comandos corretos.
Em outras palavras, aquelas que entendem como essas ferramentas funcionam – o que acontece por trás da interface do chatbot – terão mais domínio e proficiência para se beneficiar.
Ter letramento em IA significa ser capaz de usar a tecnologia de uma maneira intencional e autônoma, ciente de limitações, impactos e possibilidades.
Em um artigo a respeito, Eryk Salvaggio, um pesquisador e designer especializado nos impactos culturais da IA, fala das diferenças entre “saber como funciona” e “saber que não funciona exatamente como parece funcionar”:
“A ironia disso – do ponto de vista pedagógico – é que o melhor uso dos grandes modelos de linguagem (LLMs) acontece quando existe o entendimento de que eles não são confiáveis. Porém o que motiva o seu uso na educação frequentemente surge da falsa percepção de que eles são fontes precisas de conhecimento, moldando uma passividade na recepção dos dados. Na verdade, a melhor maneira de aprender com essas ferramentas vem da resistência crítica e ativa a elas.”
Suponhamos que estudantes estejam se preparando para um debate. Enquanto faz sua pesquisa e se prepara para a atividade, um aluno letrado em IA saberia que é crucial verificar os fatos e dados fornecidos pela IA. Ele sabe que não pode confiar em tudo que o ChatGPT disser.
Mais do que isso, esse estudante que sabe como a IA funciona não só buscaria informações, formataria argumentos e resumiria fontes. Ele a usaria para treinar suas habilidades de debate, por exemplo, solicitando que o chatbot assumisse o papel de seu oponente e exercitando argumentação na prática.
Infelizmente, o que está acontecendo na prática são alunos usando essas ferramentas para fazer o trabalho por eles, quando poderiam estar explorando a IA para aprimorar suas próprias habilidades. Mas a culpa não é deles.
Se nós – adultos, professores e até mesmo líderes do setor de tecnologia – ainda não somos 100% letrados em IA, como podemos esperar que os jovens desenvolvam essa competência? Como nós podemos melhorar nosso próprio domínio em IA? Como escolas e universidades podem capacitar os alunos a fazer o mesmo?
Não existe um único caminho para o letramento em IA, seja individual ou coletivo, estudantil ou profissional. Os desafios para atingir esse patamar (e as consequências de não fazê-lo) são fáceis de imaginar.
É só pensar no caos que seria uma cidade onde qualquer um pudesse dirigir sem carteira de motorista ou leis de trânsito. O uso de chatbots de IA sem balizadores pode causar desastres de semelhante proporção, tanto em termos de males individuais quanto coletivos.
Ainda no contexto da educação, por exemplo, não é difícil imaginar que o uso inadequado de ferramentas de IA pode prejudicar o desenvolvimento de certas habilidades, como interpretação de texto, fazendo os estudantes regredirem em vez de progredirem.
Nesse momento nos perguntamos: será que a próxima geração de adultos será capaz de argumentar e raciocinar por conta própria?
Os impactos e desafios do letramento em IA não se restringem aos estudantes nem se limitam à capacidade de argumentação. O letramento será um aspecto essencial do conhecimento, ou dessa nova definição de conhecimento. Afinal, ele já influencia a nova ordem de poder.
O acesso pouco balizado a essas ferramentas é desproporcional ao acesso ao letramento em IA. Não por indisponibilidade de conteúdo ou informação, mas por um ambiente saturado de hype e desinformação.
A jornada rumo ao letramento em IA também pode ser solitária. Opiniões políticas controversas, a saturação de ferramentas no mercado e o bombardeio constante das redes sociais criam um ambiente superestimulante, feito sob medida para fazer qualquer curioso se sentir ignorante ou indesejado. Talvez isso não seja uma mera coincidência.
Como fica cada vez mais evidente na conjuntura da tecnocracia, aqueles que não apenas sabem como essas ferramentas funcionam, mas também ditam como elas são construídas, são os que detêm poder.
Poder, como conceito, pode ser definido assim:
O que não fica evidente nessas definições é que, quando uma pessoa ou um grupo restrito adquire mais poder, outros acabam perdendo poder. Pelo menos é o que a história sugere.
Nesse sentido, a IA é uma faca de dois gumes. Ao mesmo tempo que amplia o acesso ao conhecimento, aumentando a disponibilidade e acesso à informação, também limita e controla esse acesso, determinando qual tipo de conhecimento será ou não disponibilizado e quais narrativas são ou não verdadeiras.
Pode parecer o caos perfeito (para alguns): uma ferramenta vendida como o grande instrumento de empoderamento da humanidade, que dissemina e organiza o conhecimento, disponível para todos. Que dádiva maravilhosa para a humanidade!
Mas ela vem sem manual de instruções. O que aconteceria com pedestres e outros motoristas em carros se não existissem ruas e calçadas, semáforos e faixas de segurança? O número de acidentes aumentaria antes que os carros pudessem ser considerados um avanço no transporte.
Em 2025, no cenário da IA, os carros já estão nas ruas. Para complicar, não podemos esperar estradas, habilitações ou semáforos.
O letramento em IA não é a solução perfeita para subverter a ordem de poder da tecnocracia. Mas é a base para uma nova noção de conhecimento e para garantirmos que essas ferramentas sejam realmente empoderadoras.
Meu convite para você é: aprenda a dirigir. Olhe debaixo do capô. Converse com outros motoristas, faça perguntas – e espere que elas sejam respondidas com mais perguntas. Você não está sozinho, todos estamos aprendendo juntos. Espero que isso também instigue você a criar flexibilidade para desviar dos carros passando rápido, abrir caminhos para não bater e, sobretudo, ajudar outros motoristas pelo caminho.