Tem muita gente prometendo que a máquina será capaz de decidir sozinha, mas é melhor vê-la como um estagiário que precisa de supervisão e conquista autonomia com o tempo
A ânsia por uma inteligência artificial que substitua o ser humano ofusca as muitas oportunidades que aplicações inteligentes oferecem para melhorar a performance das habilidades das pessoas e os resultados das empresas.
Trabalho com IA desde 2014, com análise e gestão de conversas em canais sociais e digitais. Se existe algo nessa trajetória que ainda não vi mudar foi o fato de a IA apresentar melhores resultados quando é usada com “inteligência aumentada”.
Esse conceito pode ser entendido como um passo anterior para chegarmos a uma IA realmente autônoma, da forma como o senso comum imagina.
Basicamente, a inteligência aumentada é um recurso que, na essência, elimina algumas tarefas que precisariam ser executadas por pessoas.
Ao desenvolver agentes de lA, estamos transportando competências humanas (“human skills”) para competências de um modelo computacional (“AI skills”). Como já falei em outros artigos desta coluna, a IA não substitui empregos. Substitui skills, uma derivada de um emprego ou função profissional.
E concordo com Mustafa Suleyman (CEO da Microsoft AI): ainda por um bom tempo veremos funções onde a IA ataca somente uma parte de suas funções, não 100% delas.
Se formos à ficção científica e à imagem da IA que os filmes constroem no consciente coletivo, vejo que a figura de um ciborgue, de um homem com competências aguçadas pela máquina, é mais apropriada do que um robô autônomo com poderes super humanos.
Mais um Homem de Ferro (personagem Marvel) do que um Terminator (robô do filme “Exterminador do Futuro”). E uma curiosidade interessante: a origem da palavra ciborgue é bem interessante: vem da soma de “cib” (“cibernético”), com “org” (“orgânico”).
Essa tecnologia traz diversos ganhos e permite que o recurso de machine learning aprenda e evolua com o ser humano. Quanto mais feedbacks oferecemos aos modelos, se bem arquitetados, melhores eles ficam.
E, da mesma forma que os modelos aprendem com a gente, podemos também aprender e evoluir com eles. É vivendo a tecnologia que se vê a IA acertando e errando, e ainda, torna-se possível direcionar onde ela deve ter autonomia ou onde não é possível deixá-la sem supervisão humana em hipótese alguma.
É um processo que permite entender onde o ser humano é por hora insubstituível, gerando a reflexão sobre as qualidades fundamentais que temos.
É fato que a busca pela autonomia completa da IA é o novo santo graal das companhias de novas tecnologias. Mas ela é uma realidade possível? Qual o real status da IA nessa direção?
Para investigar isso, pesquisei dois setores: o militar e o de medicina. A escolha se deu porque ambos têm uma similaridade especial, que é lidar com o que existe de mais precioso para os seres humanos: a vida. Por esse motivo, são setores meticulosamente cautelosos ao avaliar e adotar recursos dessa IA. Do que estudei, compartilho a seguir dois conteúdos interessantes.
O primeiro foi uma entrevista com Matt Turek, diretor de inovação da Darpa, órgão do governo dos Estados Unidos dedicado a pesquisas avançadas na área de defesa.
Ele foi categórico em dizer que não vê, em um horizonte próximo, a possibilidade de delegar à IA autonomia para tomar, por exemplo, a decisão estratégica de acionar sozinha um gatilho. Contudo, ele traz uma reflexão interessante sobre a diferença entre automação e autonomia.
Não permitem à IA a autonomia para atirar. A decisão final de atirar ainda está (e estará por um bom tempo) nas mãos de soldados. Mas a Darpa já desenvolveu uma série poderosa de automações via IA que torna os militares mais preparados para tomar esse tipo de decisão.
São automações e ferramentais que trazem informação situacional, reduzem fadiga e até, curiosamente, alertam soldados sobre quando não atirar. Isso porque já existem armas em testes que endurecem o gatilho se detectarem, por exemplo, anomalias no alvo.
No campo da medicina, um estudo publicado recentemente na revista científica Nature e intitulado “Evaluation and mitigation of the limitations of large language models in clinical decision-making” (“Avaliação e mitigação dos fatores limitantes dos LLMs nas tomadas de decisões clínicas”, em tradução livre) concluiu que os atuais LLMs (grandes modelos de linguagem) de última geração não são precisos no diagnóstico de patologias, nas diretrizes de tratamento e na interpretação de resultados laboratoriais.
Além disso, o desempenho dessas tecnologias é significativamente pior do que o dos médicos, representando um sério risco para a saúde dos pacientes. A conclusão dos pesquisadores foi obtida por meio da análise de 2.400 casos reais de pacientes e quatro patologias abdominais comuns com base no banco de dados do Medical Information Mart for Intensive Care, que registra informações de atendimentos do Beth Israel Deaconess Medical Center, hospital da faculdade de medicina da Harvard University, nos Estados Unidos.
A pesquisa mostra, claramente, que a IA ainda está distante de nos poupar da consulta médica e que as tentativas de substituição de diversas etapas do processo médico (do exame físico ao diagnóstico e ao tratamento) não trouxeram resultados consistentes e confiáveis.
E se olharmos casos em que a IA foi aplicada para aumentar a capacidade médica? Quando eu estudava por volta de 2016 aplicações de visão computacional, muito antes do surgimento da IA generativa, vi estudos e mais estudos que mostram que a parceria entre médico e máquina ganha de longe da atuação de um ou de outro sozinhos.
A dupla é mais eficiente na análise de exames de imagem, diagnóstico, comunicação com paciente e vários outros procedimentos. Mais uma vez, portanto, ponto para a inteligência aumentada.
Diante desse cenário, é possível dizer que um cabo recém formado ou um estudante de medicina que esteja na etapa de residência terão, necessariamente, uma performance melhor apenas pela disponibilidade da Inteligência Aumentada? A resposta é não, e isso revela um risco importante.
Os profissionais mais seniores estão sendo os mais beneficiados pela IA porque conseguem distinguir e avaliar melhor quando usar os recursos que ela disponibiliza.
A base da IA generativa é probabilística. Lida com probabilidades. Isto é, acerta um percentual de vezes e erra em um percentual de outros. Quanto mais os modelos evoluem, mais precisos ficam e este percentual de acertos aumenta.
Mas mesmo que atinja seus 85%, 90%, 95%, qual o tamanho do estrago se o modelo errar? Os “pilotos” novatos em IA não têm, ainda, a capacidade de discernir o que é uma boa informação de uma informação errada.
Não só na medicina e no uso militar, mas em áreas como desenvolvimento de softwares, criação publicitária, gestão de negócios e várias outras de apoio, vemos que os mais seniores, ou seja, os profissionais que têm uma bagagem, estão sendo os mais beneficiados pela IA.
Isso acontece porque eles conseguem distinguir e avaliar melhor quando usar os recursos que ela disponibiliza como um complemento ao seu trabalho.
Até que a busca pelos modelos mais poderosos da IA nos prove o contrário, recomendo que você comece experimentos pelo caminho da Inteligência Aumentada, com casos de automação parcial e explorando o poder da dupla humano e máquina, aproveitando o melhor de cada um – sempre com a supervisão operacional dos mais sêniores da empresa.
Para entender melhor essa prática, considere o onboarding de IA como um estagiário, que precisa de supervisão e treinamento e vai conquistando mais autonomia com o tempo à medida que adquire experiência e obtém resultados com casos específicos do negócio.
Cuidado com os “alquimistas”. Esses são os que prometem transformar água em vinho, com uma autonomia completa dos “AI agents”, ou agentes de IA, que é irreal.
Já ouvi muitas pessoas atribuirem a culpa de falhas à IA quando, na verdade, o problema foi delegar a ela uma tarefa para a qual não estava preparada sem a devida supervisão.
Se o caminho for a contratação de parceiros construtores de agentes de IA, a orientação principal é ter cuidado com os “alquimistas”. Esses são os que prometem transformar água em vinho, com uma autonomia completa dos IA Agents, que é irreal. Isso é vender magia, e não ciência.
Peça demonstrações reais, provas de conceito e testes práticos. Priorize os “cientistas”, ou seja, os que são honestos no que a IA está apta (ou não) a realizar e mostram transparência em relação a eventuais riscos e cuidados envolvidos, além de avaliar métricas de precisão dos modelos nas interações entre sistemas e usuários.
Em resumo, acredite: o mercado está cheio de alquimistas e ainda distante do santo graal da automação completa.
1 Trackback or Pingback