5 min de leitura

Engenharia de prompt: o tempero do ChatGPT

Extrair o melhor resultado da inteligência artificial para cada perfil de negócio não deixou de depender de profissionais qualificados, como os engenheiros de prompt, ainda mais com a chegada do GPT-4

Milton Stiilpen e William Colen
30 de julho de 2024
Engenharia de prompt: o tempero do ChatGPT
Este conteúdo pertence à editoria Tecnologia, IA e dados Ver mais conteúdos
Link copiado para a área de transferência!

Quando o assunto é inteligência artificial (IA), o ChatGPT é o protagonista da vez. O aplicativo, que ressignificou a interação a partir de diálogos naturais e convincentes sobre vários campos de conhecimento humano, tem sido apontado como a solução para qualquer desafio, sobretudo no universo dos negócios. A boa notícia é que a IA pode, de fato, solucionar questões complexas e estratégicas nesse universo corporativo, porém, ao contrário do sentimento que se cria de facilidade extrema, o caminho não é instantâneo, nem está ao alcance das mãos em uma prateleira.

Para extrair o máximo da IA e escapar dos resultados que tragam riscos para a empresa e para o consumidor, é preciso adicionar um componente fundamental: a prompt engineering ou engenharia de prompt. Ela é a responsável por ajustar os temperos da inteligência artificial e torná-la mais saborosa para o perfil de cada negócio.

A engenharia de prompt, também conhecida como machine teaching, não é exatamente uma novidade, trata-se de um conceito que vem evoluindo com a inteligência artificial nas últimas décadas, principalmente no âmbito do processamento de linguagem natural (NLP).

O engenheiro de prompt é como um chef experiente, que tem habilidades específicas para combinar ingredientes de uma receita que parece trivial. Assim, ele entrega a melhor experiência possível para agradar paladares mais refinados: qual é o objetivo da sua empresa e como o ChatGPT pode impactar positivamente no seu negócio e na rotina de seu público?

Na prática, a engenharia de prompt é responsável por encadear técnicas e processos pré, pós ou “dentro” de um briefing de interação com uma aplicação estilo ChatGPT a fim de criar uma solução robusta. Um prato refinado. Nos últimos dois anos, essa profissão, se assim podemos chamar, avançou com os modelos multitarefas com uso de conjunto de processos NLP.

Esses avanços se refletem nos modelos GPT-2 e GPT-3, que são a base do ChatGPT. O GPT-3 (ou terceira versão do transformador generativo pré-treinado) é large language models (LLM), um modelo de IA criado a partir de redes neurais artificiais, ou seja, um método de aprendizagem de máquina e treinado com uma enorme quantidade de dados.

Para além destes modelos, em março deste ano, tivemos mais uma evolução do GPT realizado por parte da OpenAI. Chegamos ao GPT-4, que utiliza a abordagem de aprendizado profundo (ou deep learning), mas também o aprendizado por reforço e promete revolucionar a maneira como as pessoas interagem com a tecnologia, uma vez que pode entender e gerar respostas para textos e imagens, e em testes acadêmicos e profissionais, ele teve um desempenho comparável ao de um humano.

De maneira resumida, o GPT-4 é um modelo de linguagem natural avançado que aprende com muitos dados e ajuda de especialistas de diferentes áreas, possibilitando que ele gere respostas precisas e seguras.

No universo da IA, os LLMs já atuam há alguns anos, com sistemas de tradução, correção gramatical e até mesmo completes mais potentes. Esses e outros casos de uso mais famosos ainda vivem em um nível de “assistente de escrita”, por isso, é preciso extrair os resultados mais adequados a cada nova demanda. Para se ter uma ideia da dimensão desses avanços, o tamanho dos LLMs tem aumentado dez vezes a cada ano.

Estado da arte em IA

Essa expansão acelerada deixa os LLMs mais complexos, o que os torna mais poderosos. Seu uso pode ser até fácil, mas os riscos são altos. Os modelos de linguagens grandes incorporaram recursos extraordinários para aplicações NLP, no entanto, seu desempenho está diretamente ligado à qualidade do prompt aplicado para orientar esse modelo.

Por enquanto, os prompts mais eficazes ainda são produzidos pela mente humana. Não é à toa que os engenheiros de prompt têm despontado como profissionais mais cobiçados do mercado de tecnologia. São os engenheiros de prompt que conseguem orientar o melhor comportamento dos LLMs, gerando respostas apropriadas.

Os engenheiros de prompt têm a capacidade de orquestrar múltiplos prompts, fontes de dados e recursos computacionais, extraindo o melhor da IA para cada tipo de negócio. Esses profissionais entregam as habilidades necessárias para refinar a solução, de acordo com a necessidade de cada modelo de negócio.

A engenharia de prompt também abraça o benefício de atuar em tempo real, alterando os prompts. Por esse motivo, as empresas que trabalham com IA têm investido em equipes especializadas em engenharia de prompt. São os humanos que estão nos bastidores das soluções mais sofisticadas de IA.

Na jornada da IA, os desafios são contínuos. O surgimento do ChatGPT não encerra capítulos, pelo contrário, descortina novas equações. Quando se fala em GPT-3, o pulo do gato está em descobrir o caminho para desenvolver soluções em cima dessa tecnologia, com requintes de programação que extraiam o melhor da IA para o negócio. E quando falamos do GPT-4 é uma conquista tecnológica emocionante, com o potencial de impactar vários setores.

Estabelecer uma conversa diária com a IA é fundamental em qualquer tipo de negócio, mas a base desse diálogo precisa ser bem sedimentada. Se isso não acontecer, os resultados serão medianos ou ineficazes. O alicerce do sucesso na estratégia do ChatGPT é o prompt. Sem ele, a experiência com a IA não será ruim, mas estará longe do estado da arte.”

Milton Stiilpen e William Colen
Milton Stilpen é diretor de pesquisa e inovação em Take Blip, é fundador e ex-CTO Stilingue. Possui graduação em ciência da computação e mestrado em mineração de dados. William Colen é head de inteligência artificial em Take Blip, graduado em engenharia da computação e mestre pela Universidade de São Paulo, é especialista em processamento de linguagem natural e inteligência artificial e atuou na Stilingue por cinco anos.

Deixe um comentário

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui