|

O que é Engenharia de Prompt?

O que é Engenharia de Prompt? Foto por Berke Citak em Unsplash

O que é Engenharia de Prompt?

Engenharia de prompt é a prática de criar entradas (chamadas de “prompts”) de forma que ajudem modelos de linguagem (LLMs) como ChatGPT, Gemini, Claude, Grok, LLaMA e outros a gerarem respostas mais precisas, úteis ou criativas.

LLMs não “entendem” como humanos: eles geram respostas com base em padrões aprendidos a partir de dados de texto. Ou seja, quanto melhor for o seu prompt, melhor será o resultado.

A engenharia de prompt é especialmente importante quando você está construindo aplicativos ou ferramentas que dependem de LLMs, mas também é útil no uso cotidiano dessas ferramentas.

Por que a engenharia de prompt é importante?

LLMs podem fazer muitas coisas — mas são muito sensíveis à forma como você pergunta. Um prompt mal formulado pode gerar uma resposta incompleta ou totalmente fora do tema. A engenharia de prompt ajuda você a:

  • Obter respostas mais relevantes.
  • Melhorar a precisão.
  • Guiar o tom, estilo ou formato da resposta.
  • Evitar mal-entendidos ou respostas inventadas (alucinações).

Tipos de prompting

Existem algumas técnicas principais na engenharia de prompt:

Zero-shot prompting

Esse é o tipo mais simples de prompt: você apenas faz uma pergunta ao modelo, sem dar nenhum exemplo.

Exemplo:

Traduza a seguinte frase para o francês: “Como vai você?”

LLMs são treinados em grandes volumes de dados, então muitas vezes entendem o que você quer mesmo sem exemplos. Mas às vezes os resultados são vagos ou inconsistentes.

One-shot prompting

Nesse tipo, você fornece um exemplo do que espera antes de fazer a pergunta real. Isso ajuda o modelo a entender melhor o que você quer.

Exemplo:

Traduza a seguinte frase para o francês.

Exemplo: Inglês: “Good morning” Francês: “Bonjour”

Agora traduza: Inglês: “How are you?” Francês:

Essa pequena mudança costuma melhorar a qualidade da resposta porque o modelo entende melhor o formato ou estilo desejado.

Few-shot prompting

Essa técnica fornece vários exemplos antes do prompt. Funciona bem quando a tarefa é mais complexa ou o modelo precisa entender melhor o padrão.

Exemplo:

Classifique o sentimento de cada frase como Positivo, Neutro ou Negativo.

Exemplo 1: “O filme foi incrível!” → Positivo

Exemplo 2: “Foi ok, nada demais.” → Neutro

Exemplo 3: “Não gostei nem um pouco.” → Negativo

Frase: “Gostei muito da atuação, mas a história foi lenta.” →

O modelo aprende o padrão com seus exemplos e aplica isso à nova entrada.

Outras técnicas de engenharia de prompt

Chain-of-thought prompting

Essa técnica estimula o modelo a pensar passo a passo antes de responder. É ótima para matemática, lógica ou raciocínio complexo.

Exemplo:

Pergunta: Se há 3 maçãs e você come 1, quantas sobram?

Vamos pensar passo a passo.

O modelo provavelmente fará o raciocínio antes de dar a resposta final.

Role prompting

Aqui, você atribui um papel ao modelo para guiar seu tom e conhecimento.

Exemplo:

Você é um redator profissional de currículos. Me ajude a melhorar o seguinte parágrafo: “Trabalhei em uma cafeteria e gerenciei o estoque.”

Atribuir um papel ajuda o modelo a agir de forma mais específica e produzir respostas mais adequadas.

Instruction tuning vs prompt tuning

Esses termos se referem a como os modelos são treinados:

  • Modelos com instruction tuning (como o ChatGPT) são treinados para seguir instruções em linguagem natural. A engenharia de prompt funciona melhor com eles.

  • Modelos com prompt tuning são treinados com palavras-chave ou entradas específicas. Geralmente são usados em contextos mais técnicos ou por desenvolvedores.

Conclusão

Engenharia de prompt é como aprender a falar a “língua” dos LLMs. Você não precisa ser um programador para usar — basta ser claro, estruturado e intencional no que quer pedir.

A boa notícia? Você não precisa ser perfeito. Com um pouco de prática e as técnicas certas, qualquer pessoa pode obter ótimos resultados dessas ferramentas de IA.

Experimente usar os prompts zero-shot, one-shot e few-shot da próxima vez que usar um LLM — você vai notar a diferença. Espero que este artigo ajude você a obter respostas melhores dos seus prompts 👋 Até a próxima!