Engenharia de
Prompts.
Guia completo em português — do iniciante ao avançado. Frameworks, padrões que funcionam e armadilhas comuns.
Atualizado para 2026 com ChatGPT 5, Claude 4 e Gemini 2.0. Sem jargão desnecessário.
O que é engenharia de prompts?
Engenharia de prompts é a arte e ciência de escrever instruções para modelos de linguagem (LLMs) de forma que o output seja previsível, específico e útil. Não é mágica — é um conjunto de convenções que, aplicadas com rigor, reduzem em 60-80% o tempo de iteração até chegar numa resposta utilizável.
Em 2026, dominar essa habilidade deixou de ser diferencial de cargo e virou pré-requisito para qualquer pessoa que trabalha com texto, código ou decisão suportada por IA. A boa notícia: a disciplina base é pequena. A má: a diferença entre um prompt médio e um ótimo é brutal na qualidade do output.
Este guia cobre os frameworks que você precisa saber, os padrões que funcionam na prática em português, os erros que a maioria comete e exemplos prontos. Não é um curso teórico — é um manual de campo.
Parte 1
Os 6 frameworks que você precisa conhecer.
RGC — Role, Goal, Context
O framework mais versátil. Role dá persona, Goal define output, Context dá matéria-prima (público, tom, restrições, exemplos). Funciona em qualquer LLM, qualquer tarefa.
Quando usar: Uso padrão para 80% das tarefas: escrita, análise, brainstorm, resumo.
RTF — Role, Task, Format
Versão minimalista do RGC. Bom para casos simples onde contexto extra não agrega — apenas quem é o especialista, o que fazer e como apresentar.
Quando usar: Pedidos curtos e tarefas bem definidas. Menos tokens, menos overhead.
CRISPE — Capacity, Role, Insight, Statement, Personality, Experiment
Mais verboso que RGC. Pede ao modelo que primeiro declare a capacidade/perspectiva que vai usar, depois a resposta, depois variações experimentais.
Quando usar: Tarefas criativas onde você quer múltiplas variações e transparência do raciocínio.
Chain-of-Thought (CoT)
Força o modelo a 'pensar passo a passo' antes de responder. Pode ser implícito ('pense passo a passo') ou explícito (seções <raciocinio> e <resposta>).
Quando usar: Matemática, decisão multi-fator, análise de causa-raiz, sempre que o raciocínio intermediário importa.
Few-shot prompting
Incluir 2-5 exemplos de input-output antes do pedido real. O modelo 'aprende' o padrão pelo exemplo, não pela descrição.
Quando usar: Quando o estilo é mais fácil de demonstrar do que de descrever. Extração estruturada de dados, classificação, padronização de tom.
Self-consistency
Rodar o mesmo prompt várias vezes com temperatura alta, depois consolidar a resposta mais frequente. Melhora precisão em tarefas com resposta única e verificável.
Quando usar: Tarefas de matemática, lógica ou extração de fatos onde há uma resposta 'certa'.
Parte 2
Os 6 erros mais comuns (e como corrigir).
Papel genérico demais
Ruim
Você é um assistente.
Bom
Você é um analista sênior de growth em SaaS B2B com 8 anos de experiência em redução de churn.
Por quê: Um papel específico ancora o modelo em um corpo de conhecimento concreto. 'Assistente' puxa o modo padrão — genérico e medroso.
Objetivo vago
Ruim
Escreva algo sobre marketing.
Bom
Escreva uma análise de 600 palavras do fluxo de onboarding por e-mail do Notion, identificando 3 pontos de fricção e sugerindo alternativas.
Por quê: Objetivo vago = output vago. Especifique: quantas palavras, quem é o sujeito, quais restrições, qual conclusão esperada.
Contexto insuficiente
Ruim
Me dê sugestões.
Bom
Contexto: SaaS B2B, ticket médio R$12K/ano, churn anual 18%. Me dê 5 sugestões para reduzir churn no primeiro ano, com base em playbooks de empresas do porte Pipefy.
Por quê: O modelo não tem telepatia. Cole dados, metas, restrições e exemplos do que você considera 'bom'.
Pedir para revisar sem critério
Ruim
Revise esse texto.
Bom
Revise esse texto verificando: (a) clareza por parágrafo, (b) verbos fortes, (c) remoção de palavras de enchimento como 'basicamente', 'essencialmente', 'no mundo de hoje'.
Por quê: Revisão sem critério devolve feedback genérico. Dê uma checklist concreta.
Sobrecarregar em uma única mensagem
Ruim
Escreva um plano de negócios, faça o design do site e prepare o pitch deck.
Bom
Primeiro, escreva o plano de negócios em 500 palavras. Depois vamos para o site.
Por quê: Modelos lidam melhor com uma tarefa por vez. Decompor reduz alucinação e melhora qualidade de cada etapa.
Ignorar o formato de saída
Ruim
Me dê opções de nome.
Bom
Me dê 10 opções de nome em uma tabela markdown com colunas: Nome, Etimologia, Domínio .com disponível (sim/não), Razão.
Por quê: Formato explícito economiza uma ida e volta. Peça exatamente a estrutura de dados que você vai consumir.
Pronto para aplicar?
Use os geradores grátis para montar seus prompts em segundos.
Perguntas Frequentes
Sobre engenharia de prompts.
O que é engenharia de prompts?+
É a disciplina de escrever instruções para modelos de linguagem (LLMs) de forma estruturada o suficiente para que o modelo produza output previsível, útil e alinhado com o objetivo real — sem precisar de treinamento ou fine-tuning.
É uma profissão real em 2026?+
Sim, mas em evolução. O cargo 'prompt engineer' dedicado já não existe na maioria das empresas — a habilidade foi absorvida por desenvolvedores, product managers, analistas e escritores. Em 2026, saber engenhar prompts é pré-requisito para trabalhar com IA de forma profissional.
Quais são os frameworks mais usados?+
RGC (Role-Goal-Context), RTF (Role-Task-Format), CRISPE (Capacity-Role-Insight-Statement-Personality-Experiment) e CoT (Chain-of-Thought). O RGC é o mais versátil para a maioria dos casos. CoT é crítico para tarefas analíticas ou matemáticas.
Preciso saber inglês para engenhar prompts?+
Não. Modelos modernos (GPT-4o, Claude 4, Gemini 2.0) funcionam perfeitamente em português. A única vantagem do inglês é acesso mais rápido a benchmarks e papers acadêmicos — mas a técnica é idêntica.
Qual a diferença entre engenharia de prompts e fine-tuning?+
Engenharia de prompts manipula o input. Fine-tuning manipula os pesos do modelo. Para 95% dos casos empresariais, engenharia de prompts basta — é mais rápida, mais barata e não exige ML engineers.
Chain-of-thought sempre melhora a resposta?+
Quase sempre em tarefas analíticas, de matemática ou de decisão multi-etapas. Em tarefas criativas ou de brainstorming pode atrapalhar, tornando o output mais cauteloso. Regra prática: CoT sim para analítico, não para criativo.
Como avalio a qualidade de um prompt?+
Três critérios: (1) Reprodutibilidade — o mesmo prompt gera output parecido em 5 execuções? (2) Especificidade — o output responde o que foi pedido, sem divagar? (3) Densidade — há quantidade útil de informação por palavra? Um bom prompt rende bem nos três.
Por que meu prompt 'para de funcionar' depois de um tempo?+
Três causas comuns: (1) atualizações do modelo alteram o comportamento — prompts que dependiam de quirks específicos quebram. (2) você está comparando mentalmente com a melhor execução anterior, não com a média. (3) drift de contexto: em conversas longas, o modelo 'esquece' instruções iniciais. Solução: colocar as instruções críticas no início e no fim do prompt.