Técnicas
de prompt.
As 9 técnicas que realmente funcionam em 2026. Zero-shot, few-shot, chain-of-thought, structured output e mais.
Com exemplos prontos para ChatGPT, Claude e Gemini. Em português.
Visão geral
Quando usar cada técnica.
| Técnica | Nível | Melhor para |
|---|---|---|
| Zero-shot prompting | Básico | Tarefas comuns: resumo, tradução, classificação, perguntas simples. |
| Few-shot prompting | Básico | Formatos específicos, tom personalizado, classificações com critério próprio. |
| Role prompting | Básico | Análise especializada, feedback técnico, perspectivas específicas. |
| Chain-of-thought (CoT) | Intermediário | Matemática, lógica, análise multi-etapa, diagnóstico de problemas. |
| Structured output (JSON/XML) | Intermediário | APIs, pipelines de dados, processamento automático de respostas. |
| Delimitadores de contexto | Intermediário | Prompts longos com múltiplas partes, análise de documentos, tarefas multi-etapa. |
| Constraint-based prompting | Intermediário | Conteúdo de marca, outputs com padrão específico, prevenção de respostas genéricas. |
| Self-consistency | Avançado | Decisões importantes, análises críticas, problemas com múltiplas abordagens. |
| RAG manual | Avançado | Perguntas sobre documentos específicos, bases de conhecimento proprietário, dados atualizados. |
Zero-shot prompting
Descreva a tarefa sem dar exemplos. Funciona bem para tarefas que o modelo já conhece.
Use quando: Tarefas comuns: resumo, tradução, classificação, perguntas simples.
Exemplo de zero-shot
Prompt
Classifique o seguinte feedback de cliente como POSITIVO, NEGATIVO ou NEUTRO. Feedback: 'O produto chegou rápido mas a embalagem estava amassada.' Classificação:
Output esperado
NEGATIVO
Few-shot prompting
Forneça 2 a 5 exemplos de input/output antes do pedido real. O modelo aprende o padrão.
Use quando: Formatos específicos, tom personalizado, classificações com critério próprio.
Exemplo de few-shot (classificação de sentimento)
Prompt
Classifique o feedback como POSITIVO, NEGATIVO ou NEUTRO. Exemplo 1: Feedback: 'Produto excelente, superou minhas expectativas!' Classificação: POSITIVO Exemplo 2: Feedback: 'Entrega atrasou 5 dias, péssima experiência.' Classificação: NEGATIVO Exemplo 3: Feedback: 'Recebi o produto conforme descrito.' Classificação: NEUTRO Agora classifique: Feedback: 'O produto chegou rápido mas a embalagem estava amassada.' Classificação:
Output esperado
NEGATIVO
Role prompting
Defina um papel específico para o modelo. Muda vocabulário, perspectiva e nível de detalhe.
Use quando: Análise especializada, feedback técnico, perspectivas específicas.
Exemplo de role prompting
Prompt
Aja como um advogado especialista em direito trabalhista brasileiro. Analise a cláusula de contrato abaixo e identifique possíveis irregularidades conforme a CLT. CLÁUSULA: 'O funcionário concorda em trabalhar até 12 horas por dia quando necessário, sem pagamento de horas extras, como parte de suas responsabilidades gerenciais.' Análise:
Output esperado
[O modelo responde com linguagem jurídica, citando artigos da CLT, identificando a irregularidade nas horas extras]
Chain-of-thought (CoT)
Peça ao modelo para pensar passo a passo antes de responder. Melhora raciocínio em tarefas complexas.
Use quando: Matemática, lógica, análise multi-etapa, diagnóstico de problemas.
Exemplo de chain-of-thought
Prompt
Uma loja vende produtos com 30% de desconto. Um produto originalmente custa R$450. Um cliente tem um cupom de R$50 adicional. Quanto ele paga no total? Pense passo a passo antes de responder.
Output esperado
[O modelo mostra: 1) calcula 30% de desconto: 450 × 0,70 = R$315, 2) aplica cupom: 315 - 50 = R$265, 3) resposta: R$265]
Structured output (JSON/XML)
Peça outputs em formato estruturado. Essencial para integração com código.
Use quando: APIs, pipelines de dados, processamento automático de respostas.
Exemplo de structured output
Prompt
Extraia as informações do texto abaixo e retorne em JSON válido com os campos: nome, cargo, empresa, email (null se não encontrado). Texto: 'Olá, sou Ana Rodrigues, CTO da TechBrasil. Pode me contatar em [email protected]' Retorne APENAS o JSON, sem explicação.
Output esperado
{
"nome": "Ana Rodrigues",
"cargo": "CTO",
"empresa": "TechBrasil",
"email": "[email protected]"
}Delimitadores de contexto
Use tags XML, markdown ou delimitadores para separar instruções de conteúdo. Reduz confusão no modelo.
Use quando: Prompts longos com múltiplas partes, análise de documentos, tarefas multi-etapa.
Exemplo com delimitadores XML
Prompt
<document> Conteúdo do contrato que o modelo deve analisar... </document> <task> Identifique as três cláusulas com maior risco financeiro para o cliente. </task> <format> Lista numerada com: número da cláusula, resumo do risco, impacto estimado. </format>
Output esperado
[O modelo analisa apenas o documento, executa a tarefa específica e entrega no formato solicitado]
Constraint-based prompting
Defina restrições explícitas: o que fazer, o que não fazer, limites de tamanho, tom e formato.
Use quando: Conteúdo de marca, outputs com padrão específico, prevenção de respostas genéricas.
Exemplo de constraint-based
Prompt
Escreva uma bio profissional para o LinkedIn. RESTRIÇÕES: - Máximo 3 frases - Comece com o que a pessoa faz, não com o nome - Sem clichês: não use 'apaixonado por', 'especialista em', 'mais de X anos de experiência' - Tom: confiante mas acessível - Inclua um resultado concreto Perfil: [DADOS DO PROFISSIONAL]
Output esperado
[O modelo entrega bio dentro das 3 restrições principais]
Self-consistency
Gere múltiplas respostas com raciocínio diferente e escolha a mais consistente. Reduz erros em raciocínio.
Use quando: Decisões importantes, análises críticas, problemas com múltiplas abordagens.
Exemplo de self-consistency
Prompt
Analise a seguinte decisão de negócio de TRÊS ângulos diferentes: DECISÃO: [DESCREVA] Ângulo 1: perspectiva financeira — ROI e risco Ângulo 2: perspectiva operacional — execução e recursos Ângulo 3: perspectiva estratégica — posicionamento e longo prazo Após os três ângulos, diga qual recomendação aparece em pelo menos 2 dos 3 e por quê.
Output esperado
[O modelo entrega 3 análises independentes + síntese da mais consistente]
RAG manual
Forneça documentos relevantes junto com o prompt. Substitui conhecimento interno por sua fonte de verdade.
Use quando: Perguntas sobre documentos específicos, bases de conhecimento proprietário, dados atualizados.
Exemplo de RAG manual
Prompt
Com base APENAS no documento abaixo, responda a pergunta. Se a informação não estiver no documento, diga 'Não encontrado no documento'. DOCUMENTO: [COLE O DOCUMENTO AQUI] PERGUNTA: Quais são os requisitos mínimos para aprovação segundo o regulamento?
Output esperado
[O modelo responde com base no documento, não no conhecimento interno]
Continue
Próximos passos.
FAQ
Perguntas sobre técnicas de prompt.
Qual a diferença entre zero-shot e few-shot prompting?+
Zero-shot: você descreve a tarefa sem dar exemplos. O modelo infere o que fazer. Few-shot: você dá 2 a 5 exemplos de input/output antes do pedido real. O modelo aprende o padrão pelos exemplos. Few-shot é mais preciso para formatos específicos, zero-shot é suficiente para tarefas simples.
Chain-of-thought realmente melhora os resultados?+
Sim — especialmente em tarefas de raciocínio, matemática, lógica e análise multi-passo. Estudos do Google Brain mostraram ganhos de 20-30% em benchmarks de raciocínio ao adicionar 'pense passo a passo' ao prompt. Para tarefas simples (resumo, tradução, extração direta), o impacto é menor.
Role prompting funciona de verdade?+
Sim — mas o efeito varia. Pedir ao modelo para 'agir como especialista em X' realmente muda o vocabulário técnico, o nível de detalhe e o ponto de vista. O efeito é maior em domínios com vocabulário e perspectiva distintos (médico, advogado, engenheiro) e menor em tarefas genéricas.
O que é RAG e preciso programar para usar?+
RAG (Retrieval-Augmented Generation) é quando você fornece documentos relevantes junto com o prompt, em vez de depender do conhecimento interno do modelo. Não precisa programar — basta colar o conteúdo relevante no prompt antes da pergunta. É o RAG manual, mas funciona muito bem para documentos até 200k tokens (limite do Claude).
Qual técnica devo usar para outputs consistentes em produção?+
Para produção: structured output (JSON schema ou XML) + few-shot com 2-3 exemplos do formato esperado + restrições explícitas de formato. Adicione também: 'Se não souber, retorne null em vez de inventar'. Para garantia extra, valide o JSON/XML no código antes de usar.
Prompt engineering vai continuar sendo relevante com modelos melhores?+
Sim — mas o nível de esforço diminui. Modelos mais novos (GPT-5, Claude 4 Opus) seguem instruções simples com mais precisão, então prompts básicos já funcionam melhor. Mas para tarefas complexas, raciocínio multi-etapa e outputs estruturados, as técnicas avançadas continuam gerando ganhos significativos.