Gerador de Prompts
Llama.
Grátis, sem login, otimizado para Llama 3.x e Llama 4. Formato nativo [INST], raciocínio estruturado e nota de confiança.
Funciona no Meta.ai, Groq, Ollama e qualquer plataforma Llama. Três variantes prontas para copiar.
Descreva o que você quer
3 variantes de prompt
Click Copy to use<s>[INST] Papel: um engenheiro de software sênior que escreve código limpo, tipado e bem comentado. Tarefa: [Descreva o que você quer que o Llama produza.] Tom: Profissional. Sem introduções longas ou disclaimers desnecessários. Formato da resposta: Markdown com títulos H2/H3. [/INST]</s>
<s>[INST] Papel: um engenheiro de software sênior que escreve código limpo, tipado e bem comentado. Tarefa: [Descreva o que você quer que o Llama produza.] Pense passo a passo: primeiro analise o pedido, depois execute. Mostre o raciocínio brevemente antes da resposta final. Tom: Profissional. Sem introduções longas ou disclaimers desnecessários. Formato da resposta: Markdown com títulos H2/H3. [/INST]</s>
<s>[INST] Papel: um engenheiro de software sênior que escreve código limpo, tipado e bem comentado. Tarefa: [Descreva o que você quer que o Llama produza.] Execute a tarefa e ao final dê uma nota de confiança de 1 a 10. Se for abaixo de 8, refaça a parte mais fraca antes de entregar. Tom: Profissional. Sem introduções longas ou disclaimers desnecessários. Formato da resposta: Markdown com títulos H2/H3. [/INST]</s>
Por dentro
Por que o formato [INST] faz diferença no Llama.
O Llama foi treinado com o template <s>[INST]...[/INST]</s>. Usar esse formato melhora aderência às instruções em deployments locais (Ollama, LM Studio) e via API direta.
A Variante 2 pede que o Llama mostre o raciocínio brevemente antes da resposta. Isso melhora precisão em tarefas analíticas e permite identificar erros de lógica antes de usar o output.
A Variante 3 força o Llama a se autoavaliar e refazer partes fracas. Especialmente útil em extração de dados estruturados, análise de código e tarefas onde precisão é crítica.
Ferramentas grátis relacionadas
Outros geradores em português.
Gerador de Prompts ChatGPT
Framework Papel-Objetivo-Contexto para GPT-4o.
Gerador de Prompts Claude
Tags XML otimizadas para Claude 3.5 e Claude 4.
Gerador de Prompts DeepSeek
Para DeepSeek-R1 e DeepSeek-V3.
Gerador Universal
Funciona em qualquer LLM moderno.
Perguntas Frequentes
Perguntas sobre o gerador Llama.
O que é o Llama e onde posso usá-lo?+
Llama é a família de modelos open-source da Meta. Você pode usá-lo gratuitamente via Meta.ai, Groq (inferência rápida), Together AI, Replicate, Ollama (local no seu computador) e dezenas de outras plataformas. Llama 3.3 70B e Llama 4 são os modelos mais capazes da família.
O que é o formato [INST] usado nas variantes?+
O Llama foi treinado com um formato especial de instrução: <s>[INST] instrução [/INST]</s>. Usar esse formato sinaliza claramente onde começa e termina o prompt, o que melhora a aderência às instruções — especialmente em deployments locais via Ollama ou LM Studio.
Llama é gratuito?+
O modelo em si é open-source e gratuito para download. Plataformas como Groq oferecem acesso via API com tier gratuito generoso. Meta.ai (com Llama integrado) também é gratuito. Para uso empresarial acima de 700 milhões de usuários mensais, é necessário licença comercial da Meta.
Llama é tão bom quanto ChatGPT?+
Llama 3.3 70B e Llama 4 são competitivos com GPT-4o em muitas tarefas (código, análise, resumo). A principal diferença é que o Llama é open-source, então você pode rodar localmente, sem enviar dados para terceiros. Para tarefas muito complexas de raciocínio, o GPT-5 e Claude 4 ainda levam vantagem.
Posso rodar o Llama no meu computador?+
Sim, via Ollama (ollama.com). O Llama 3.2 3B roda em qualquer Mac moderno. O Llama 3.3 70B precisa de uma GPU com 40+ GB de VRAM ou de quantização 4-bit para rodar em GPUs consumer (RTX 4090, Mac M3 Max). Para uso diário sem hardware especial, acesse pelo Meta.ai ou Groq.
Esses prompts funcionam em outros modelos open-source como Mistral ou Phi?+
A estrutura base (papel, objetivo, contexto, formato) funciona em qualquer modelo. O formato [INST] é específico do Llama. Modelos como Mistral e Phi têm seus próprios tokens de instrução, mas a maioria das plataformas de inferência converte automaticamente.
O que é a 'nota de confiança' na Variante 3?+
É uma técnica de auto-avaliação onde o modelo estima a confiança no próprio output (de 1 a 10). Se a nota for abaixo de 8, o modelo revisa a parte mais fraca antes de entregar. Isso reduz outputs parcialmente corretos em tarefas de extração, código e análise.