Aprendi direto com a equipe da Anthropic, peguei a apresentação deles, destrinchei cada detalhe técnico, adicionei exemplos reais pra roteiros de YouTube, TikTok, copy, SaaS, e transformei tudo isso neste guia. Para você sair daqui escrevendo prompts como um ninja. 🥷
Levei tempo pra destrinchar cada parte da apresentação, testar cada técnica, montar exemplos reais e escrever tudo isso de um jeito que qualquer pessoa entenda. Sei que muita gente ia usar esse conteúdo pra própria mentoria e cobrar caro por isso (sem citar a fonte, claro 👀). Então sim — preferi deixar o crédito e abrir pra todo mundo. Se esse guia te ajudou, me manda um cafezinho! ☕
🙏 Qualquer valor é absurdamente bem-vindo e mantém o Ricardo fazendo mais conteúdo livre como esse.
"Guruzona cobrava R$497 pra ensinar metade disso. Aqui tá tudo. Considere um pix hein 😄"
A IA não é mágica. Ela não lê mentes. E ela não vai fazer o trabalho certo só porque você jogou uma pergunta genérica. Mas aqui está o segredo que a galera ainda não entendeu:
A diferença entre uma IA que te entrega resultado profissional e uma que te entrega lixo não é o modelo — é você. É como você escreve o prompt. O modelo é o mesmo pra todo mundo. O prompt é o diferencial competitivo.
Sabe quando você pede algo pro Claude e ele entrega um texto genérico, vazio, que não serve pra nada? Culpa sua. (Com carinho, claro 😅.)
E quando você pede e ele entrega um roteiro incrível, um e-mail de vendas que converte, ou um plano de negócios detalhado? Também culpa sua — mas dessa vez no bom sentido.
Prompt engineering é a arte de se comunicar com IAs da forma que elas foram treinadas para responder melhor. E a equipe da Anthropic — as pessoas que criaram o Claude — sentaram e mostraram exatamente como eles fazem isso internamente. Esse guia é a destilação disso tudo, com muito mais exemplos práticos.
Aqui tem profundidade real, baseada na documentação técnica da Anthropic. Se você ler e aplicar tudo, vai sair com uma vantagem injusta em relação a 95% das pessoas que usam IA no automático.
Antes de aprender a escrever prompts, você precisa entender uma coisa básica: o modelo não pensa como a gente. Ele prediz. E isso muda tudo.
Claude não "entende" sua pergunta da forma que um ser humano entende. Ele foi treinado em bilhões de textos e aprendeu a completar padrões. Quando você manda um prompt, ele está essencialmente respondendo: "Dado tudo que aprendi, qual é o próximo token mais provável aqui?"
Isso significa que quanto mais contexto e estrutura você der, mais previsível (no bom sentido) fica a resposta. O modelo vai preencher os buracos com o que é mais provável dado o padrão que você estabeleceu.
O modelo não sabe quem você é, o que você quer, qual é o tom, o público, o objetivo. Você tem que contar tudo isso.
A equipe da Anthropic deixa claro: prompt engineering é empírico. Você testa, observa onde errou, corrige, testa de novo.
Um prompt bem estruturado vai superar um prompt criativo mas bagunçado. Claude ama organização. Use isso a seu favor.
Temperature 0 = respostas consistentes e previsíveis. Temperature 1 = mais criativo e variado. Para tarefas factuais, use 0.
Durante a apresentação, Hannah e Christian mostram exatamente o setup que usam no Anthropic Console:
O modelo mais recente. Para a maioria dos casos de uso profissionais, é a escolha certa — equilibra inteligência e velocidade.
Para tarefas que precisam de precisão factual (como analisar formulários de sinistro), temperature zero garante consistência.
Eles definem um budget generoso de tokens para garantir que o Claude não seja cortado no meio de uma análise importante.
Se você der pro Claude as mesmas informações que você daria pra um estagiário novo e inteligente no primeiro dia de trabalho, você vai ter resultados excelentes. Se você tratar ele como adivinho, vai ter lixo.
A Anthropic documenta 10 componentes que formam um prompt completo e eficaz. Você não precisa usar todos os 10 sempre — mas precisa conhecer cada um para decidir quando cada um entra em cena.
O primeiro — e mais importante — elemento. Você precisa dizer ao Claude o que ele é, onde ele está, e qual é o objetivo geral.
Sem isso, ele chuta. Literalmente. No caso da seguradora brasileira, jogaram um BO sem contexto e Claude começou a inventar que era um inventário de frota.
Porque... por que não? Não tinha nada dizendo o contrário.
Perguntas que você deve responder aqui: Qual é o papel do Claude? Em qual empresa/contexto ele está atuando? Qual problema ele está resolvendo?
Claude pode ser confiante ou hesitante, formal ou casual, criativo ou factual.
Você define isso. A Anthropic diz: "Queremos que ele seja factual e confiante.
Se não souber, que diga que não sabe — não que invente." Isso é crítico para evitar alucinações.
Exemplos de tom: "Seja direto e nunca suavize más notícias" / "Responda como um consultor sênior, não como assistente" / "Se não tiver certeza, diga explicitamente"
Informações que não mudam entre as queries. Se você tem um formulário que é sempre o mesmo, coloque a estrutura dele aqui. Se você tem um contrato-padrão, coloque aqui. Isso vai no System Prompt — não no User Prompt. A grande vantagem: Claude para de gastar tempo "descobrindo" o que é o documento e vai direto pra análise. Além disso, é perfeito pra usar com Prompt Caching (informações fixas = cache = economia de tokens).
Claude foi treinado com XML. Ele adora XML. Use tags pra separar os diferentes tipos de conteúdo no seu prompt:
<context></context> | <document></document> | <instructions></instructions> | <example></example>
Isso não é só estética — é funcional. Claude consegue referenciar seções específicas do prompt quando precisa checar alguma informação.
Não peça uma coisa só. Quebre a tarefa em passos numerados. A ordem importa muito.
A Anthropic mostra que quando dizem "primeiro analise o formulário, depois veja o desenho",
Claude chega a conclusões melhores do que quando vê as duas coisas ao mesmo tempo sem ordem.
É exatamente como você faria com um humano: "Primeiro leia o contrato. Depois me diga os pontos de risco. Depois escreva o resumo executivo."
Essa é a técnica mais poderosa para casos difíceis ou ambíguos.
Em vez de explicar o que você quer, mostre.
"Se o input for X, o output deve ser Y."
"Se a imagem mostrar isso, interprete como aquilo."
A Anthropic menciona que em produção real, uma seguradora teria dezenas ou centenas de exemplos de casos difíceis bakeados no system prompt.
Cada exemplo é um caso que já foi errado e corrigido com supervisão humana.
Para aplicações voltadas ao usuário com conversas longas, inclua o histórico relevante.
O contexto de "o que já foi dito antes" ajuda Claude a manter coerência e não contradizer informações anteriores.
Para sistemas automáticos (como o da seguradora), isso não é necessário — mas para um chatbot de suporte ou vendas, é crucial.
Para prompts longos, Claude pode "se perder" no meio de tanto contexto.
Repita o objetivo principal no final.
"Lembre-se: você está avaliando quem teve culpa no acidente. Baseie-se somente no que viu no formulário e no desenho."
Isso previne que ele se distraia com detalhes e perca o foco no que realmente importa.
Regras explícitas do que fazer e não fazer:
• "Não invente informações que não estão nos dados"
• "Se não tiver certeza, diga explicitamente e pare"
• "Sempre cite a fonte da afirmação (ex: 'com base no checkbox 3')"
• "Nunca especule sobre informações não fornecidas"
Esse componente é seu escudo anti-alucinação. Use sempre em sistemas de produção.
Defina exatamente como você quer receber a resposta.
• JSON? Especifique a estrutura.
• XML? Use tags específicas como <veredicto_final>
• Markdown? Liste os cabeçalhos que quer.
• Texto corrido? Especifique o tamanho máximo.
Se você não especificar, Claude vai escolher o formato que "achar melhor" — e isso é receita pra surpresas desagradáveis em sistemas automatizados.
Task Context → Tone → Background → Instruções → Exemplos → Lembrete → Guidelines → Output. Essa é a ordem recomendada pela Anthropic. Não é arbitrária — ela espelha como um briefing profissional humano funcionaria.
A Anthropic mostrou ao vivo a evolução de um prompt do V1 (ingênuo) ao V5 (produção real). Vou reproduzir essa evolução aqui com todos os detalhes que eles explicaram. O cenário: uma seguradora brasileira que precisa analisar boletins de ocorrência de acidentes de trânsito — algo que acontece milhares de vezes por dia no Brasil.
Uma seguradora como Porto Seguro, Bradesco Seguros ou Mapfre recebe centenas de sinistros por dia. Para cada um chega: (1) o Boletim de Ocorrência (BO) preenchido pelos motoristas com checkboxes descrevendo o que aconteceu, e (2) um croqui desenhado à mão mostrando como o acidente ocorreu. Um ajustador humano precisa revisar tudo isso — a IA vai automatizar essa análise.
É o que 90% das pessoas fariam. Jogar o documento e perguntar.
"Com base na análise, parece que o documento descreve um inventário de veículos ou talvez uma planilha de controle de frota. Não consigo determinar nenhuma infração ou culpado com as informações fornecidas..."
💬 Clássico. Claude recebeu um formulário cheio de checkboxes sem nenhuma explicação — e começou a tentar adivinhar o que era. Sem contexto = Claude perdido. Isso acontece o tempo todo quando se usa IA no automático.
Agora explicamos quem é o Claude, o que ele faz, e qual postura deve adotar.
✓ Identifica que é um acidente de carro (não inventário de frota!) 🎉
✓ Lê o BO e identifica que Veículo A marcou checkbox 1, Veículo B marcou checkbox 12
✗ Ainda inseguro: "Não há informação suficiente para determinar com certeza quem é o culpado"
💬 Progresso real, mas ainda falta. Claude sabe que é carro mas não entende os checkboxes — porque nós também não explicamos o que cada um significa.
A grande virada. A Anthropic explica: o formulário é sempre o mesmo. Cada vez que Claude o vê, ele "re-aprende" o que cada linha significa. Por que não ensinar uma vez e pronto?
✓ Identifica corretamente os checkboxes marcados
✓ Interpreta o significado de cada um
✓ Chega a uma conclusão confiante: "O Veículo B estava na falta"
✓ Passa menos tempo "descobrindo" o formulário e mais tempo analisando
A Anthropic descobre que a ordem em que Claude analisa as informações importa tanto quanto o que ele analisa. Olhar o desenho sem entender o formulário primeiro é confuso — igual teria sido pra um humano também.
✓ Mostra o raciocínio passo a passo (auditável!)
✓ Correlaciona formulário + desenho de forma coerente
✓ Chega a conclusão detalhada e defensável
✗ Ainda muito verboso — lista cada checkbox individualmente (não precisamos de tudo isso)
A versão final. Para um sistema real, você não precisa do raciocínio completo — só do veredicto final em formato que pode ser salvo no banco de dados.
✓ Análise estruturada e auditável
✓ Veredicto em formato parseável (salvo direto no banco de dados)
✓ Nível de confiança declarado
✓ Evidências citadas para cada afirmação
✓ O engenheiro de dados só precisa extrair a tag <veredicto_final>
Foram 5 versões, cada uma construindo sobre a anterior. Prompt engineering é isso: iteração constante, observação cuidadosa, e melhora incremental. Não existe "prompt perfeito da primeira vez" — existe processo.
YouTube longo é um bicho diferente. Não é só "escreva um roteiro". É gancho, retenção, curva de emoção, CTA, SEO, pinned comment... E tudo isso tem de estar alinhado com quem você é e pra quem você fala. Aqui vou te mostrar o prompt completo que eu usaria — e como montar o seu.
Se você jogou "escreva um roteiro sobre marketing digital", você recebeu um texto chato, sem personalidade, sem gancho, sem estrutura de retenção. É o tipo de vídeo que as pessoas clicam e fecham 30 segundos depois. Vamos consertar isso.
Seu nicho, seu estilo de comunicação, sua personalidade no canal. Claude vai imitar seu tom se você descrever bem.
Idade, nível de conhecimento, dores, sonhos, objeções. A linguagem muda completamente de acordo com quem ouve.
Crescer inscritos? Vender curso? Gerar leads? O CTA e a estrutura mudam dependendo disso.
10 minutos tem uma densidade de informação muito diferente de 30 minutos. Especifique.
Exemplo real: canal de empreendedorismo, vídeo sobre como sair do 9-to-5 em 2025.
✓ 3 opções de gancho testáveis
✓ Estrutura completa com timecodes aproximados
✓ Marcações de B-roll e ênfases de fala
✓ Pattern interrupts para manter retenção
✓ CTA integrado de forma natural
✓ Roteiro fácil de adaptar para o teleprompter ou anotações
Quer que Claude escreva exatamente com o seu estilo? Cole um trecho de 3-4 parágrafos de um vídeo anterior seu e adicione ao prompt:
Com 2-3 exemplos do seu estilo real, Claude vai mimetizar suas pausas, suas gírias, seu ritmo de fala, e até seus "bordões" naturais. O texto final parece que você mesmo escreveu — porque você treinou o modelo no seu padrão.
Peça assim ao Claude para gerar múltiplas opções:
| Tipo de Gancho | Exemplo | Quando Usar |
|---|---|---|
| Polêmica | "Curso online é a maior mentira da internet..." | Quando quer romper padrão e gerar debate |
| Confissão | "Vou te contar um erro que me custou 40 mil reais..." | Gera empatia imediata + curiosidade |
| Dado Chocante | "97% das pessoas que tentam empreender fecham em menos de 2 anos. Eu sei o porquê." | Público que reage a estatísticas |
| No Meio da Ação | "Eu tava com R$200 na conta e um cliente me devia R$15 mil..." | Storytelling — funcionan SEMPRE |
| Pergunta Direta | "Você já percebeu que o seu chefe ganha 10x mais fazendo o mesmo que você?" | Quando quer que o espectador se identifique |
TikTok é outra linguagem. Você tem 3 segundos pra convencer alguém a não arrastar o dedo. Os mecanismos de retenção são diferentes, o formato é diferente, e a IA precisa saber tudo isso.
YouTube: o espectador chegou com intenção. TikTok: o espectador estava rolando sem objetivo e você interrompeu o feed dele. Isso muda tudo. Cada frase precisa ser justificativa para a próxima. Sem descanso.
A primeira frase visual ou falada decide se a pessoa fica. Precisa criar um "loop aberto" — uma pergunta ou tensão que só resolve no final.
Cada 5-8 segundos deve ter um micro-gancho novo. Uma virada, um dado novo, uma pergunta. O espectador deve sempre ter um motivo pra continuar.
Sem "vou apresentar a vocês". É "Cara, você não vai acreditar porque eu larguei um emprego de R$8k..."
"Salva isso porque você vai precisar" funciona melhor que "não esqueça de curtir e se inscrever" como um robô.
Veja como ficaria o output para o nicho de produtividade:
[GANCHO]: "Eu trabalhava 12 horas por dia e não produzia nada."
[FALA]:
"Eu trabalhava 12 horas por dia e não produzia nada.
Era reunião atrás de reunião. ⚡
E-mail. Slack. WhatsApp.
🔴 [pausa de 0.5s]
Aí um dia eu descobri um estudo do MIT que mudou tudo.
Nossas decisões melhores acontecem nas primeiras 2 horas do dia. ⚡
Só que a maioria das pessoas passa essas 2 horas... no celular.
🔴 [pausa dramatica]
Eu passei a bloquear as manhãs. Zero reuniões antes das 10h.
Em 3 semanas, entregava mais em 4 horas do que entregava em 12.
Isso não é produtividade — é saber quando o seu cérebro funciona.
Salva isso pra lembrar amanhã cedo."
[LEGENDA]: "Trabalhava 12h e não produzia nada (até descobrir isso) 🧠 #produtividade #trabalho"
[GANCHO]: "Você desperdiça 2 horas e 23 minutos por dia. Todo dia."
[FALA]:
"Você desperdiça 2 horas e 23 minutos por dia. Todo dia. ⚡
Esse é o tempo médio que brasileiros ficam no feed das redes sociais.
🔴 Mas espera — não é sobre o celular.
É o que você poderia ter feito no lugar.
2h23 por dia = 16 horas por semana. ⚡
16 horas por semana = 830 horas por ano.
São 34 dias INTEIROS. Acordado.
🔴 O que você faria com 34 dias extras todo ano?
Comenta aqui embaixo. Quero ver."
Uma técnica poderosa é criar uma série onde cada vídeo termina abrindo para o próximo. Peça assim ao Claude:
Ative o Extended Thinking e peça ao Claude para "pensar sobre o que faria o espectador arrastar o dedo em cada frase, e como evitar isso". Você vai ver o raciocínio interno dele sobre retenção — e pode usar isso para afinar seu script.
Depois de ter um script que funcionou, use este prompt para criar 10 variações:
Copy ruim é o principal motivo pelo qual bons produtos não vendem. E a maioria das pessoas usa a IA para escrever copy da maneira mais errada possível: "escreva um e-mail de vendas para meu curso". Vamos resolver isso com prompts que a IA entrega copy de verdade.
Copy genérica fala sobre o produto. Copy que converte fala sobre a DOR e o DESEJO do comprador. Se você não der ao Claude as informações sobre o cliente, ele vai escrever sobre o produto — e vai ser um desastre.
Não "quer mudar de vida". Mas "acorda segunda às 6h, chega no trânsito, fica 8h numa sala abafada fazendo trabalho que odeia, volta pra casa exausto sem energia pra família".
Não "liberdade financeira". Mas "poder buscar os filhos na escola, trabalhar de casa, não dever satisfações pra chefe, tirar férias quando quiser sem pedir permissão".
"Não tenho tempo", "já tentei antes e não funcionou", "não tenho dinheiro pra investir", "sou muito velho/novo pra isso". A copy deve destruir cada uma antes que o cliente formule.
Não "resultados incríveis". Mas "em 90 dias você terá sua primeira venda recorrente de R$3k mensais trabalhando 4 horas por dia".
Se você está construindo um produto, app ou SaaS, o Claude pode ser seu co-fundador técnico. Mas aqui as regras do bom prompt ficam ainda mais críticas — porque código ruim gerado por IA mal instruída é pior que não ter código nenhum.
Usando exatamente o que a Anthropic ensinou (system prompt + instruções + output format), veja como montar um feature de IA no seu produto:
System prompt com contexto fixo (a empresa, as regras) + input dinâmico (o ticket do cliente) + output formatado (JSON parseável) = exatamente o mesmo padrão do caso da seguradora brasileira. Esse é o padrão para qualquer feature de IA em produto real.
Você dominou a estrutura básica. Agora vamos às técnicas que a equipe da Anthropic usa internamente e que a maioria das pessoas nem sabe que existe.
Claude foi treinado extensivamente com dados estruturados em XML. Isso significa que ele interpreta XML de forma nativa — não só como texto, mas como estrutura com significado.
Tudo dentro de <instrucoes> é tratado como instrução, não como dado a ser processado.
Claude consegue "lembrar" de seções específicas do prompt durante o raciocínio: "conforme definido em <regras>..."
Peça ao Claude para encapsular partes da resposta em tags específicas. Seu código pode extrair apenas o que precisa.
A Anthropic é enfática: exemplos concretos são mais poderosos que explicações longas. Em vez de escrever 3 parágrafos explicando o formato que você quer, mostre 2 exemplos de input/output.
"Classifique o sentimento do comentário. Retorne positivo, negativo ou neutro. Seja preciso e claro."
"Classifique o sentimento:
Comentário: 'O produto é ok mas a entrega atrasou'
Sentimento: MISTO
Comentário: 'Adorei demais, super recomendo!!!'
Sentimento: POSITIVO
Comentário: 'Não funciona, perdí meu dinheiro'
Sentimento: NEGATIVO
Agora classifique: [COMENTÁRIO]"
Claude 3.7 e Claude 4 têm um modo especial chamado Extended Thinking. Quando ativado, Claude "pensa em voz alta" antes de responder — como um ser humano que reflete antes de falar.
O modelo adiciona <thinking> tags antes da resposta. Nesse scratchpad, ele literalmente "conversa consigo mesmo", explora possibilidades, reconsidera assunções. A resposta final é mais precisa porque foi precedida de raciocínio profundo.
O problema é ambíguo ou tem múltiplas variáveis. Decisões estratégicas. Análise de dados complexa. Qualquer coisa que um especialista humano precisaria "pensar bem" antes de responder.
Tarefa é simples e direta. Você precisa de velocidade máxima. O resultado é formatação ou transformação simples de texto. Cada token de "thinking" custa — use com sabedoria.
Analise o transcript do Extended Thinking pra entender como Claude está "pensando" no seu problema. Isso vai te dizer onde o seu prompt está confuso ou incompleto — e você pode usar essa informação para melhorar o system prompt e eventualmente eliminar a necessidade do Extended Thinking (mais rápido, mais barato).
Uma das técnicas mais subestimadas da API da Anthropic. Você pode forçar Claude a começar sua resposta com o texto que você definir.
| Caso de uso | Pre-fill que você usa | Resultado |
|---|---|---|
| JSON limpo | { |
Claude retorna JSON sem preamble |
| XML estruturado | <resultado> |
Resposta inteira dentro da tag |
| Lista numerada | 1. |
Vai direto pra lista sem introdução |
| Código Python | ```python |
Apenas o código, sem explicação antes |
Se você tem um system prompt longo que não muda entre as queries, Prompt Caching salva os tokens da primeira execução e reutiliza nas subsequentes. A Anthropic menciona isso especificamente para o contexto do formulário da seguradora — a estrutura do formulário nunca muda, então só é processada uma vez.
Tokens cacheados custam ~90% menos que tokens normais. Em produção com alto volume, isso é a diferença entre viável e inviável financeiramente.
Cache também acelera o tempo de resposta — os tokens fixos não precisam ser processados do zero a cada chamada.
Documentos de referência fixos, exemplos de few-shot, instruções de sistema, base de conhecimento do produto. Tudo que não muda entre queries.
Esses são os prompts que você pode usar agora mesmo. Copie, substitua os colchetes com sua situação real, e vai na fé. Cada um foi construído seguindo os princípios deste guia.
Imprima, cole na parede, tatue no braço. Use toda vez antes de mandar um prompt importante:
✓ Defini quem é Claude nesse contexto?
✓ Expliquei o objetivo geral?
✓ Descrevi o público final?
✓ Especifiquei o tom desejado?
✓ Disse o que Claude deve fazer se não souber?
✓ Listei o que NUNCA deve fazer?
✓ Forneci todos os dados necessários?
✓ Usei XML tags pra estruturar?
✓ Dei pelo menos 1 exemplo?
✓ As instruções estão em ordem lógica?
✓ Evitei ambiguidade em cada passo?
✓ Adicionei um lembrete final se necessário?
✓ Defini o formato exato da resposta?
✓ Especifiquei o tamanho?
✓ Indiquei como estruturar (JSON, XML, MD)?
✓ Disse explicitamente que não pode inventar?
✓ Defini o comportamento para casos de incerteza?
✓ Testei uma versão simples primeiro?
Não guarda pra você. Esse guia foi feito pra circular. Manda pra aquele amigo que ainda usa "me escreva um texto sobre marketing digital" e recebe lixo. Compartilha no grupo, no feed, em qualquer lugar que ajude alguém a usar IA de verdade.
Levei um bom tempo organizando tudo isso aqui. Muita gente ia usar esse material pra cobrar em mentoria e não compartilhar. Eu preferi abrir pra todo mundo. Se quiser me pagar um cafezinho (ou um pix de boas), fico muito feliz! 😄
Qualquer valor é recebido com muito carinho e motiva mais conteúdo livre assim 🚀
📣 Compartilhe esse guia:
"Peguei a apresentação de Prompting 101 da Anthropic (criadores do Claude) e transformei num guia completo em português com exemplos reais de YouTube, TikTok, copy e SaaS. É de graça e é pesado. Clica aí 👇"
Guia elaborado por Ricardo Almeida • Baseado na apresentação Prompting 101 de Hannah e Christian da Anthropic Applied AI
Técnicas retiradas da documentação oficial da Anthropic + experiência prática + exemplos originais do autor
Compartilhamento livre ✓ — Só peço que mantenha os créditos e o PIX 😄