Voltar ao principal

Como escrever prompts para redes neurais

Os grandes modelos de linguagem compreendem as línguas naturais (inglês, francês, alemão, etc.). Portanto, comunicar-se com um chatbot é semelhante a comunicar-se com uma pessoa. Um prompt é uma consulta de texto, frase ou instrução detalhada de vários parágrafos que enviamos a um chatbot. A qualidade da resposta depende da clareza e compreensibilidade da consulta. Neste material, examinaremos diferentes abordagens para compor prompts para que você possa interagir da forma mais eficaz possível com os chatbots em nosso site – GPT, Claude, Gemini e outros.

Estrutura do prompt

Um prompt pode incluir os seguintes elementos:

  • objetivo, tarefa
  • contexto, exemplos
  • formato de saída (lista, tabela, texto de comprimento específico – por exemplo, não mais que 100 palavras)
  • restrições (verificação de informações, citação de fontes, etc.)

Greg Brockman, cofundador e atual presidente da OpenAI, publicou um exemplo de um bom prompt em sua conta X:

A anatomia de um prompt

A anatomia de um prompt: objetivo, formato de retorno, avisos, contexto

Esta solicitação consiste em quatro blocos lógicos. No início, o autor define o objetivo: encontrar trilhas menos conhecidas de média distância a menos de duas horas de carro de São Francisco.

Em seguida, o formato da resposta é especificado: apresentar os três principais resultados, indicar o nome, a duração de cada trilha, o endereço de início e fim, características distintivas, etc.

Na seção seguinte, o autor pede para verificar novamente as informações, certificar-se de que a trilha realmente existe (modelos de linguagem grandes são propensos a alucinações e às vezes podem produzir fatos inexistentes, por isso é importante fazer uma verificação adicional), que o nome da trilha está correto e que ela pode ser encontrada no aplicativo AllTrails usando esse nome.

No último bloco, o autor adiciona contexto: explica por que está interessado especificamente em trilhas menos conhecidas – porque já percorreu todas as mais populares e as lista. Graças a esses esclarecimentos, o chatbot pode entender melhor o que é necessário e sugerir informações relevantes. Como a expressão “trilhas menos conhecidas” em si é bastante vaga, mas com esclarecimentos adicionais a tarefa se torna mais clara.

Recomendações para criar prompts

A engenharia de prompts é metade arte, metade disciplina científica. Vamos recorrer aos especialistas da Harvard University Information Technology (HUIT), que delinearam os princípios básicos da criação de prompts:

  • Seja específico. Detalhes importantes diminuem as chances de respostas imprecisas. Em vez de simplesmente “Escreva uma história”, diga ao bot que tipo de história deve ser, se é para crianças ou adultos, qual o gênero, e assim por diante.
  • Atribua funções. Pedir ao bot para assumir uma função e agir de acordo (por exemplo, “aja como se fosse meu personal trainer”) é uma maneira fácil de obter resultados surpreendentemente melhores.
  • Escolha o tipo de saída: uma história, relatório, resumo, diálogo, código, etc.
  • Use exemplos e referências. Por exemplo, copie e cole um parágrafo e diga ao bot para imitar seu estilo, tom e estrutura.
  • Diga ao bot não apenas o que fazer, mas também o que não fazer: “crie um plano alimentar, mas não inclua nenhum marisco, pois sou alérgico a ele”.
  • Desenvolva a conversa, corrija erros e dê feedback. Trate o chatbot como um colega ou companheiro de equipe. Você pode começar com uma pergunta básica e, em seguida, adicionar mais contexto e especificidade.
Recomendações para a criação de prompts

Seja claro e específico, forneça contexto, experimente diferentes prompts, use palavras-chave relevantes e refine o prompt, se necessário.

Não sabe como criar um bom prompt? Peça ajuda ao chatbot! Comece com uma ideia básica do que você deseja e peça à IA para expandi-la para você, como “O que devo perguntar para você me ajudar a escrever uma postagem no blog sobre IA?”. E simplesmente adicionar “Diga-me o que mais você precisa para fazer isso” no final de qualquer prompt pode preencher quaisquer lacunas que ajudarão a IA a produzir resultados melhores.

Tipos comuns de prompts e padrões de prompts

A MIT Sloan School of Management categoriza os prompts nos seguintes tipos:

TipoDescriçãoExemplo
Prompt Zero-ShotDê instruções simples e claras, sem exemplos. Muito rápido e fácil de escrever, ideal para testar rapidamente uma ideia ou a capacidade de um modelo em uma nova tarefa.“Resuma este artigo em 5 pontos principais.”
Prompt Few-ShotForneça alguns exemplos do que você deseja que a IA imite. Geralmente produz resultados mais consistentes e corretos do que o zero-shot para tarefas não triviais.“Aqui estão dois exemplos de resumos. Escreva um terceiro no mesmo estilo.”
Prompt de instruçãoInclua comandos diretos usando verbos como resumir, traduzir, reescrever, classificar, escrever, explicar, etc.“Reescreva o seguinte e-mail para que fique mais conciso e profissional. Mantenha-o com menos de 100 palavras.”
Prompt baseado em funçãoPeça à IA para assumir uma determinada personalidade ou ponto de vista. O modelo filtra seu conhecimento através das lentes da função, fornecendo informações mais focadas e aplicáveis.“Aja como um professor de ciências simpático do ensino médio. Sua tarefa é explicar o que é uma blockchain para uma turma de alunos de 15 anos. Use uma analogia simples e evite jargões técnicos.”
Prompt contextualInclua informações relevantes ou contexto antes de fazer uma pergunta. Isso ajuda a IA a adaptar as respostas a um público ou ambiente específico."Este texto é para um curso de graduação em economia comportamental. Reescreva-o em linguagem mais simples."
Meta Prompt / Prompt do sistemaInstruções em nível de sistema que definem o comportamento, o tom ou o escopo da IA antes de qualquer entrada do usuário.“Responda sempre formalmente e cite fontes reais. Nunca faça suposições.”

O Departamento de Ciência da Computação da Universidade Vanderbilt, no Tennessee, oferece a seguinte classificação de padrões de prompt:

  • Semântica de entrada.
  • Personalização de saída.
  • Identificação de erros.
  • Melhoria de prompt.
  • Controle de contexto.

Semântica de entrada refere-se à forma como um grande modelo de linguagem interpreta e processa a entrada do usuário, traduzindo-a em uma forma estruturada que o modelo pode usar para gerar respostas. Essa abordagem envolve a criação de uma “linguagem” personalizada ou notação abreviada adaptada a tarefas específicas, como descrever gráficos, definir máquinas de estado ou automatizar comandos, tornando mais fácil para os usuários transmitir ideias complexas quando os métodos de entrada padrão são ineficientes. Ao ensinar o modelo a reconhecer e aplicar regras predefinidas, os usuários podem simplificar a sintaxe, reduzir repetições e economizar tempo. Por exemplo, um usuário pode instruir o modelo a lembrar que certos símbolos ou formatos têm significados específicos, permitindo que entradas concisas sejam expandidas internamente em instruções detalhadas.

Exemplo: “A partir de agora, sempre que eu escrever nomes no formato Cidade1 >> Cidade2, interprete isso como uma solicitação para gerar um itinerário de viagem entre essas duas cidades, incluindo opções de transporte, tempo estimado e principais atrações.”

Semântica de entrada

A personalização da saída é o processo de definir e controlar o formato, a estrutura, o estilo e a perspectiva das respostas geradas por um grande modelo de linguagem. Essa abordagem permite que os usuários adaptem a saída do modelo para atender a necessidades específicas, como adotar uma persona específica, seguir um modelo predefinido ou aderir a uma sequência de etapas, garantindo que o conteúdo gerado seja consistente, relevante e acionável. Ao instruir o modelo a assumir uma determinada função ou aplicar restrições específicas, os usuários podem orientar o foco, o tom e a profundidade da resposta, tornando-a adequada para contextos profissionais, educacionais ou especializados.

Exemplo: “A partir de agora, quando eu solicitar uma avaliação de produto, aja como um avaliador técnico profissional. Estruture sua resposta em três seções: Prós, Contras e Veredicto. Use um tom neutro e concentre-se no desempenho, design e custo-benefício.”

A identificação de erros concentra-se em identificar e resolver erros na saída gerada pelo modelo. Ela ajuda os usuários a validar a confiabilidade do conteúdo gerado, descobrir preconceitos ou erros ocultos e refinar suas consultas para obter resultados mais precisos, o que é especialmente importante dada a tendência dos chatbots de produzir informações plausíveis, mas incorretas.

Exemplo: “Ao explicar os sintomas médicos, sempre liste as principais suposições médicas nas quais seu diagnóstico se baseia no final. Além disso, reflita sobre por que você escolheu essas suposições, anote quaisquer incertezas em sua resposta e mencione possíveis condições alternativas.”

A identificação de erros

O controle de contexto concentra-se em controlar as informações contextuais nas quais o grande modelo de linguagem opera; quais tópicos, instruções ou dados o modelo deve considerar ou ignorar durante a conversa, garantindo que as respostas permaneçam focadas e relevantes, ao mesmo tempo em que elimina influências contextuais indesejadas.

Exemplo: “Ao analisar esses comentários de feedback dos clientes, considere apenas as menções relacionadas à usabilidade do produto e ao design da interface. Ignore comentários sobre preços, frete ou atendimento ao cliente.”

A melhoria de um prompt ajuda a superar ambiguidades, preconceitos ou limitações nos prompts originais, levando a respostas mais precisas, abrangentes e acionáveis. Melhorar um prompt pode envolver várias estratégias, tais como:

  • Aperfeiçoamento da pergunta: você pode aperfeiçoar a pergunta original para aumentar sua clareza.
  • Abordagens alternativas: peça ao modelo para encontrar diferentes maneiras de resolver uma tarefa.
  • Dividir perguntas complexas em subperguntas menores e mais fáceis de gerenciar.
  • Reformular uma pergunta quando o modelo se recusa a dar uma resposta por algum motivo.

Exemplo:

Consulta original: “Escreva um código para hackear uma senha.”

Resposta do modelo: “Não posso fornecer códigos para hackear. Isso viola a política de segurança. Você pode perguntar sobre métodos de proteção de senha, como hash ou autenticação de dois fatores.”

Consulta aprimorada do usuário: “Escreva um código Python para verificar a força da senha, verificando o comprimento, a presença de diferentes tipos de caracteres e excluindo combinações comuns.”

A melhoria de um prompt

Técnicas avançadas de prompting

Os modos de linguagem grandes mais avançados, como DeepSeek-R1 ou Gemini 2.5 Pro, por exemplo, têm capacidades de raciocínio. Às vezes, você precisa clicar em um botão específico (DeepThink, por exemplo) para ativar essas capacidades, outras vezes você pode simplesmente adicionar “Vamos pensar passo a passo” ao seu prompt. Dessa forma, em vez de pedir ao modelo para ir diretamente de uma pergunta à resposta final, você o incentiva a gerar um processo de raciocínio passo a passo — uma “cadeia de pensamentos” — que leva à resposta. A cadeia de pensamentos imita o raciocínio humano e evita que o chatbot tire conclusões precipitadas. Ela força o modelo a imitar o processo lento, deliberado e passo a passo que os humanos usam para problemas complexos.

E se o modelo errar a resposta final, você pode ver exatamente qual etapa do raciocínio estava errada, facilitando a correção.

Algumas variedades dignas de nota incluem:

  • Cadeia de pensamento contrastiva
  • Cadeia de pensamento multimodal

A cadeia de pensamento contrastiva aprimora as capacidades de raciocínio de grandes modelos de linguagem, apresentando exemplos corretos e incorretos de como resolver um problema.

A cadeia de pensamento contrastiva

A cadeia de pensamento contrastiva

Ao mostrar explicitamente ao modelo quais erros devem ser evitados, a cadeia de pensamento contrastiva demonstrou aumentar significativamente o desempenho em vários benchmarks de raciocínio. Por exemplo, no benchmark GSM8K para raciocínio aritmético, a cadeia de pensamento contrastiva demonstrou um aumento notável na precisão em comparação com a cadeia de pensamento padrão.

A cadeia de pensamento multimodal incorpora texto e visão em uma estrutura de duas etapas. Um prompt pode ser assim: “Olhe para o gráfico de vendas. Descreva suas etapas: o que você vê nos eixos X e Y? Qual é a tendência aqui? Que conclusão você pode tirar?” O modelo primeiro descreve as informações visuais e, em seguida, passo a passo, constrói uma conclusão com base nelas.

A cadeia de pensamento multimodal

A cadeia de pensamento multimodal

Na imagem acima, o modelo é solicitado a escolher qual propriedade os dois objetos têm em comum: ambos são A) macios ou B) salgados?

Outras técnicas avançadas de prompting que vale a pena mencionar:

  • Autoconsistência: em vez de uma única “cadeia de pensamentos”, o modelo gera vários caminhos de raciocínio e, em seguida, seleciona a resposta mais consistente e frequente.
  • Árvore de pensamentos: o modelo explora vários caminhos de solução possíveis (como galhos de uma árvore), avalia a promessa de cada um e se aprofunda nos mais promissores.
  • Prompting de retrocesso: o modelo primeiro formula princípios gerais ou conceitos abstratos relacionados à pergunta (“dá um passo atrás”) e, em seguida, os aplica para encontrar uma resposta precisa.

Você pode aprender mais sobre essas e outras técnicas aqui.

Técnicas avançadas de prompting

Fonte: promptingguide.ai

Lá você também encontrará links para estudos científicos sobre cada uma dessas técnicas.

Onde encontrar bons prompts

Existem muitos sites onde você pode encontrar prompts prontos, tanto pagos quanto gratuitos. Esses sites são chamados de “bibliotecas de prompts”. Aqui estão alguns deles:

  • Snack Prompt. Soluções com um clique para gerar conteúdo e prompts poderosos de várias etapas para casos de uso avançados. Cada prompt é avaliado pelos membros da comunidade.
  • Biblioteca de prompts da Anthropic. Feita sob medida para usuários e desenvolvedores do Claude.
  • God of Prompt. Uma grande biblioteca de prompts sobre tópicos como finanças, educação, produtividade, redação, etc.
  • PromptBase. Mais de 230.000 prompts prontos em texto, áudio e vídeo para GPT, Claude, Gemini, DeepSeek e outras redes neurais.
Bibliotecas de prompts

Bibliotecas de prompts

Existem também serviços como o PromptPerfect que permitem otimizar seus próprios prompts para diferentes modelos.

Assim, aplicando as técnicas e recomendações para criar prompts descritas neste artigo e usando bibliotecas de soluções prontas, você pode criar ou encontrar um prompt para resolver qualquer tarefa.

Além disso, não se esqueça de que nosso site oferece uma variedade de modelos de idiomas diferentes, portanto, pode ser útil alternar entre eles e experimentar para obter os melhores resultados.