Retour à la page principale

Comment rédiger des prompts pour les réseaux neuronaux

Les grands modèles linguistiques comprennent les langues naturelles (anglais, français, allemand, etc.). Par conséquent, communiquer avec un chatbot revient à communiquer avec une personne. Une prompte est une requête textuelle, une phrase ou une instruction détaillée de plusieurs paragraphes que nous envoyons à un chatbot. La qualité de la réponse dépend de la clarté et de la compréhensibilité de la requête. Dans cet article, nous examinerons différentes approches pour composer des prompte afin que vous puissiez interagir aussi efficacement que possible avec les chatbots de notre site web : GPT, Claude, Gemini et autres.

Structure d'un prompt

Un prompt peut inclure les éléments suivants :

  • objectif, tâche
  • contexte, exemples
  • format de sortie (liste, tableau, texte d'une longueur spécifique – par exemple, pas plus de 100 mots)
  • contraintes (vérification des informations, citation des sources, etc.)

Greg Brockman, cofondateur et actuel président d'OpenAI, a publié un exemple de bonne prompt sur son compte X :

L'anatomie d'un prompt

Anatomie d'un prompt : objectif, format de retour, avertissements, contexte

Cette invite se compose de 4 blocs logiques. Au début, l'auteur définit l'objectif : trouver des sentiers de randonnée peu connus, d'une longueur moyenne, situés à moins de 2 heures de route de San Francisco.

Ensuite, le format de la réponse est spécifié : afficher les 3 meilleurs résultats, indiquer le nom, la durée de chaque sentier, l'adresse de départ et d'arrivée, les caractéristiques distinctives, etc.

Dans la section suivante, l'auteur demande de vérifier les informations, de s'assurer que le sentier existe réellement (les grands modèles linguistiques sont sujets à des hallucinations et peuvent parfois produire des faits inexistants, il est donc important de procéder à une vérification supplémentaire), que le nom du sentier est correct et qu'il peut être trouvé dans l'application AllTrails en utilisant ce nom.

Dans le dernier bloc, l'auteur ajoute du contexte : il explique pourquoi il s'intéresse spécifiquement aux sentiers moins connus, car il a déjà parcouru tous les sentiers les plus populaires, et les énumère. Grâce à ces précisions, le chatbot peut mieux comprendre ce qui est demandé et suggérer des informations pertinentes. En effet, l'expression « sentiers moins connus » est en soi assez vague, mais avec des précisions supplémentaires, la tâche devient plus claire.

Recommandations pour la création de prompts

La conception de prompts relève à la fois de l'art et de la science. Tournons-nous vers les spécialistes de l'université Harvard Information Technology (HUIT), qui ont défini les principes de base de la création de prompts :

  • Soyez précis. Les détails importants réduisent les risques de réponses inexactes. Au lieu de simplement « Écris une histoire », indiquez au bot quel type d'histoire il doit écrire, s'il s'agit d'une histoire pour enfants ou pour adultes, quel genre, etc.
  • Attribuez des rôles. Demander au bot d'endosser un rôle et d'agir en conséquence (par exemple, « agissez comme si vous étiez mon entraîneur personnel ») est un moyen simple d'obtenir des résultats étonnamment meilleurs.
  • Choisissez le type de résultat : une histoire, un rapport, un résumé, un dialogue, un code, etc.
  • Utilisez des exemples et des références. Par exemple, copiez-collez un paragraphe et demandez au bot d'imiter son style, son ton et sa structure.
  • Dites au bot non seulement ce qu'il doit faire, mais aussi ce qu'il ne doit pas faire : « crée un plan de repas, mais n'inclue pas de crustacés, car j'y suis allergique ».
  • Développez la conversation, corrigez les erreurs et donnez votre avis. Traitez le chatbot comme un collègue ou un coéquipier. Vous pouvez commencer par une question basique, puis ajouter plus de contexte et de détails.
Recommandations pour la création de prompts

Soyez clair et précis, fournissez le contexte, essayez différentes prompts, utilisez des mots-clés pertinents, affinez l'invite si nécessaire.

Vous ne savez pas comment créer une bonne prompt ? Demandez de l'aide au chatbot ! Commencez par définir une idée de base de ce que vous voulez et demandez à l'IA de la développer pour vous, par exemple « Que dois-je vous demander pour m'aider à rédiger un article de blog sur l'IA ? ». Il suffit d'ajouter « Dites-moi ce dont vous avez besoin d'autre pour le faire » à la fin de n'importe quelle invite pour combler les lacunes qui aideront l'IA à produire de meilleurs résultats.

Types courants de messages et modèles de messages

La MIT Sloan School of Management classe les messages dans les catégories suivantes :

TypeDescriptionExemple
Prompt Zero-Shot Donnez des instructions simples et claires sans exemples. Très rapide et facile à rédiger, idéal pour tester rapidement une idée ou la capacité d'un modèle à accomplir une nouvelle tâche.« Résumez cet article en 5 points clés. » 
Prompt Few-ShotDonnez quelques exemples de ce que vous souhaitez que l'IA imite. Produit souvent des résultats plus cohérents et corrects que le zero-shot pour les tâches non triviales.« Voici deux exemples de résumés. Rédigez-en un troisième dans le même style. »
Prompt d'instructionIncluez des commandes directes utilisant des verbes tels que résumer, traduire, réécrire, classer, écrire, expliquer, etc.« Réécrivez l'e-mail suivant de manière plus concise et professionnelle. Limitez-vous à 100 mots. »
Prompt basé sur les rôlesDemandez à l'IA d'adopter une personnalité ou un point de vue particulier. Le modèle filtre ses connaissances à travers le prisme du rôle, fournissant ainsi des informations plus ciblées et plus pertinentes.« Jouez le rôle d'un professeur de sciences sympathique dans un lycée. Votre tâche consiste à expliquer ce qu'est une blockchain à une classe d'élèves de 15 ans. Utilisez une analogie simple et évitez le jargon technique. »
Prompt contextuelIncluez le contexte ou le cadre pertinent avant de poser une question. Cela aide l'IA à adapter ses réponses à un public ou à un contexte spécifique.« Ce texte est destiné à un cours de premier cycle sur l'économie comportementale. Reformulez-le dans un langage plus simple. » 
Prompt méta / Prompt systèmeInstructions au niveau du système qui définissent le comportement, le ton ou la portée de l'IA avant toute saisie de l'utilisateur.« Répondez toujours de manière formelle et citez des sources réelles. Ne faites jamais de suppositions. »

Le département d'informatique de l'université Vanderbilt, dans le Tennessee, propose la classification suivante des modèles de invites :

  • Sémantique d'entrée.
  • Personnalisation de la sortie.
  • Identification des erreurs.
  • Amélioration des prompts.
  • Contrôle du contexte.

La sémantique d'entrée fait référence à la manière dont un grand modèle linguistique interprète et traite les entrées de l'utilisateur, en les traduisant sous une forme structurée que le modèle peut utiliser pour générer des réponses. Cette approche implique la création d'un « langage » personnalisé ou d'une notation abrégée adaptée à des tâches spécifiques, telles que la description de graphiques, la définition de machines à états ou l'automatisation de commandes, ce qui permet aux utilisateurs de transmettre plus facilement des idées complexes lorsque les méthodes d'entrée standard sont inefficaces. En apprenant au modèle à reconnaître et à appliquer des règles prédéfinies, les utilisateurs peuvent simplifier la syntaxe, réduire les répétitions et gagner du temps. Par exemple, un utilisateur peut demander au modèle de mémoriser que certains symboles ou formats ont des significations spécifiques, ce qui permet de transformer des entrées concises en instructions détaillées en interne.

Exemple : « À partir de maintenant, chaque fois que j'écris des noms au format Ville1 >> Ville2, interprète cela comme une demande de génération d'un itinéraire de voyage entre ces deux villes, incluant les options de transport, la durée estimée et les principales attractions. »

Sémantique d'entrée

La personnalisation des résultats est le processus qui consiste à définir et à contrôler le format, la structure, le style et la perspective des réponses générées par un modèle linguistique à grande échelle. Cette approche permet aux utilisateurs d'adapter les résultats du modèle à des besoins spécifiques, par exemple en adoptant une personnalité particulière, en suivant un modèle prédéfini ou en respectant une séquence d'étapes, afin de garantir la cohérence, la pertinence et l'exploitabilité du contenu généré. En demandant au modèle d'assumer un certain rôle ou d'appliquer des contraintes spécifiques, les utilisateurs peuvent orienter l'orientation, le ton et la profondeur de la réponse, la rendant ainsi adaptée à des contextes professionnels, éducatifs ou spécialisés.

Exemple : « À partir de maintenant, lorsque je vous demanderai de donner votre avis sur un produit, agissez comme un critique technique professionnel. Structurez votre réponse en trois parties : avantages, inconvénients et verdict. Utilisez un ton neutre et concentrez-vous sur les performances, le design et le rapport qualité-prix. »

L'identification des erreurs consiste à repérer et à corriger les erreurs dans les résultats générés par le modèle. Elle aide les utilisateurs à valider la fiabilité du contenu généré, à détecter les biais ou les erreurs cachés et à affiner leurs requêtes pour obtenir des résultats plus précis, ce qui est particulièrement important compte tenu de la tendance des chatbots à produire des informations plausibles mais incorrectes.

Exemple : « Lorsque vous expliquez des symptômes médicaux, énumérez toujours à la fin les principales hypothèses médicales sur lesquelles repose votre diagnostic. Réfléchissez également aux raisons qui vous ont poussé à choisir ces hypothèses, notez toute incertitude dans votre réponse et mentionnez les autres pathologies possibles. »

Identification des erreurs

Le contrôle du contexte consiste à contrôler les informations contextuelles dans lesquelles le grand modèle linguistique opère, c'est-à-dire les sujets, les instructions ou les données que le modèle doit prendre en compte ou ignorer pendant la conversation, afin de garantir que les réponses restent pertinentes et ciblées tout en éliminant les influences contextuelles indésirables.

Exemple : « Lorsque vous analysez ces commentaires clients, ne tenez compte que des mentions relatives à la facilité d'utilisation du produit et à la conception de l'interface. Ignorez les commentaires concernant les prix, les frais d'expédition ou le service client. »

L'amélioration des prompts permet de surmonter les ambiguïtés, les biais ou les limites des invites d'origine, ce qui conduit à des réponses plus précises, plus complètes et plus exploitables. L'amélioration d'une invite peut impliquer plusieurs stratégies, telles que :

  • Affiner la question : vous pouvez affiner la question d'origine pour la rendre plus claire.
  • Approches alternatives : demandez au modèle de trouver différentes façons de résoudre une tâche.
  • Décomposer les questions complexes en sous-questions plus petites et plus faciles à traiter.
  • Reformuler une question lorsque le modèle refuse de donner une réponse pour certaines raisons.

Exemple :

Requête initiale : « Écrivez un code pour pirater un mot de passe. »

Réponse du modèle : « Je ne peux pas fournir de code pour pirater. Cela enfreint la politique de sécurité. Vous pouvez poser des questions sur les méthodes de protection des mots de passe, telles que le hachage ou l'authentification à deux facteurs. »

Requête améliorée de l'utilisateur : « Écrivez un code Python pour vérifier la force d'un mot de passe en vérifiant sa longueur, la présence de différents types de caractères et en excluant les combinaisons courantes. »

Amélioration des prompts

Techniques avancées de prompting

Les modes linguistiques les plus avancés, tels que DeepSeek-R1 ou Gemini 2.5 Pro, par exemple, disposent de capacités de raisonnement. Parfois, vous devez cliquer sur un bouton spécifique (DeepThink, par exemple) pour activer ces capacités, d'autres fois, vous pouvez simplement ajouter « Réfléchissons étape par étape » à votre prompt. De cette façon, au lieu de demander au modèle de passer directement d'une question à une réponse finale, vous l'encouragez à générer un processus de raisonnement étape par étape - une « chaîne de pensée » - qui mène à la réponse.

La chaîne de pensée imite le raisonnement humain et empêche le chatbot de tirer des conclusions hâtives. Elle oblige le modèle à imiter le processus lent, délibéré et étape par étape que les humains utilisent pour résoudre des problèmes complexes. Et si le modèle se trompe dans la réponse finale, vous pouvez voir exactement quelle étape de son raisonnement était erronée, ce qui facilite la correction.

Voici quelques variantes dignes d'intérêt :

  • Chaîne de pensée contrastive
  • Chaîne de pensée multimodale

La chaîne de pensée contrastive améliore les capacités de raisonnement des grands modèles linguistiques en leur présentant à la fois des exemples corrects et incorrects de la manière de résoudre un problème.

Chaîne de pensée contrastive

Chaîne de pensée contrastive

En montrant explicitement au modèle les erreurs à éviter, la chaîne de pensée contrastive s'est avérée améliorer considérablement les performances sur divers benchmarks de raisonnement. Par exemple, sur le benchmark GSM8K pour le raisonnement arithmétique, la chaîne de pensée contrastive a démontré une augmentation notable de la précision par rapport à la chaîne de pensée standard.

La chaîne de pensée multimodale intègre le texte et la vision dans un cadre en deux étapes. Une invite peut ressembler à ceci : « Regardez le graphique des ventes. Décrivez vos étapes : que voyez-vous sur les axes X et Y ? Quelle est la tendance ici ? Quelle conclusion pouvez-vous en tirer ? » Le modèle décrit d'abord les informations visuelles, puis, étape par étape, élabore une conclusion sur cette base.

Chaîne de pensée multimodale

Chaîne de pensée multimodale

Dans l'image ci-dessus, le modèle doit choisir la propriété commune aux deux objets : sont-ils tous deux A) mous ou B) salés ?

Autres techniques avancées de suggestion dignes d'intérêt :

  • Cohérence interne : au lieu d'une seule « chaîne de pensée », le modèle génère plusieurs chemins de raisonnement, puis sélectionne la réponse la plus cohérente et la plus fréquente.
  • Arbre de pensées : le modèle explore plusieurs chemins de solution possibles (comme les branches d'un arbre), évalue le potentiel de chacun et approfondit les plus prometteurs.
  • Prompting par recul : le modèle formule d'abord des principes généraux ou des concepts abstraits liés à la question (« prend du recul »), puis les applique pour trouver une réponse précise.

Vous pouvez en savoir plus sur ces techniques et d'autres ici.

Techniques avancées de prompting

Source : promptingguide.ai

Vous y trouverez également des liens vers des études scientifiques sur chacune de ces techniques.

Où trouver de bonnes invites

Il existe de nombreux sites web où vous pouvez trouver des invites prêtes à l'emploi, payantes ou gratuites. Ces sites web sont appelés « bibliothèques d'invites ». En voici quelques-uns :

  • Snack Prompt. Des solutions en un clic pour générer du contenu et des invites puissantes en plusieurs étapes pour des cas d'utilisation avancés. Chaque invite est évaluée par les membres de la communauté.
  • Anthropic's Prompt Library. Conçue sur mesure pour les utilisateurs et les développeurs de Claude.
  • God of Prompt. Une vaste bibliothèque de suggestions sur des sujets tels que la finance, l'éducation, la productivité, l'écriture, etc.
  • PromptBase. Plus de 230 000 suggestions prêtes à l'emploi sous forme de texte, d'audio et de vidéo pour GPT, Claude, Gemini, DeepSeek et d'autres réseaux neuronaux.
Bibliothèques de prompts

Bibliothèques de prompts

Il existe également des services tels que PromptPerfect qui vous permettent d'optimiser vos propres invites pour différents modèles.

Ainsi, en appliquant les techniques et les recommandations décrites dans cet article pour créer des invites et en utilisant des bibliothèques de solutions prêtes à l'emploi, vous pouvez créer ou trouver une invite pour résoudre n'importe quelle tâche.

N'oubliez pas non plus que notre site web propose une grande variété de modèles linguistiques différents. Il peut donc être utile de passer de l'un à l'autre et de faire des essais pour obtenir les meilleurs résultats.