ChatGPT, Claude, Gemini. Tout le monde s'en sert, peu de monde s'en sert vraiment bien. Le résultat est là : des réponses moyennes, des allers-retours, des hallucinations qui passent inaperçues. Pourtant, ce ne sont pas les modèles qui changent les performances de vos prompts. C'est la manière de les écrire.
Ce guide donne deux niveaux de savoir-faire. La méthode TERE pour poser des bases solides, et 4 techniques utilisées en interne par les ingénieurs qui conçoivent ces modèles. À la fin, vous saurez exactement comment bien prompter ChatGPT pour obtenir ce que vous attendez, dès le premier essai.
Pour les bases du prompting et un panorama plus large des bons réflexes, vous pouvez aussi lire notre guide 4 astuces pour devenir un expert en prompt engineering sur ChatGPT.
Pourquoi vos prompts ne donnent-ils pas ce que vous attendez ?
Un LLM prédit, il ne cherche pas
Un LLM, c'est un programme qui complète une suite de mots en fonction du contexte. Il a été entraîné sur une grande partie d'internet. Quand vous lui posez une question, il ne consulte pas une base de connaissances : il prédit le texte le plus probable à la suite de votre message.
Conséquence directe : si vous demandez le chiffre d'affaires d'une entreprise sans préciser l'année, le modèle va répondre quand même. Il complète. La réponse peut être incomplète, datée, ou tout simplement fausse.
Le piège de la réponse "qui sonne bien"
Un LLM répond toujours. Il ne dit presque jamais "je ne sais pas" tout seul. C'est à vous de fixer le cadre, sinon il devine. Et quand il devine, il a l'air sûr de lui.
Cette mécanique a un nom : l'hallucination. Selon les recherches publiées par Anthropic sur le prompt engineering, certaines techniques de prompt réduisent ce phénomène de manière significative. Autrement dit : la qualité de vos prompts pèse plus lourd que le choix du modèle.
Comment structurer un prompt avec la méthode TERE ?
Plus vous attendez une réponse précise, plus le contexte compte. Pour ne rien oublier, on utilise un acronyme simple : TERE. Tâche, Exemple, Rôle, Évaluation.
Tâche : décrire précisément l'output
Vous voulez un PESTEL en PDF, avec 2 cm de marge à droite et 3 concepts par case ? Précisez-le. Le modèle ne devine pas le format, ni la longueur, ni la profondeur attendue. Plus la tâche est ambiguë, plus le résultat sera générique.
Mauvaise tâche : "Fais-moi un benchmark concurrentiel."
Bonne tâche : "Liste 5 concurrents directs en France, sous forme de tableau Markdown, avec colonnes Nom, Positionnement, Pricing et Force principale en une phrase."
Exemple : montrer plutôt qu'expliquer
Vous attendez un style précis ? Donnez-en un exemple. Et précisez ce que vous appréciez dedans. Un seul exemple bien commenté vaut mieux que trois pages d'explication.
Précisez ce qui marche dans l'exemple : le ton, la structure, le vocabulaire, la longueur. Le modèle alignera sa réponse sur ces critères.
Rôle : positionner l'IA
Donner un rôle, c'est donner un point de vue. "Réponds en tant qu'expert marketing français avec 20 ans d'expérience dans la grande distribution" oriente la réponse, le vocabulaire, les références implicites.
Quelques rôles utiles selon vos cas :
- "Tu es un avocat spécialisé droit du travail français."
- "Tu es un data analyst senior, méthode rigoureuse, biais de confirmation chassés."
- "Tu es un copywriter B2B SaaS, ton direct, zéro buzzword."
Évaluation : poser le barème dès le départ
Vous allez juger la réponse selon un barème ? Partagez-le explicitement. Le modèle se cale dessus.
Exemple : "Je vais noter ta réponse sur 4 critères : clarté (1-5), exhaustivité (1-5), originalité (1-5), faisabilité (1-5). Vise 4/5 minimum partout."
C'est inattendu, mais ça change tout. L'IA s'auto-aligne sur les critères que vous donnez.
Cocher tous les points TERE n'est pas toujours possible. Mais plus vous en cochez, plus le résultat est utilisable du premier coup.
Quelles techniques avancées utilisent les ingénieurs prompt ?
La méthode TERE pose les bases. Les ingénieurs qui travaillent quotidiennement avec ces modèles ajoutent des couches supplémentaires. Voici les 4 plus efficaces.
1. Le prompting constitutionnel : pourquoi dire ce qu'il NE faut PAS faire ?
Plutôt que de dire à l'IA quoi faire, dites-lui ce qu'elle ne doit pas faire. Les contraintes négatives sont plus claires et laissent moins de place à l'interprétation.
Comparez :
- Mauvais : "Écris de manière professionnelle."
- Bon : "N'utilise jamais de jargon. N'écris jamais de phrase de plus de 20 mots. Ne présuppose jamais de connaissances techniques."
Selon la documentation Anthropic sur le prompt engineering, cette approche réduit fortement les sorties hors-cadre. La raison est mécanique : "professionnel" est flou, "jamais plus de 20 mots" est vérifiable.
Exemple de bloc de règles à coller en début de prompt :
Tu écris pour un lecteur intelligent mais pressé.
Règles non négociables (à ne JAMAIS violer) :
- N'utilise jamais de jargon ni de buzzwords.
- N'écris jamais une phrase de plus de 20 mots.
- Ne présuppose jamais de connaissances techniques.
- N'exagère jamais, ne spécule pas, n'invente pas de faits.
- Si une information est incertaine, dis explicitement "je ne suis pas sûr".
Ce bloc fonctionne aussi bien pour ChatGPT, Claude que Gemini.
2. Qu'est-ce que le Chain-of-Thought et comment l'utiliser ?
La technique vient du papier Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (Wei et al., Google Brain, 2022) qui a fondé tout le champ du prompt engineering moderne. L'idée : ne demandez pas une réponse, demandez d'abord un raisonnement.
Ajoutez cette ligne à vos prompts complexes :
"Avant de répondre, écris ton raisonnement étape par étape dans des balises <thinking>."Le modèle pose ses hypothèses, déroule sa logique, vérifie ses étapes. Les erreurs sont interceptées avant la réponse finale.
Exemple de raisonnement généré par un LLM correctement guidé :
<work_log>
• Hypothèses :
- L'app cible des professionnels, pas des étudiants.
- La page pricing doit être claire, pas hypée.
- Les lecteurs veulent de la valeur rapide, pas des fonctionnalités.
• Approche :
- Ouvrir avec la cible.
- Énoncer trois bénéfices clairs en langage simple.
- Ajouter une ligne "comment ça marche".
- Clore avec une invitation sans pression.
</work_log>
Vous pouvez relire le raisonnement avant la réponse. Si la logique est mauvaise, vous corrigez le prompt sans avoir lu 1 500 mots.
3. Comment muscler un Few-Shot avec du raisonnement intégré ?
La plupart des utilisateurs font du few-shot incomplet. Ils montrent : input → output. Les ingénieurs prompt montrent : input → raisonnement → output.
Le modèle ne comprend pas seulement le format attendu, il comprend la logique qui mène au format. Résultat : il généralise mieux à de nouveaux cas.
Schéma à utiliser :
INPUT : [tâche]
REASONING : [pourquoi cette approche]
OUTPUT : [résultat]
En pratique :
INPUT : Écris un post LinkedIn qui dénonce les agents IA bidons.
REASONING (bref) :
• Nommer la cause cachée
• Déplacer la responsabilité des outils vers les équipes
• Terminer par un recadrage percutant
OUTPUT :
"La plupart des équipes n'échouent pas avec les agents IA parce que la
techno est mauvaise. Elles échouent parce qu'elles ont sauté le travail
ennuyeux. Pas d'objectifs clairs. Pas de données propres. Pas de
responsable. L'IA ne corrige pas le chaos. Elle l'amplifie."
Donnez deux ou trois exemples de ce type, le modèle reproduira la mécanique sur vos cas réels. Pour aller plus loin sur les patterns avancés, le site de référence promptingguide.ai recense l'ensemble des techniques évaluées dans la littérature.
4. Pourquoi faire vérifier l'IA par elle-même ?
Dernière couche, et la plus rentable. Demandez au modèle de relire sa propre réponse avant de vous la livrer.
Bloc à coller en fin de prompt :
Après avoir généré ta réponse :
1. Vérifie qu'elle traite bien tous les points demandés.
2. Vérifie qu'il n'y a aucune contradiction.
3. Confirme que le format correspond aux exigences.
4. Si l'un de ces checks échoue, révise et re-vérifie.
C'est exactement ce mécanisme qui permet aux systèmes IA en production d'atteindre des niveaux de fiabilité élevés sur des tâches répétables. Les agents IA sérieux ne livrent jamais une sortie sans étape de validation, qu'elle soit faite par le modèle lui-même ou par un autre modèle de contrôle.
Sur des tâches courtes, l'impact est marginal. Sur des tâches longues (rédaction, extraction de données, analyse), c'est le facteur n°1 de fiabilité.
Par où commencer dès votre prochain prompt ?
Toutes ces techniques sont utiles. Mais commencer par les appliquer toutes en même temps est le meilleur moyen de ne rien faire. Trois réflexes suffisent à transformer la qualité de vos résultats dès demain matin.
- Ajoutez un rôle. Une ligne en haut du prompt. "Tu es [profil précis], avec [spécialité] et [point de vue]."
- Précisez ce que vous ne voulez pas. 3 à 5 contraintes négatives, claires et vérifiables.
- Demandez une auto-vérification. "Relis ta réponse, corrige si elle ne respecte pas les contraintes ci-dessus."
Trois lignes en plus, zéro coût, gain immédiat. Ce trio est la base que les équipes Hyperstack appliquent dans tous leurs prompts internes, avant même d'envisager des techniques plus poussées.
Comment industrialiser vos prompts à l'échelle de l'équipe ?
Bien prompter pour soi, c'est utile. Bien prompter pour 30 personnes, c'est un vrai sujet d'organisation.
Du prompt isolé au système : pourquoi cela bloque la plupart des équipes ?
Tant que vous promptez seul, vos progrès restent personnels. Dès que plusieurs collaborateurs utilisent ChatGPT ou Claude au quotidien, trois symptômes apparaissent :
- Chaque personne réinvente ses prompts dans son coin.
- La qualité varie d'un collaborateur à l'autre, sur la même tâche.
- Personne ne capitalise. Les bons prompts restent enfermés dans un thread.
C'est exactement à ce stade que les techniques vues plus haut (TERE, contraintes négatives, validation) deviennent un actif d'entreprise. Une bibliothèque de prompts validés vaut mieux qu'un manuel de 80 pages.
Quels sont les deux chemins concrets pour passer à l'échelle ?
Pour avancer vite, deux options complémentaires existent.
D'abord, former les équipes. Une journée bien construite suffit à généraliser les bons réflexes (TERE, contraintes négatives, boucles de validation), à construire une bibliothèque commune et à fixer un standard interne. C'est exactement ce que propose la formation IA Hyperstack, calée sur le métier réel des participants.
Ensuite, industrialiser via des agents IA sur mesure. Quand un prompt est utilisé 10 fois par jour par 5 personnes, il a sa place dans un agent IA dédié, branché à vos outils (Notion, Slack, CRM, ERP, base Airtable). L'agent applique le bon prompt, valide la sortie, et délivre le résultat sans intervention manuelle. C'est le cœur de l'activité d'Hyperstack en tant qu'agence IA : passer des techniques de prompt à des systèmes de production fiables, sur Make, n8n, Claude et OpenAI. Pour les équipes qui veulent brancher Claude directement dans leurs automatisations, voir notre guide Claude avec n8n.
Sur 120+ projets livrés à 60+ clients, on retrouve toujours les mêmes mécanismes : un cadre de prompt clair, une validation explicite, une bibliothèque partagée. Les deux options se combinent souvent : formation d'abord pour aligner les équipes, puis agents IA sur les cas d'usage à fort volume.
FAQ
Pour aller plus loin
Un LLM ne devine pas vos attentes. Il complète ce que vous lui donnez.
Si votre objectif est d'aligner toute votre équipe sur les bons réflexes, la formation IA Hyperstack est conçue pour ça : une journée concrète, sur vos cas d'usage, avec une bibliothèque de prompts à la sortie. Si votre objectif est d'industrialiser des cas d'usage à fort volume, l'agence IA Hyperstack conçoit des agents IA sur mesure (Claude, GPT, Mistral, Make, n8n) qui appliquent ces techniques en production, dans vos outils existants.
Dans les deux cas, c'est la même bascule : passer du prompt qu'on essaie deux fois pour qu'il marche, au prompt fiable, mesurable, partageable.
Pour creuser le sujet sur le blog Hyperstack :
- ChatGPT : 4 astuces pour devenir un expert en prompt engineering
- Agent IA : qu'est-ce que c'est et comment ça fonctionne ?
- Agent IA vs Chatbot : le guide pour tout comprendre
- Comment choisir une agence IA en 2026 : guide pour décideurs
- Comment utiliser Claude avec n8n : guide complet d'automatisation IA
- Top 7 des meilleurs agents IA pour commerciaux







.jpg)