ChatGPT : 4 astuces pour devenir un expert en prompt engineering

Depuis l’essor des modèles de langage comme ChatGPT (OpenAI) , une nouvelle compétence a émergé : le Prompt Engineering. Loin d’être un simple buzzword, ce terme désigne l’art de formuler des instructions textuelles de manière à tirer le meilleur parti d’un LLM (Large Language Model).

Un bon prompt ne se contente donc pas d’être “clair” : il structure l’intention, explicite les attentes, encadre les réponses possibles, et parfois même anticipe les dérives. En pratique, cela nécessite un effort cognitif que peu d’utilisateurs font spontanément — mais qui change radicalement la qualité des réponses générées.

🪄 Les limites d’un prompt

Ce que peut faire un LLM : compléter une suite de mots

ChatGPT, comme tous les LLM (Large Language Models), n’est qu’un programme informatique. On lit parfois dans la presse qu’il aurait des sentiments ou une conscience, mais cela en dit souvent plus sur la qualité du journal que sur ChatGPT lui-même. En réalité, un LLM est conçu pour compléter une suite de lettres ou de mots, de manière probabiliste, en se basant uniquement sur ce qu’il a vu pendant son entraînement.

C’est une définition certes réductrice, compte tenu de l’impact de ces modèles, mais c’est bien ainsi qu’ils fonctionnent. Et pourtant, ils produisent des résultats parfois spectaculaires, car ils sont entraînés sur une masse gigantesque de contenus disponibles sur Internet : livres, blogs, code, conversations, sites web... Ils ont tout absorbé.

Mais cela ne les rend pas omniscients pour autant. Ce qu’ils savent faire, c’est prédire la suite la plus probable d’une phrase, et rien de plus.

Ce qu’un LLM ne peut pas faire

Il y a deux limites fondamentales que vous ne pourrez pas contourner, même avec le meilleur prompt du monde :

1 – Les textes très longs

Admettons que vous lui fournissez un texte de 100 pages à traduire. Même avec un prompt parfaitement rédigé, le modèle sera incapable de le traiter en une seule fois, car le texte dépasse la capacité maximale d’entrée (input tokens).

✅ Solution
: Divisez le texte en plusieurs morceaux plus courts. Le modèle pourra alors les traiter sans difficulté — et de manière bien plus fiable.

2 – Le vrai problème

Par défaut, ChatGPT est conçu pour toujours fournir une réponse. Donc, même s’il ne sait pas faire, il le fera quand même — parfois avec une grande confiance apparente. Cela peut donner l’illusion d’une réponse fiable… alors qu’elle est erronée.

✅ Solution
: Apprenez à questionner ses réponses, à analyser ses choix, et à identifier les limites de son raisonnement. Ce n’est pas un moteur de vérité, mais un outil de génération linguistique.

🪄 L’art du bon prompt : parler clairement à une machine

On vient de voir que ChatGPT, comme tous les LLM, ne fait que compléter une suite de mots. Mais dans ce cas, une question se pose : comment lui parler pour obtenir ce que l’on veut vraiment ?
La réponse tient en un mot : le contexte.

Plus vous attendez une réponse précise, plus le contexte est important. Et pour cela, pensez à cocher tous les points de la méthode TERE :

  • Tâche : Vous souhaitez qu’il vous génère un PESTEL en PDF avec 2 cm de marge à droite et 3 concepts par case ? → Il ne peut pas le deviner tout seul.
  • Exemple : Vous attendez des idées proches d’un style précis ? → Donnez-lui des exemples concrets, en précisant ce que vous appréciez dans chacun.
  • Rôle : Vous attendez la réponse d’un expert en marketing français ayant 20 ans d’expérience dans la grande distribution ? → Indiquez-le dès le premier prompt.
  • Évaluation : Vous allez juger sa réponse selon un barème de notation ? → Partagez-le lui explicitement.

Bien sûr, il est difficile de cocher tous les points à chaque prompt (par exemple, fournir des exemples de code peut être fastidieux). Mais plus vous en cochez, plus votre prompt gagne en efficacité.

🪄 L’expertise absolue: le métaprompting

prompt-chatgpt-hyperstack

La méthode TERE est déjà très efficace pour commencer à obtenir des résultats précis, mais elle présente une limite évidente : elle ne permet pas l’amélioration continue.

Pour progresser chaque jour, chaque fois que vous jugez un résultat insatisfaisant, il suffit d’utiliser le méta prompting : l’art de demander au LLM de devenir co-auteur de vos prompts. Qui de mieux que ChatGPT pour comprendre ChatGPT ?Ainsi, lorsque vous avez rédigé un prompt avec la méthode TERE et que vous souhaitez l’améliorer, vous pouvez lui soumettre ce prompt en lui disant :

« Tu es un expert du prompt engineering. Analyse ce prompt et propose une version plus claire, plus précise et plus robuste. Si tu as besoin de plus d’informations pour avoir du contexte, tu peux me les demander avant de répondre. »

Cette méthode fonctionne également lorsque le prompt ne donne pas les résultats escomptés : il est tout à fait possible de demander à ChatGPT ce qui n’allait pas dans votre formulation, puis de lui proposer de générer de nouvelles idées ou alternatives, même avec un modèle comme ChatGPT 3.5.
Ça peut paraître anodin, mais rien qu’en faisant cela pendant deux semaines, vous en apprendrez plus sur son fonctionnement qu’avec n’importe quelle formation “LLM expert” à 200 €.

🪄 L’astuce des experts : penser sur sa pensée

Utiliser un LLM ne consiste pas simplement à “poser une bonne question” ou “trouver la bonne formule”. Ce qui distingue un utilisateur expert, c’est sa capacité à prendre du recul sur ce qu’il formule, à comprendre que chaque mot influence la trajectoire de la réponse, et surtout que le LLM va souvent là où on l’envoie — même inconsciemment.

En particulier, vous ne savez pas ce que vous ne savez pas… mais vous pouvez le demander à ChatGPT. Par défaut, si vous lui demandez une solution à un problème, il vous répondra une solution à un problème.

Mais si vous lui demandez de présenter 5 solutions différentes, avec leurs avantages et inconvénients, en précisant que le problème identifié n’est peut-être pas le bon et qu’il faudrait probablement commencer par reformuler la problématique, alors les résultats fournis par ChatGPT peuvent vous apporter énormément de valeur.

Pourquoi ? Parce qu’ils permettent d’explorer très rapidement de nombreux chemins différents, de comparer, de recadrer — et donc de mieux penser votre problème avant même d’en chercher la solution.
Ce que permet de faire un LLM, c’est de comprendre rapidement les branches d’un domaine et d’avoir la pensée la plus éclairée possible sur tous les besoins possibles.

FAQ

Quel est le meilleur LLM ?

Cela dépend fortement de la tâche que vous lui confiez, et le classement peut évoluer très rapidement. Pour le codage, parmi les plus performants au 19 juin 2025, on retrouve Claude Sonnet 4 ou Claude Opus 4 d’Anthropic, très efficaces en génération de code et en raisonnement complexe.
Mais honnêtement, un bon prompt sera bien plus déterminant que le fait de changer de modèle d’IA toutes les deux semaines.

Quelle est la bonne longueur d’un prompt ?

La vraie limite d’un bon prompt n’est pas une question de nombre de mots ou de tokens, mais de pertinence et d’utilité. Un bon prompt, c’est celui dont on ne peut rien retirer sans perdre en clarté ou en précision. Il doit contenir juste assez d’informations pour que le modèle réponde efficacement à la tâche demandée.
Certes, certains modèles de LLM imposent des contraintes techniques (nombre maximal de caractères ou de tokens), mais dans la grande majorité des cas, ce n’est pas ce plafond qui détermine la qualité du résultat.

Ce qui compte réellement, c’est la capacité à évaluer la qualité du prompt au regard de l’objectif :

  • Le prompt est-il compréhensible sans ambiguïté ?
  • A-t-il un objectif clair et spécifique ?
  • Fournit-il suffisamment de contexte sans surcharge inutile ?
  • Permet-il d’obtenir une réponse directement exploitable ?

En résumé : un bon prompt n’est ni long, ni court par nature. Il est nécessairement adapté à la tâche, et se construit dans une logique d’itération et d’évaluation, bien plus que dans une quête de densité.

C’est pas long de faire un bon prompt  ?

La réponse idéale, c’est… ça dépend des cas : si vous voulez simplement avoir une conversation rapide — par exemple pour savoir quand est né Victor Hugo — il est évident que passer 5 minutes à préparer un bon prompt en meta prompting serait disproportionné.

En revanche
, si vous prévoyez une conversation d’une heure pour comprendre un domaine que vous ne connaissez pas, et dont les enjeux pourraient impacter des décisions stratégiques, alors prendre 5 minutes pour cadrer vos intentions et poser les limites de votre pensée peut vous éviter d’en perdre 20 à essayer de rattraper la conversation plus tard — parce que vous réalisez que vous ignoriez une information cruciale, et qu’il faut tout recommencer.

Rappelez-vous : vous ne savez pas ce que vous ne savez pas.

Conclusion

À première vue, interagir avec un LLM peut sembler simple : on tape une question, on lit une réponse. Mais derrière cette interface fluide se cache un mécanisme complexe — et une opportunité rare : celle de mettre à l’épreuve sa pensée, ses hypothèses et sa manière de formuler les problèmes.

Ce que cet article montre, c’est qu’il ne suffit pas de poser une question ; il faut apprendre à la poser avec lucidité, précision et ouverture. Car un LLM ne fait que prolonger votre formulation. Il ne vous corrige pas. Il ne devine pas vos intentions cachées. Il reflète ce que vous lui donnez — parfois, au mot près.

Maîtriser l’usage d’un modèle comme ChatGPT, ce n’est donc pas devenir expert en intelligence artificielle. C’est devenir meilleur dans l’art de formuler, d’explorer et de douter intelligemment.

Et comme tout art, cela ne s’apprend pas seulement en lisant, mais surtout en pratiquant.