top of page

L’art de bien penser avec l’IA – Petite philosophie pratique du prompt engineering.

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • 22 avr.
  • 49 min de lecture

Dernière mise à jour : 22 avr.

Avec le développement des IA génératives et le lancement de GPT-3 en 2020, puis surtout ChatGPT fin 2022, est apparue une nouvelle manière d'interagir avec des systèmes d'information et des terminaux informatiques : le "prompting". Pour la première fois de toute l'histoire de l'humanité, il est désormais possible de converser de façon fluide avec une machine, de la solliciter en langage naturel à peu près sur tous les sujets, ou encore de lui demander de générer des textes de façon quasi instantanée d'une qualité le plus souvent supérieure à ce que la grande majorité d'entre nous est capable de produire. On ne soulignera en effet peut-être jamais assez en quoi les Large Language Models (LLM) sont aussi et avant tout une révolution des interfaces, en même temps que d'être une révolution dans la façon dont nous avons de générer des contenus.

 

Dans ce cadre, le prompt est un peu au modèle de langue ce que la requête est au moteur de recherche, à la différence près qu'il va jusqu'à changer radicalement la façon même dont nous avions pris l'habitude de rechercher de l'information depuis les débuts du web, voire même, avec la démocratisation des agents IA, la manière dont une personne interagit ordinairement avec des applications logicielles. Ces derniers tirent en effet pleinement parti des avancées récentes réalisées dans le domaine de l'IA générative, dont elles étendent en quelque sorte les usages, puisqu'il ne s'agit plus seulement de générer des contenus, mais de réaliser des tâches de façon autonome et pour le compte d'un individu ou d'une organisation.

 

Ainsi, jamais une interface homme-machine n'a paru aussi transparente. Il nous suffit désormais de parler pour commander à des applications logicielles d'agir pour nous. Mais cette illusion de transparence est en même temps une illusion de maîtrise. A-t-on en effet besoin d'apprendre à parler à un ordinateur, alors que ces mêmes ordinateurs se sont convertis à ce qui paraît le plus naturel en nous, à savoir, converser ? C'est un peu comme si le rapport de force s'était soudainement inversé. Alors que nous devions, de par le passé, assimiler les modes opératoires de logiciels toujours plus nombreux, et ajuster nos pratiques de travail par rapport à eux, voilà que c'est l'inverse qui se produit. Si bien que nous avons l'impression qu'il suffit de taper ou de dire de façon quasi intuitive quelques mots à la machine pour obtenir tout ce que nous désirons. Or ce qui se cache derrière cette illusion de maîtrise, est en réalité un déplacement vers des compétences d’un autre type, plutôt que la fin de compétences héritées des anciennes interfaces.

 

La question n'est pas en effet de savoir comment utiliser ces outils, mais plutôt, comment bien les utiliser, de telle sorte que nous obtenions d'eux le meilleur de ce qu'ils sont capables de produire, mais aussi et surtout, d'être en capacité de juger de façon critique ce qu'ils produisent et ce que nous sommes amenés à diffuser à plus ou moins grande échelle. Pour être à la fois plus efficace, mais également lucide et responsable. Car ce qui est en jeu, n'est pas seulement notre employabilité et notre adaptation aux nouvelles conditions de travail, mais aussi et surtout, notre autonomie et notre capacité à continuer à penser par nous-mêmes, contre la tentation, par paresse, facilité ou abdication, de tout déléguer à la machine.

 

LLM, IA générative et NLP. – En première approximation, un LLM, ou Large Language Model, est un type d'intelligence artificielle, relevant de l'IA générative, dont la fonction principale est d'aider des personnes à produire — à générer — de façon automatique des contenus textuels en réponse à une instruction nommée « prompt », laquelle est, contrairement aux requêtes saisies dans un moteur de recherche classique sous la forme de mots-clés, formulée en langage naturel. S’ils appartiennent à la grande famille des IA dites "génératives", ils n’en constituent qu’un sous-ensemble principalement dédiés à la génération de texte et à la compréhension du langage naturel, mais aussi à ces autres types de langages formels et artificiels que sont les langages de programmation, comme le Python, le Java ou le Javascript. Il existe ainsi, au côté des LLM, une autre catégorie de modèles génératifs spécialisés dans la compréhension et la génération d’autres types de données, comme des images, des vidéos, des sons ou de la musique.

 

Ces modèles d'IA générative que sont les LLMs, qu’on ne confondra plus désormais avec d’autres types de modèles d’IA génératives pour les images, les sons ou les vidéos, ont été entraînés à partir d'immenses quantités de textes et de contenus (dataset d’entraînement), issus majoritairement du Web, mais également, lorsque nécessaire, de données dites "synthétiques", générées artificiellement par des algorithmes. C'est précisément durant cette phase d'entraînement qu’ils vont, en quelque sorte, construire une représentation mathématique de la langue, et pouvoir prendre en charge, en retour, tout un ensemble de tâches généralement regroupées sous le terme plus générique de Traitement Automatique du Langage Naturel – Natural Language Processing ou NLP en anglais –, comme comprendre un texte, en proposer un résumé ou une explication détaillée, effectuer des traductions, générer des contenus inédits, ou encore, répondre à des questions sur à peu près tous les domaines de la connaissance humaine. Ils ont très rapidement évolué vers des systèmes multimodaux capables de traiter et de combiner plusieurs types de données qui permettent d’enrichir les interactions, mais aussi et surtout, d’étendre leurs possibilités à des cas d’usages toujours plus variés dans les domaines de la santé, de l’éducation, du divertissement, de la création artistique, de la gestion, du service client, ou encore, de la logistique.

 

À mesure que le nombre de paramètres augmente — c’est à dire le nombre de valeurs numériques ou poids qui permettent d'encoder les aspects syntaxiques et sémantiques de la langue —, ces modèles développent des capacités émergentes toujours plus spectaculaires: résolution de problèmes mathématiques complexes, analyse comparative et thématique de corpus de textes toujours plus volumineux grâce à des fenêtre de contexte étendues (quantité de textes que le modèle peut prendre en compte simultanément pour générer des réponses), voire l’émergence de capacités statistiques de métacognition. Celles-ci leur permettent une forme d’autocritique sur la pertinence des contenus qu’ils génèrent, ainsi que la mise en oeuvre de processus d’itération visant à améliorer ses résultats. Ce qui soulève la question centrale du niveau de compréhension réelle des modèles de langage.


Bien que ce point fasse l'objet d'un débat scientifique et philosophique de plus en plus vif parmi les spécialistes, une position longtemps répandue, aujourd’hui contestée, consiste à considérer qu'un modèle linguistique ne possède aucune compréhension sémantique des symboles qu'il manipule au sens où un être humain comprendrait la signification des mots. Autrement dit, ce dernier utilise principalement des techniques statistiques et probabilistes dans le but de déterminer la probabilité d'une séquence de mots dans une phrase. Bref, un LLM n’a en permanence qu'un seul véritable objectif : deviner le ou les prochains mots d'un texte de façon à ce que ce dernier soit le plus crédible possible du point de vue de sa construction syntaxique et sémantique.

 

Ainsi, si nous saisissons la phrase : "Lorsque le chat n'est pas là, les souris… ", les LLM vont simplement attribuer à chaque mot du lexique appris durant leur phase d'entraînement une probabilité statistique d'apparition dans le contexte donné, et sélectionner, par exemple, le mot "dansent" comme le plus approprié dans la séquence proposée. Mais ce que le modèle calcule en réalité, en arrière-plan, c'est la probabilité de millions de résultats possibles. Dans le cas présent, le modèle propose le verbe "dansent" parce que la probabilité associée à ce mot est plus élevée que celle des autres mots candidats. C'est précisément pour cette capacité à combiner de façon quasi infinie des termes entre eux selon un ordre syntaxiquement et grammaticalement cohérent, que les modèles de langage excellent dans des tâches, comme simuler une conversation ; effectuer des raisonnements ou des déductions logiques ; corriger, résumer ou analyser des textes ; expliquer un sujet et répondre à des questions, mais toujours, dans certaines limites.

 

Il arrive en effet que le modèle propose une suite de mots syntaxiquement mal formée ou sémantiquement incohérente, voire même des réponses complètement fausses, tout en donnant l'illusion de maîtriser parfaitement son sujet. Ce que l'on appelle, depuis le déploiement de ChatGPT fin 2022, d’un terme emprunté au lexique de la psychiatrie, des "hallucinations". Il ne s'agit en aucun cas d'un simple bug informatique, mais d'une propriété intrinsèque au fonctionnement du système. Le modèle ne disposant pas d'une mémoire factuelle structurée et vérifiable, il génère des séquences de mots statistiquement probables plutôt que des faits confirmés, ce qui peut produire des affirmations fausses formulées avec une apparente assurance. Si les modèles les plus récents ont considérablement réduit ce phénomène – grâce notamment à l'intégration de modules de navigation web et de systèmes RAG –, les hallucinations demeurent une réalité structurelle qu’un utilisateur averti doit prendre en compte en toute conscience suivant l’usage qu’il en fait, le contexte et la manière dont il a de les solliciter.

 

Cette capacité de traitement et de génération repose sur une rupture architecturale décisive, dont l'acte fondateur est un article publié en 2017 par des chercheurs de Google, intitulé Attention Is All You Need. En introduisant les Transformers, une architecture de réseau de neurones alors radicalement nouvelle, cet article a fourni aux LLM leur infrastructure cognitive essentielle : la capacité de capturer mathématiquement le sens des mots et des phrases en se focalisant sur les éléments pertinents d'un contexte, et en tenant compte de la position de chaque mot dans des séquences de plus en plus longues. C'est cette architecture qui a ouvert la voie à la révolution des modèles de langage, et au-delà, à l'intelligence artificielle générative, grâce à la capacité de ces systèmes à produire en masse des contenus d'une qualité jusqu'alors inégalée. Le "T" de l'acronyme GPT fait précisément référence à cette architecture.

 

Les expressions prompt et prompt engineering. – Le mot « prompt » est issu du latin promptus : "prêt", "préparé", tandis que le verbe latin promere signifie "faire sortir", ou encore, "produire". C'est à partir du mot latin qu'ont été formés les termes anglais de prompt, à la fois utilisé en tant que nom — "incitation", "invite", "sollicitation" —, mais aussi en tant que verbe — "inciter", "encourager" — comme dans la phrase : "A mother must prompt her children to tell the truth" (Une mère doit encourager son enfant à dire la vérité). En informatique, le prompt désignait, dans les années 1960-1970, la ligne de texte affichée par un système d'exploitation à interface textuelle, pour inviter un utilisateur à entrer une commande, comme supprimer un fichier ou créer un nouveau dossier, à l'époque où les interfaces graphiques n'étaient pas encore répandues. L’informatique était alors réservée à des spécialistes – ou "nerds" comme on disait alors –, qui devaient maitriser un langage formel sibyllin pour pouvoir activer des fonctionnalités pourtant rudimentaires. Et c’est précisément contre cette usage élitiste, et dans un souci de démocratiser l’usage des micro-ordinateurs qui commençaient à apparaître alors, qu’ont été popularisées, dans la seconde moitié des années 1980, les interfaces basées sur des fenêtres, des icônes, des menus déroulants et la souris.    

 

Dans le contexte de l'intelligence artificielle, et notamment de l'IA générative, un prompt est un texte ou une question invitant ou sollicitant un modèle de machine learning à produire une réponse. Après l’iPhone et les interfaces tactiles, l’IA inaugure ainsi, avec les interfaces conversationnelles en langage naturelle, une manière radicalement nouvelle d’interagir avec des ordinateurs, dont le prompt constitue le nouveau sésame. S'il peut varier de façon significative en fonction du contexte ou de la tâche que l'on demande à un modèle de réaliser, il est néanmoins nécessaire qu'il respecte un certain nombre de règles structurelles, dont le rôle est d'influencer la nature et la qualité des contenus générés afin que ces derniers soient le plus adéquats possible aux attentes d'un utilisateur et d'une situation donnée. Pour le dire autrement, la qualité de la réponse est directement déterminée par la qualité et la précision du prompt.

 

Dans ce cadre, on appellera prompt engineering l'art de concevoir et de rédiger des instructions — prompts — pour des modèles d'IA, afin que ces derniers produisent des résultats spécifiques (textes, images, vidéos, musiques, contenus multimodaux) qui soient le plus parfaitement adéquats avec les intentions de l'utilisateur. En d'autres termes, le prompt engineering est la pratique méthodique et structurée d'interagir avec des IA de façon optimisée, avec une intention de résultat précise et une maîtrise des mécanismes sous-jacents, afin de tirer pleinement parti des capacités de ces dernières. Ce qui exige d'acquérir au préalable une compréhension profonde du mode de fonctionnement des modèles d'IA générative, comme GPT d'OpenAI, Gemini de Google, ou Claude d'Anthropic. Comment en effet utiliser au mieux un outil, si on ne connaît pas les raisons ainsi que les usages pour lesquels il a été créé ? Et comment appréhender les limites inhérentes à tout outil, lesquelles sont précisément circonscrites par les usages pour lesquels il a été conçu, si on ne connaît pas en même temps son mode de fonctionnement ? C'est ce que rappelle Anne-Laure Enjolras, CEO de AGI Studio et experte en intelligence artificielle générative, dans un article consacré au fonctionnement des LLM et publié dans le magazine L'IA pour tous, des mois de décembre 2025 — janvier 2026 :

 

"Cette compréhension est essentielle pour toute personne ou organisation qui souhaite utiliser l'IA générative avec sérieux : cela permet d'améliorer les prompts, de cadrer la qualité attendue, d'anticiper les biais, et surtout, d'extraire de la valeur sans tomber dans la fascination naïve. Cela permet également de comprendre pourquoi des réglages apparemment mineurs, la structure d'un prompt par exemple, transforment parfois radicalement la qualité des résultats."

 

Il n'est donc pas étonnant de voir apparaître, au côté des nouveaux métiers de l'IA — data analyst, data manager, data miner, data steward, data designer, développeur IA, ingénieur en machine learning, architecte IA —, le métier de Prompt Engineer, qui fait l'objet d'un engouement important avec la multiplication des grands modèles de langage de génération de texte (GPT, Claude, LLaMA, Gemini, etc.), des modèles de génération d'images (DALL-E, Midjourney, Stable Diffusion), des modèles de génération audio (Murf, ElevenLabs) et des outils de génération vidéo (Runway ML, Pika Labs). Outre la capacité à comprendre les objectifs de chaque projet et à traduire des besoins utilisateurs en prompts clairs et concis, ainsi que la maîtrise des capacités et limites des modèles disponibles sur le marché, toutes les annonces insistent, sans exception, sur l'acquisition de compétences pointues en intelligence artificielle, qu'il s'agisse des aspects techniques, éthiques ou juridiques. Comme si le bon usage des outils d'IA générative — ce que rappelle plus haut Anne-Laure Enjolras — impliquait nécessairement une compréhension préalable de leur mode de fonctionnement.

 

D'aucuns vont même jusqu'à invoquer la notion de capacité d'anticipation cognitive pour désigner l'aptitude qu'aurait un humain à modéliser la façon dont une IA est susceptible d'interpréter des instructions et de générer certains comportements en retour. À quoi s'ajoutent des compétences plus larges : l'esprit critique, l'analyse de textes, des aptitudes rédactionnelles impliquant une certaine rigueur dans la formulation du prompt, la capacité à prendre en compte les éventuels biais du modèle, la créativité, la curiosité, le goût de l'expérimentation, et enfin une culture générale suffisante pour orienter et évaluer les réponses de l'IA sur les sujets que l'on lui soumet, quand bien même celle-ci peut nous aider à les approfondir et à les découvrir.

 

Principes fondamentaux de prompt engineering. – Sur la base d’études scientifiques consacrées aux meilleures pratiques de prompt engineering, les auteurs de l'excellent petit ouvrage Apprendre à guider les IA, Mikaël Cabon et Cyril de Sousa Cardoso, recommandent onze principes clés pour devenir un expert du prompt engineering. Ces principes, en plus d'être fondés sur les recherches les plus récentes, peuvent servir de fondation à la constitution d'une éthique appliquée quant à la façon dont nous devons faire usage des technologies d'IA génératives. Ils pourraient en cela servir de base à une charte éthique guidant les pratiques et usages de ce type d'IA. Au-delà de la recherche d'efficacité, ils rappellent surtout que nous avons, en tant qu'utilisateurs, une responsabilité quant à l'impact de ce que ces outils peuvent produire, non seulement à titre individuel, mais également à l'échelle collective : chaque contenu généré par IA et diffusé contribue, à sa mesure, à façonner l'environnement informationnel dans lequel nous vivons, à former notre jugement, et à garantir le plus possible le bien fondé des décisions que nous prenons pour nous, mais aussi, en tant que citoyens.

 

Comment en effet s'assurer que nous les utilisons conformément à ce qu'ils sont et à la manière dont ils ont été conçus ? Comment interpréter à bon escient l'apparente certitude avec laquelle ils délivrent l'information que nous leur demandons ? Avons-nous véritablement conscience des effets négatifs potentiels qu'ils peuvent avoir si nous les utilisons de façon aveugle, sans prendre en considération les limites qu'ils recèlent, ni projeter sur eux des caractéristiques humaines qu'ils ne font que simuler sans jamais les posséder réellement ? Quelle est notre part directe de responsabilité sur ce que ces outils produisent et sur la qualité des contenus que nous communiquons ? En d'autres termes, jusqu'à quel point pouvons-nous leur faire confiance ? Toutes ces questions insistent sur la nécessité d'interroger les tâches que nous pouvons leur déléguer et celles qui nous incombent impérativement. Elles invitent également à définir et à respecter un ensemble de valeurs éthiques fondamentales, capables de guider un usage de ces outils qui soit véritablement bénéfique à tous.

 

PRINCIPE 1 : Comprendre le modèle utilisé. C'est le point de départ de tout apprentissage du prompt engineering : une compréhension approfondie des capacités, mais également des limites de tout modèle d'IA. Il s'agit non seulement de comprendre le mode de fonctionnement général de tout modèle d'IA générative, mais également les spécificités du modèle que l'on utilise. Il est à ce titre important d’avoir toujours à l’esprit qu'un modèle d'IA générative n'est pas d’abord un moteur de recherche, mais un système capable de générer des contenus originaux, qui adresse à la manière d'un expert une multitude de domaines, et dont les réponses sont produites par calcul probabiliste et non par récupération de faits dans une base de données structurée.

 

PRINCIPE 2 : Valoriser la spécificité et la clarté. Écrire un prompt revient en quelque sorte à solliciter une réponse de la part d'un modèle d'IA, dont on attend qu'il réponde conformément à nos attentes. Mais comment obtenir la réponse souhaitée si les attentes qui sont les nôtres ne sont pas clairement et précisément exprimées ? Il en va d'une IA comme d'une personne : la qualité de la réponse est proportionnelle à la qualité de la requête, si bien que les mauvaises réponses viennent moins de l'IA elle-même que de celui qui la sollicite. On ne demandera pas : "Écris-moi un cours sur René Descartes", mais plutôt : "Écris-moi un cours sur les quatre règles de la méthode telles qu'exprimées dans le Discours de la méthode, dans un style adapté à un élève de lycée en train de réviser le BAC philo, et en 400 mots."

 

PRINCIPE 3 : Incorporer des détails et des exemples. On appellera "tâche" ce que vous demandez à une IA de réaliser pour vous. Comme déjà indiqué, il est crucial que celle-ci soit décrite de façon claire et précise, en indiquant si possible des éléments de contexte, comme le rôle, le style, ou la longueur de la réponse. Un bon moyen d'exprimer clairement ce que l'on souhaite est de fournir des exemples au modèle. Cette technique, que les spécialistes du prompt engineering appellent le "few-shot prompting", consiste à illustrer le type de réponse attendu, afin que le modèle puisse inférer le schéma de réponse souhaité.

 

PRINCIPE 4 : Définir l'audience et le canal. Il est également important d'indiquer l'audience du contenu ainsi que le canal qui sera utilisé pour le diffuser. S'agit-il d'un article de blog ? D'une fiche de cours ? D'un support de révision ? S'adresse-t-on à de jeunes adolescents ? À des élèves de collège ? Aux experts d'un domaine donné ? Ces précisions conditionnent directement le niveau de langage, le degré de technicité et la structure de la réponse produite par le modèle. On pourra dans ce cadre s’appuyer sur la notion de "persona", largement utilisée par les designers, les développeurs et spécialistes de marketing. Il s’agit d’une représentation fictive d’un utilisateur ou client type destiné à guider la conception d’un produit, d’une interface ou d’un service.

 

PRINCIPE 5 : Utiliser un ton conversationnel. On évitera d'être jargonneux, ou encore d'utiliser un langage familier, voire des termes issus de l'argot, avec un souci premier : exprimer le plus clairement possible, et en des termes standards, ce que l'on demande à la machine. Un prompt bien formulé dans un langage courant et précis sera toujours plus efficace qu'une instruction techniquement sophistiquée mais ambiguë.

 

PRINCIPE 6 : Poser des questions ouvertes. On évitera d’utiliser des questions fermées qui appellent une réponse courte et limitée du type "oui" ou "non", et restreint du même coup la possibilité d’obtenir des informations riches, détaillées et nuancées. Ce que permettent, à l’opposé, les questions ouvertes, qui peuvent commencer par des formulations du type : "Pourquoi ?" ; "Comment" ; "Quelles sont ?" ; "Décris-moi » ; ou encore, "De quelle manière ?". Mais ces mêmes questions, qui permettent de forcer le modèle à faire émerger des idées que nous n’aurions pas nous-même pu anticiper, peuvent être sources d’erreurs, de propos vagues ou d’hallucinations, si elles ne sont pas encadrées par un contexte clair, une posture définie et un rôle assigné, qui permettent d’orienter les réponses du modèle dans un sens conforme à notre intention, et de limiter ainsi les dérives. De quel point de vue, ou au nom de quelle identité souhaitez-vous que votre IA vous réponde ? Dans quel contexte évolue cette dernière ? De quelle niveau d’expertise peut-elle se prévaloir ?

 

PRINCIPE 7 : Recourir à l'itération et au feedback. L'ingénierie du prompt est un processus itératif. Il s'agit d'ajuster progressivement ses demandes en fonction des réponses fournies, jusqu'à obtenir le résultat le plus proche possible de ce que l'on souhaitait. Chaque échange avec le modèle est une occasion d'affiner la formulation, de corriger une ambiguïté ou d'enrichir le contexte fourni. C’est une philosophie du « test and learn » qui valorise l’esprit d’expérimentation, la capacité à questionner de façon critique ce que l’on a produit une première fois, mais également, à stopper le processus d’itération et à juger que le résultat obtenu, est, si ce n’est complètement conforme aux intentions de départ, en tous les cas, assez satisfaisant pour mettre un terme aux recherches. L’enseignement que l’on peut tirer de chaque itération est aussi un moyen d’approfondir la connaissance du modèle que l’on utilise, tandis que la variation des formulations doit nous inciter à parfaire notre maitrise de la langue.

 

PRINCIPE 8 : Conduire la sortie. Il est possible de guider les réponses en écrivant le premier mot ou la première phrase de la sortie attendue. On peut également recourir à ce que l'on appelle le "decomposed prompting", qui consiste à diviser une tâche complexe en plusieurs sous-tâches successives, chacune faisant l'objet d'un prompt spécifique. On souhaite par exemple rédiger un article sur un sujet précis. On demandera dans un premier temps au modèle de fournir un plan détaillé de l'article. Puis on utilisera chaque section du plan comme entrée pour générer le contenu complet de chaque partie. Enfin, on rassemblera l'ensemble des sections afin d'en peaufiner le style et de vérifier la cohérence globale du texte.

 

PRINCIPE 9 : Expérimenter différents modèles. Chacun des modèles ayant ses spécificités, on testera un même prompt sur plusieurs modèles afin de voir lequel produit le résultat le plus satisfaisant. Cette comparaison est particulièrement utile pour les tâches à fort enjeu, où le choix du modèle peut faire une différence significative sur la qualité du résultat. Il sera ainsi possible de comparer les modèles entre eux sur des cas d’usage différents et se faire une idée précise de l’endroit où chacun excelle ou montre des limites. Cette expérimentation devra rester régulière et continue compte tenu des progrès rapides des des modèles, qui peuvent changer significativement plusieurs fois en seule année.

 

PRINCIPE 10 : Apprendre par la pratique. Il faut considérer le prompt engineering comme un art et une pratique dont on ne cesse de peaufiner la théorie au fil du temps, et où chacun peut profiter des bonnes pratiques des autres. On pourra ainsi constituer un journal des prompts ayant apporté les résultats les plus probants, et se constituer, au fur et à mesure, un répertoire personnel des meilleures pratiques que l'on a soi-même expérimentées. Sans oublier naturellement que les modèles évoluent sans arrêt, et qu'avec eux, les pratiques peuvent être aussi ajustées. Expérimenter signifie également que l'on testera ses pratiques dans des contextes variés et avec des outils différents.

 

PRINCIPE 11 : Interprétation et utilisation des réponses. Enfin, il ne s'agit pas de prendre les réponses fournies pour argent comptant, mais de les considérer avec un œil critique en les croisant avec d'autres sources d'information. Les réponses fournies sont moins des connaissances établies que des informations brutes que l'on peut ensuite évaluer, retraiter et utiliser dans un cadre clairement identifié dont on a soi-même la maîtrise. Le prompt engineering ne dispense pas du jugement humain : il le suppose.

 

Modèle canonique d'un bon prompt. – À l'heure actuelle, il n'existe pas de répertoire recensant tous les types de prompts. On peut toutefois s'appuyer sur les catégories les plus couramment évoquées, comme nous le verrons par la suite. En revanche, il y a un consensus sur l'existence d'un modèle canonique de prompt efficace et universel. Suivre ce modèle de manière rigoureuse permet de tirer, en théorie, le meilleur parti des IA génératives, qu'il s'agisse de ChatGPT, Claude, Gemini, DeepSeek, Grok ou encore Mistral. Ces modèles reposent en effet sur des architectures similaires et des technologies largement standardisées. Même si leurs performances varient parfois significativement selon les contextes et les cas d'usage, la manière d'interagir avec eux reste globalement la même. Ce qui facilite la comparaison entre ces outils et la transition de l'un à l'autre sans devoir réapprendre chaque fois comment les utiliser.

 

Si ce modèle, désormais largement adopté, peut servir de point de départ et de référence, il n'en reste pas moins flexible. En d'autres termes, il ne s'agit pas d'un formulaire rigide à appliquer pour chaque tâche, quel que soit le niveau de complexité des réponses que nous attendons. Ce sont justement ces deux critères — la nature de la tâche et le degré de sophistication requis —, qui devraient orienter la façon dont on construit un prompt. D'où l'importance de bien définir dès le départ ce que l'on attend précisément d'un LLM, et d'ajuster le prompt en conséquence, sous peine de laisser à la machine le soin de combler, sur la base de critères purement statistiques, les zones d'ombre que notre consigne n'aura pas réussi à dissiper.

 

Dans ce cadre, la forme la plus rudimentaire de prompt — son degré zéro, pour reprendre un terme issu de la linguistique et appliqué à un texte littéraire dépouillé de toute convention stylistique —, est ce que l'on nomme le « zero-shot prompting ». Il peut être comparé à l'usage que nous faisons, ou plutôt que nous faisions, d'un moteur de recherche classique comme Google ou Microsoft Bing jusqu'à il y a peu. En d'autres termes, c'est un prompt dépouillé d'artifice qui consiste à poser une question ou donner une instruction sans fournir aucun élément de contexte, aucune autre précision que celle de demander simplement et directement au modèle ce que nous désirons. Le zero-shot prompting part du principe que la question posée est si élémentaire, et que le modèle a ingéré tant de connaissances et de situations différentes, qu'il n'a pas besoin d'être guidé pour répondre à notre requête. C'est à peu près tout le contraire du prompt canonique que nous allons décrire dans un instant dans le détail. A-t-on en effet besoin de préciser dans quel contexte et depuis quelle posture nous voulons une explication de la phrase suivante : "L'État français prévoit un déficit de ses finances publiques de 5 % cette année" — ou encore : "Traduis-moi cette phrase en anglais ?"

 

Puisqu'aucun contexte n'est spécifié, il va de soi que le zero-shot prompting doit pouvoir tirer parti de la capacité du modèle à généraliser en raisonnant en quelque sorte : "Toute chose étant égale par ailleurs." Dans le cas de l'exemple mentionné, nous pourrions presque retirer le terme "français", ou le remplacer par n'importe quel autre pays, puisque l'important ici est de comprendre ce que signifie "prévoir un déficit de ses finances publiques de 5 %". Le modèle prendra non seulement, sur la base de critères purement statistiques, la liberté de choisir la forme de l'explication et son degré de technicité, mais également son degré d'approfondissement. Ce qui signifie aussi qu'une simple reformulation de la requête autour d'une même tâche peut non seulement changer, mais surtout enrichir significativement la réponse du modèle, en restreignant sa liberté d'action et le champ des possibles au sein duquel il va devoir formuler une réponse.

 

Sont apparues ainsi d'autres formes moins rudimentaires de prompts qui viennent spécifier la tâche, soit en précisant le rôle que doit jouer le modèle ainsi que le format de sortie de la réponse attendue — modèle RTF pour Rôle, Tâche et Format —, soit en remplaçant le rôle par le cadre situationnel — modèle CTF pour Contexte, Tâche et Format —, substituant ainsi à la question "Quelle est l'identité de l'IA ?" la question "Dans quelle situation se trouve-t-elle ?". Ce n'est en effet pas la même chose que de faire endosser à une IA le rôle de professeur d'économie spécialisé dans les finances publiques pour obtenir une explication de la phrase : "L'État français prévoit un déficit de ses finances publiques de 5 % cette année", que de remplacer ce rôle par un cadre situationnel précisant que l'on souhaite la même explication, mais dans le contexte des critères de Maastricht. Partout où la forme de la réponse compte tout autant que le contenu, le modèle RTF prévaudra, puisqu'il est bien évident que les registres de langue — c'est-à-dire la manière de formuler un propos, les choix lexicaux et stylistiques — sont fortement dépendants des locuteurs et des rôles qu'ils jouent dans une situation de communication donnée. Si l'on demande par exemple à un modèle linguistique d'analyser les risques juridiques contenus dans un contrat, on aura tout intérêt à lui faire endosser le rôle d'avocat spécialisé en droit des contrats. S'il s'agit en revanche d'obtenir trois conseils pour élaborer une stratégie de recrutement rapide dans le contexte d'une PME de vingt personnes en croissance de plus de 20 % par an, opérant dans le secteur du conseil informatique en data science et intelligence artificielle, le cadre situationnel sera ici déterminant.

 

On aura bien compris que ces deux modèles de prompt ne sont pas antinomiques. Plutôt que de les opposer, on préférera les combiner, voire les enrichir en fonction de la complexité de la tâche demandée. En gardant à l'esprit ces quelques remarques, voici présentés, dans l'ordre de pertinence adéquate, les sept blocs d'un prompt de référence, lesquels ne font finalement que reprendre l'architecture d'une demande que nous adresserions à un collaborateur dans le cadre d'une tâche que nous lui demanderions de réaliser pour nous.

 

Bloc 1 — Le rôle : La première étape consiste à assigner un rôle précis au modèle directement aligné avec le contexte de votre demande. Il s’agit en quelle que sorte de la posture que vous allez demander au modèle d’incarner dans le cadre de la réalisation d’une tâche donnée. Pourquoi ce point est-il absolument fondamental ? Parce que cela permet au modèle d’activer un registre de connaissances – celles supposées être reliées à une catégorie socio-professionnelle donnée –, ainsi qu’un ton spécifique qui sont en lien direct avec la fonction que vous lui assignées. A qui iriez-vous en effet demander d’écrire un article sur l’histoire des moteurs de recherche, si ce n’est à un informaticien ou un historien spécialisé dans l’histoire du web ? Une formule type pourrait ainsi démarrer comme suit :

 

"Tu es historien des techniques, spécialisé dans l’histoire du web, reconnu par ses pairs pour avoir écrit un ouvrage de référence sur l’histoire des moteurs de recherche, des années 1945 à aujourdhui."

 

En définissant le plus précisément possible ce rôle, on circonscrit ainsi l’espace du discours du modèle, et on garantit que ce derniers va mobiliser des connaissances intégralement adaptées à la fonction que nous lui demandons d’endosser.

 

Bloc 2 — Le contexte : La deuxième étape, tout aussi importante, et qui s’inscrit dans la continuité de la première, consiste à donner au modèle les informations de situation dont il a besoin pour comprendre l'environnement de votre demande. C’est en quelle que sorte préciser au modèle pourquoi vous lui demandez de se comporter comme un historien, un professionnel du marketing spécialisé dans le domaine du SEO (Search Engine Optimization), ou encore, un créateur de site web. Où si vous préférer : "Dans quel but ?". La question à laquelle vous devez répondre est la suivante : "Pour quelles raisons demandez-vous au modèle de se comporter comme un historien des techniques spécialiste de l’histoire de la recherche d’information ?"

 

Là aussi, l’analogie avec le collaborateur paraît évidente. Il semble en effet tout naturel de spécifier à une personne le contexte et les raisons de la tâche que vous lui demandez de faire. Or la réalisation d’une tâche est par essence toujours orientée vers une fin. Elle a un objectif précis et s’inscrit dans un contexte donnée. Ce que sous-tend d’ailleurs parfaitement la notion "d’agent", qu’il soit humain ou artificiel. Pourquoi en irait-il autrement pour un agent virtuel ? La dernière des choses à faire serait en effet de penser que le modèle va deviner la situation dans laquelle il est supposé agir. En gardant à l’esprit notre exemple, nous pourrions compléter le rôle donné ci-dessus par la formule suivante :

 

"Je suis journaliste en charge de la rubrique "technologie" à destination d’un public large n’étant pas forcément familier d’informatique, et je souhaite publier une série d’articles dédiés aux principales applications qui ont structurées l’histoire du web depuis son devenir grand public au début des années 1990, jusqu’à aujourd’hui."

 

Bloc 3 — La tâche : Ce n’est qu’à la troisième étape, après avoir précisé le rôle et le contexte, que l’on peut enfin entrer au cœur du prompt. Quelle est la tâche que vous demandez à votre agent virtuel de réaliser pour vous ? On peut ainsi considérer le prompt engineering comme une école de rigueur qui oblige à formuler le plus clairement possible le type de réponse attendu d’une IA générative, si bien que la qualité des réponses dépend autant du modèle que de la qualité des instructions que vous fournissez. En d’autres termes, vous partagez la responsabilité de la pertinence des réponses de votre modèle.

 

Une fois n’est pas coutume, on peut emprunter à l’esthétique classique d’un Boileau une des règles les plus fondamentales du prompt engineering : "Ce qui se conçoit bien s’énonce clairement, et les mots pour le dire arrivent aisément." En d’autres termes, la précision de l’expression et la définition de la tâche que vous assignez à votre IA ne peuvent venir que de la clarté de votre pensée. Cela signifie que la tâche sera d’autant mieux réalisée que la manière dont vous l’avez rédigée et le choix des mots utilisés correspondent parfaitement à vos intentions au moment de rédiger le prompt. Il faut donc éviter les formulations vagues et trop généraliste comme : "Parle-moi des moteurs de recherches" ou "dis-moi quelques mots sur Google ?". On évitera aussi les formulations floues et ambiguës, pour privilégier la précision et la cohérence, tout en gardant à l’esprit que ces exigences restent relatives aux rôle et au contexte attribués à l’IA.

 

Ce qui débouche sur deux règles essentielles qui peuvent paraître contre-intuitive pour un utilisateur non initié : 1) pour définir correctement un domaine d’action à une IA, il faut soi-même être familier de ce domaine et posséder des connaissances de base ; 2) c’est cette connaissance plus ou moins approfondie du domaine en question qui permet de choisir les mots appropriés pour décrire une tâche, le plus souvent en lien avec un rôle et un contexte. Si par exemple vous souhaitez préparer un cours pour introduire des étudiants à la philosophie de l’esprit et aux débats actuels sur les conditions de possibilité d’une conscience artificielle, il est impératif de disposer à la fois d’éléments techniques sur le fonctionnement des IA actuelles, et d’une culture philosophique solide. Ce n’est que sur cette base que vous pourrez formuler adéquatement la tâche et porter un regard critique sur la réponse fournie. Ce qui dans le cadre de l’exemple qui est le nôtre depuis le début, pourrait donner la formulation suivante :

 

"Ta mission est de rédiger un texte sur l’histoire des moteurs de recherche depuis la naissance du web grand public au début des années 1990 jusqu’à l’avènement des premières IA générative et la constitution de nouvelles formes de recherche comme le Search Generative Experience d’un Google. En tâchant de suivre le plus possible l’ordre chronologique des évènements, tu insisteras surtout sur les principales ruptures technologiques qui ont jalonnées cette période, et indiquera en quoi l’IA générative vient changer fondamentalement l’expérience de recherche. Tu termineras enfin sur la question aujourd’hui débattue d’une fin supposée du web, et ce qu’il faut précisément entendre par cette expression."

 

Bloc 4 — Les contraintes : C'est le bloc le plus souvent oublié, et pourtant l'un des plus déterminants. Un bon prompt consiste non seulement à indiquer ce que nous voulons que l’IA fasse, mais également, ce que nous ne voulons pas qu’elle fasse. En d’autres termes, les contraintes visent à encadrer ce que nous cherchons à tout prix à éviter, et contribuent en quelque sorte à préciser et circonscrire la tâche en indiquant ce que cette dernière ne doit pas être. Elle participe ainsi du processus de cadrage du travail à accomplir pour forcer le modèle à concentrer ses efforts là où nous voulons, et éviter, pour reprendre un terme que les apprentis philosophes connaissent bien : le hors-sujet où, un peu moins grave, la digression inutile qui n’apporte que très peu de valeur à la question posée, et empêche que cette dernière soit traiter en profondeur. Dans le cas où la fiabilité et la vérification des faits sont absolument indispensables, elles peuvent aussi forcer le modèle à construire ses réponses en s’appuyant sur des sites ou des blogs de référence, et d’éviter ainsi toute forme de spéculations ou hallucinations. Elles appellent ainsi ce dernier à reconnaître certaines de ses limites, en évitant de s’aventurer dans des hypothèses hasardeuses ou des informations non confirmées. Pour poursuivre l’exemple qui est le nôtre, nous pourrions compléter la tâche par les contraintes suivantes :  

 

"Il est absolument indispensable que les faits et évènements que tu relates soient vérifiés et sourcés sur des sites de référence par rapport au sujet des moteurs de recherche. Tu t’assureras ainsi que tes sources d’information fassent autorités dans le domaine en question, mais également de les citer. En ce qui concerne le débat autour de la mort du web, qui relève encore à ce niveau de l’opinion, tu t’évertueras à rendre compte le plus exhaustivement possible du débat actuel, en croisant des avis d’experts différents que tu citeras également. Tu éviteras enfin le jargon technique autant que possible, pour t’adapter à un public de non technicien le plus large possible."   

 

Bloc 5 — Le format : Si les quatre premiers blocs que sont le rôle, la tâche, le contexte et les contraintes sont là pour orienter le contenu conceptuel de la réponse que l’IA générative doit produire, les deux derniers, à savoir le format et le ton, sont davantage relatifs à la manière dont cette réponse doit être formulée, présentée et finalement, structurée. On retrouve ici la distinction classique entre d’une part le fond, qui est du côté du sens, du contenu et des idées, et d’autre part la forme, qui est du côté du style, de la syntaxe, ou encore, de la rhétorique. Et quoi de plus normal puisque cette dualité fondamentale est au cœur de l’architecture de toute forme d’expression et de communication, que celle-ci soit d’ordre narrative, descriptive, poétique, explicative ou argumentative.

 

La mise en évidence de cette différence essentielle est d’ailleurs loin d’être anodine ou ornementale dans un texte consacrée à une pratique dont la finalité se veut avant tout opérationnelle et concrète, puisqu’elle commande in fine la qualité de la réponse fournit par l’IA. En d’autres termes, les deux doivent être parfaitement adéquate, puisque la forme finale du contenu générée par le modèle doit refléter in fine ce dernier. On n’exigera pas, sur un sujet donné, le même type de réponse, suivant que l’on s’adresse à une communauté de chercheurs où à un public de non spécialistes. Ou encore, si la réponse que l’on sollicite ne doit servir que de source d’information à un autre texte que l’on s’apprête à écrire. D’où la nécessité de spécifier le plus précisément possible des éléments de présentation aussi essentiels que la longueur de la réponse attendue, sa structure générale (titres, introduction et conclusion, chapitres, paragraphes, liste à puces, synthèses des points à retenir, etc.), ainsi que tout autre élément de forme devant être en cohérence avec le rôle, le contexte et la posture que vous demandez à votre IA d’incarner au mieux.

 

"Ton texte comprendra d’abord un titre et un chapeau qui résume l’essentiel. Tu enchaîneras ensuite sur des développements qui comprend une introduction posant le contexte, des paragraphes qui relatent des faits et des dates dans un ordre chronologique, auxquels tu associeras des explications et des analyses. Tu tâcheras le plus possible de définir les termes techniques que tu utilises, en oubliant jamais que tu écris pour un public cultivé mais pas forcément expert du domaine. Ta conclusion résumera l’essentiel de ce qu’il faut retenir, et pourra ouvrir sur des questions laissées pour le moment en suspens mais qui pourraient décider de l’avenir du web et des moteurs de recherche selon les experts. Le texte total doit comporter environ 1000 mots."

 

Bloc 6 — Le ton : Si le format insiste sur les éléments matériels, structurels et concrets d’un texte en lien avec la catégorie à laquelle il se rattache – s’agit-il d’un article de blog ou de journal, d’un essai académique, d’une nouvelle, d’un roman, d’un e-mail, d’une brochure publicitaire, d’une note de synthèse, d’un commentaire d’arrêt, d’un discours, d’un podcast, d’une fiche produit, etc. –, le ton exprime la tonalité du texte à proprement parler, lequel peut être neutre, explicatif, familier, analytique, argumentatif, dialectique, imaginatif, inventif, métaphorique, humoristique, ou encore émotionnel. Chaque format de texte, loin d’être libre, dispose ainsi de ses conventions spécifiques constituées à la fois d’éléments purement formels, comme la longueur ou la structure, mais également stylistiques, c’est-à-dire une certaine manière, plus ou moins personnelle, de véhiculer un message et faire usage de la langue. Dans ce cadre, le ton peut être plus concrètement défini par le choix des mots, le rythme et la couleur émotionnelle que l’on souhaite donner au texte. En d’autres termes, tandis que le format indique ce que le lecteur voit, le ton renvoie à ce que vous vouliez qu’il pense et ressente. D’où les questions essentielles qui sont : Quelle est l’intention du texte que je demande à l’IA d’écrire ? Quels sont les effets recherchés sur le lecteur ? Est-ce que je cherche à instruire, faire rire, convaincre, persuader ou émouvoir ? Dans le cadre de mon article sur les moteurs de recherche, nous pourrions formuler le ton de la manière suivante :

 

"Adopte un ton impersonnel et journalistique. L’objectif est d’informer, d’instruire et d’expliquer en s’appuyant le plus possible sur des faits objectifs incontestables qui jalonnent l’histoire des moteurs de recherche. Les phrases doivent être claires, concises, précises et faciles à comprendre pour un lecteur informé mais non familier du sujet. Évite le vocabulaire technique utilisé par des initiés, et privilégie le langage de tous les jours."

 

Bloc 7 — L'exemple ou la référence : Le dernier bloc enfin, optionnel mais souvent recommandé selon la nature de la tâche, va consister non plus à dire à l’IA ce qu’elle doit faire et la manière de le faire, mais à lui fournir directement un ou des exemples du résultat final que vous attendez de sa part. En d’autres termes, on fournit au modèle une illustration concrète de ce qu’elle doit faire, qui vient en quelque sorte renforcer et ancrer dans quelque chose de concret ce qui n’était encore juste là que du domaine de l’indication, de la description et de l’explication. C’est un peu comme si, pour apprendre à un apprenti juriste à réaliser une fiche d’arrêt, vous décidiez de lui demander de lire une fiche d’arrêt idéal (référence), plutôt qu’une explication théorique de ce que doit comprendre la structure d’une fiche d’arrêt.

 

L’exemple s’appuie ainsi sur une autre capacité remarquable et essentielle que possèdent les modèles d’IA génératives en générale et les modèles de langage en particulier : l’aptitude à imiter et reproduire les comportements humains. Cette capacité, que l’on nomme communément "mimétisme", et qui constitue la caractéristique fondamentale même de ce type d’IA, leur permet non seulement d’écrire et de converser à la manière d’un humain, mais également à produire des contenus qui imitent la structure et le style de documents de référence que nous soumettons à leur analyse. Cette aptitude à imiter à peu près n’importe quel style, et que les littéraires appellent "pastiches", pousse jusqu’à pouvoir écrire – non sans quelques maladresses –, à la manière de n’importe quelle écrivain ou école littéraire, voire de s’adonner à n’importe quel exercice de style : dissertation académique, critique littéraire, papier de recherche, article journalistique, discours politique, poésie libre, slam, récit autobiographique, etc.

 

Cette capacité aujourd’hui bien connue des IA peut constituer un excellent moyen de standardiser l’écriture de textes appartenant à un même type, dans le but d’assurer à l’ensemble des contenus produits une même identité éditoriale à travers le temps et les auteurs quel que soit les thématiques abordées. A condition toutefois de ne pas oublier qu’un modèle linguistique est susceptible de reproduire non seulement le format et le ton, mais aussi des éléments moins directement apparent et plus difficilement détectable, que sont les idées – pour ne pas dire les idéologies –, les valeurs, les biais, les préférences culturelles, ou encore, les stéréotypes qui sont inévitablement inscrits dans un texte. Dans certain cas, le choix d’un ou plusieurs exemples devra de préférence être accompagné d’une lecture critique visant à déceler les présupposées et les opinions qu’ils contiennent sans jamais les nommer explicitement. Il s’agit d’une caractéristique essentielle du mode de fonctionnement de la pensée critique.

 

Pour terminer sur l’exemple de l’écriture d’un article consacré à l’histoire des moteurs de recherche, il sera possible de joindre à notre prompt, des documents écris dans le format et le style que nous voudrions voir appliquer par notre modèle. Notre prompt sera d’autant plus cohérent et efficace, que l’exemple fournit correspondra très exactement à la tâche, au format et au ton préalablement décrit.  

 

"Tu trouveras ci-joint pour exemple un article de la rubrique "Technologie" du journal qui n’est pas consacré aux moteurs de recherche, mais qui exemplifie parfaitement le format, le style et la ligne éditoriale que je veux que tu respectes."

 

De cette présentation du modèle canonique de prompt en sept blocs clés, nous pouvons tirer deux autres règles de méthode fondamentales qui visent à rappeler qu'un bon prompt ne consiste pas en une suite de cases à cocher, ou un formulaire dont il suffirait de remplir chacun des champs de façon fragmentaire et sans se soucier de la logique d'ensemble. Ces deux règles peuvent être formulées de la manière suivante :

 

  • Règle n°1 — Séparer pour éviter toute confusion : Dans un souci de lisibilité optimale de la part de l'IA, certains experts préconisent en effet fortement de distinguer de façon visuelle les différentes composantes d'un prompt, en nommant de façon explicite chacun des blocs, et en utilisant des délimiteurs ou des balises. On pourra ainsi recourir à des crochets, à des balises angulaires de type <Contraintes>, <Format>, ou encore, des balises de type XML, avec <ton>…</ton>. L'idée est d'utiliser un format cohérent et homogène pour signaler au modèle où commence et où se termine chacune des sections du prompt, et lui permettre de traiter chaque partie sans confusion ni interférence entre elles. Cette pratique est d'autant plus indispensable que le prompt que vous rédigez est long et complexe. En d'autres termes, plus le nombre d'instructions est important, plus le risque est grand que le modèle hésite entre deux instructions situées à des sections différentes du prompt qui semblent se contredire entre elles. Une instruction relative au ton pourrait par exemple venir contredire le rôle que vous avez assigné à votre modèle.

  • Règle n°2 — Penser le prompt comme un tout cohérent : La décomposition en sept blocs est avant tout un outil méthodologique et pédagogique. Elle ne doit pas faire oublier que ces sept parties constituent en réalité un seul et même prompt, dont chacune des composantes doit être en résonance avec les autres et venir les renforcer mutuellement. Un lecteur qui lirait votre prompt doit tout de suite remarquer la logique d'ensemble qui existe entre la façon dont vous décrivez chacune des instructions que vous donnez au modèle, et pouvoir déduire sans effort les relations qui existent entre le rôle, le contexte, la tâche et les contraintes, mais également entre les consignes relatives à la forme que vous souhaitez donner au résultat final (format et ton), et les éléments davantage relatifs au fond déjà mentionnés. Le rôle est-il adéquat au contexte ? Les contraintes encadrent-elles la tâche sans la contredire ? Le format et le ton sont-ils en accord avec le rôle et mon audience cible ? Etc.

 

La lecture de Descartes, encore utile et actuelle. – Au fond, les règles édictées par René Descartes dans la deuxième partie de son Discours de la méthode (1637), énoncées pourtant il y a près de quatre cents ans, pourraient servir de méta-règles à la pratique du prompt engineering. Elles sont souvent ramenées à quatre termes clés qui synthétisent chacune d'entre elles, à savoir: 1) la règle de l'évidence; 2) la règle de l'analyse; 3) la règle de la synthèse; 4) la règle du dénombrement. Et quoi de plus normal, puisque les techniques de prompt engineering ne font finalement que traduire en pratique des opérations cognitives qui relèvent toutes d'une même exigence de rigueur, de clarté et de méthode dans le traitement de l'information.

 

"La première était de ne recevoir aucune chose pour vraie que je ne la connusse évidemment être telle : c'est-à-dire d'éviter soigneusement la précipitation et la prévention ; et de ne comprendre rien de plus en mes jugements, que ce qui se présentait si clairement et si distinctement à mon esprit que je n'eusse aucune occasion de la mettre en doute. La seconde, de diviser chacune des difficultés que j'examinerais, en autant de parcelles qu'il se pourrait et qu'il serait requis pour les mieux résoudre. La troisième, de conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus aisés à connaître pour monter peu à peu, comme par degrés, jusqu'à la connaissance des plus composés ; et supposant même de l'ordre entre ceux qui ne se précèdent point naturellement. Et le dernier, de faire partout des dénombrements si entiers, et des revues si générales, que je fusse assuré de ne rien omettre."

 

À défaut de pouvoir être prises de façon quelque peu anachronique comme une série d'instructions relatives à la conception d'un prompt, et à condition d'être réinterprétées dans un contexte qui n'est plus celui de la philosophie de la connaissance de Descartes, encore empreinte d'une métaphysique et d'une conception de la méthode scientifique qui ne sont plus les nôtres aujourd'hui (elle marginalise l'expérience et l'expérimentation), elles peuvent encore servir, à tout le moins, de règles de second niveau — d'où l'emploi ici du préfixe “méta" —, ou de principes fondamentaux à la pratique du prompt engineering. Après tout, Descartes, largement influencé par la rigueur des mathématiques, en particulier l'analyse géométrique et l'algèbre, était lui-même à la recherche d'une méthode simple et universelle, capable de le guider dans la production de connaissances.

 

Il faut donc prendre les préceptes que nous lègue l'auteur des Règles pour la direction de l'esprit — ouvrage rédigé vers 1628 et publié à titre posthume en 1701, qui constitue le premier état de la méthode que Descartes formalisera dans le Discours —, davantage comme un ensemble restreint de principes généraux dont nous devons faire preuve dans toute démarche intellectuelle, que dans leur sens originel de fondation philosophique de la science moderne qui était en train d'émerger au moment où il écrivait, et dont il a, d'une certaine manière, sous-estimé la dimension expérimentale. En gardant à l'esprit ce qui précède, et en reprenant chacun des préceptes de la méthode cartésienne telle qu'énoncée dans le Discours, il est possible d'établir, de façon succincte et qui mériterait d'être davantage développée, la transposition suivante :

 

  • Règle de l'évidence : Le premier précepte, celui de l'évidence, renvoie à une double exigence. D'une part, une exigence de clarté et de distinction dans la formulation du prompt lui-même : chaque instruction doit être rédigée de façon si claire et si précise que le modèle ne puisse pas l'interpréter de façon erronée ou ambiguë. C'est l'application directe de l'exigence cartésienne de clarté et de distinction, mais transposée non plus aux idées et aux jugements — comme c'est le cas chez Descartes —, mais au prompt. D'autre part, une exigence de vérité dans l'évaluation des résultats. Il ne faut jamais accepter pour argent comptant ce que le modèle affirme avec assurance sans en vérifier la véracité, et s'assurer de la solidité des faits avancés. On pourra ainsi forcer le modèle, au moment de la construction du prompt même, à contrôler ses sources et à auto-évaluer sa réponse avant de la délivrer.

  • Règle de l'analyse : Le second précepte, celui de l'analyse, fait directement référence à la décomposition du prompt en parties clairement distinctes, exhaustives et précisément formulées. Rappelons que l'étymologie du mot "analyse", du grec analuein, "délier", renvoie à l'action de séparer ce qui était lié ou attaché. La règle de l'analyse chez Descartes indique que la division en plusieurs questions clés doit être poussée jusqu'à un degré de granularité tel qu'elle permette de traiter le sujet de façon exhaustive. Dans le contexte du prompt engineering, elle suggère que face à un sujet complexe, il faut multiplier les prompts en autant de sous-thématiques que le sujet peut en comprendre, plutôt que de vouloir le traiter à tout prix au sein d'une seule instruction, qui risquerait non seulement de générer de la confusion, mais aussi de laisser au modèle le choix statistique de combler ce que le prompt dit confusément. Ce qui aurait pour conséquence, en retour, de diluer la précision des résultats obtenus.

  • Règle de la synthèse : Le troisième précepte, celui de la synthèse, qui est le pendant du second, puisqu'il consiste à conserver une vue d'ensemble puis à rassembler ce qui a été d'abord délié, peut être interprété comme un principe de traitement méthodique qui consiste à aborder un sujet d'abord dans ses éléments les plus simples et accessibles, pour monter progressivement vers les aspects les plus complexes, jusqu'à ce que le sujet soit traité de façon exhaustive et selon un ordre de complexité croissante. Il existe ainsi un rapport de dépendance ou de déduction entre les différents éléments, si bien que certains ne peuvent être traités qu'à condition que d'autres l'aient été au préalable. Appliqué au prompt engineering, et dans le cadre d'un sujet comprenant une certaine forme de complexité, on s'évertuera à le décomposer en éléments simples et distincts (règle de l'analyse), puis à en construire pas à pas une compréhension la plus complète possible, en veillant à ce que chaque étape prépare et éclaire la suivante (règle de la synthèse).

  • Règle du dénombrement : Le quatrième précepte enfin, celui du dénombrement, est une invitation à procéder à une vérification exhaustive et systématique de l'ensemble : s'assurer que chaque instruction du prompt a bien été respectée par le modèle, que rien n'a été omis dans la réponse, et que les résultats produits sont complets et conformes à l'intention de départ. C'est un contrôle de complétude, une relecture rigoureuse de toutes les parties, dont peut découler, si nécessaire, un processus d'itération visant à corriger les lacunes ou les écarts constatés entre l'intention initiale et le résultat obtenu.

 

On conclura donc cette présentation du prompt engineering en faisant remarquer que les quatre règles de la méthode cartésienne — règle de l'évidence, règle de l'analyse, règle de la synthèse et règle du dénombrement — trouvent tour à tour leur correspondance dans plusieurs techniques avancées de prompting que sont, dans l'ordre : le "Chain-of-Verification prompting", le "Self-reflection prompting", le "Decomposed prompting", le "Thread-of-Thought prompting", le "Least-to-most prompting" et la "Self-consistency". Il convient toutefois de préciser que cette correspondance n'est pas strictement terme à terme : une même règle peut illustrer plusieurs techniques, et une même technique peut relever de plusieurs règles à la fois. Je vais maintenant reprendre chacune de ces techniques de prompting et les présenter de façon succincte, sans rentrer dans le détail ni les variations possibles de chacune d'entre elles, mon but étant surtout de mettre en évidence leur rattachement aux quatre préceptes de la méthode telle qu'énoncée dans la deuxième partie du Discours de la méthode. Ces techniques ne sont pas des substituts ou des alternatives à la structure idéale que nous avons explicitée auparavant, mais plutôt des façons de l'orienter, de la préciser, ou tout simplement, de l'enrichir.

 

Chain-of-Verification prompting : Cette technique, que l'on désigne par l'abréviation CoVe, consiste à demander au modèle de générer la réponse initiale à une question posée, tout en mettant en œuvre un protocole d'auto-vérification des faits ou des idées qui sont avancés. Elle est structurée autour de quatre étapes clés : 1) la réalisation de la tâche demandée ; 2) la génération de questions de vérification qui permettent de tester la véracité des points énoncés dans la réponse ; 3) la réponse aux questions de test ; 4) la génération d'une réponse finale, si besoin corrigée et plus fiable. Très importante dans les cas où la véracité des propos est fondamentale — notamment pour lutter contre les hallucinations —, on peut la considérer comme l'incarnation technique de la règle de l'évidence et du souci de vérité qu'elle est supposée garantir, même si chez Descartes les critères de la vérité sont d'ordre psychologique. On ne conservera ici que l'exigence cartésienne de vérité qui consiste à ne rien accepter pour vrai qu'il n'ait été soumis à un examen rigoureux. Pour reprendre l'exemple de notre prompt idéal sur l'histoire des moteurs de recherche, on pourra ajouter l'instruction suivante au modèle :

 

"Génère de toi-même des questions de vérification qui attestent que les faits relatés dans l'article ont été vérifiés et sourcés, puis ajuste le texte final en conséquence pour garantir son exactitude."

 

Self-reflection prompting : Dans le même esprit, le Self-reflection prompting est une variante plus simple du Chain-of-Verification prompting, à la différence près que le modèle va générer une première réponse, puis évaluer et critiquer cette réponse sans avoir à générer de questions tests — d'où la notion de "self-reflection" —, pour enfin fournir une réponse finale améliorée et optimisée. Le processus d'auto-évaluation peut aussi bien porter sur la véracité des propos que sur d'autres critères plus formels comme le format, la clarté ou le ton. Là aussi le parallèle avec la règle de l'évidence peut être établi, à condition de ne pas anthropomorphiser le processus interne d'auto-évaluation, qui consiste seulement en un ensemble d'étapes de nature algorithmique, sans conscience réflexive, et encore moins phénoménale. On pourra ainsi ajouter en fin de prompt une consigne du type :

 

"Après avoir rédigé la première version de l'article, évalue et critique cette version en vérifiant la clarté, le ton, la précision et la cohérence du format, puis propose une version finale améliorée."

 

Self-consistency prompting : Une troisième technique, que l'on peut également rattacher à la règle de l'évidence chez Descartes du fait du souci de la vérité qu'elle manifeste, consiste à vérifier le double aspect à la fois formel et factuel de la vérité d'un jugement, d'un énoncé ou d'un texte. Les philosophes distinguent généralement en effet la vérité matérielle de la vérité formelle. La première renvoie à la définition classique de la vérité, laquelle est définie, notamment depuis Thomas d'Aquin (1225-1274), comme la conformité ou l'adéquation entre une proposition ou un énoncé et la réalité qu'il décrit — l'auteur de la Somme théologique parlait d'intellect ou de représentation plutôt que de proposition, distinction qui ne change rien à l'essentiel de la définition —, tandis que la seconde n'insiste plus sur la confrontation à la réalité des propositions d'un raisonnement donné, mais sur la manière dont ces propositions sont logiquement articulées entre elles. À la suite du philosophe et logicien Robert Blanché (1898-1975), on distinguera ainsi la validité d'un raisonnement (vérité formelle) de la vérité des propositions qui le constituent (vérité matérielle). Un syllogisme peut ainsi être formellement valide — ses propositions s'enchaînent selon une nécessité logique correcte — tout en reposant sur des prémisses factuellement fausses, ce qui rend sa conclusion fausse malgré la rigueur de sa forme.

 

Cette distinction est essentielle, puisqu'elle constitue deux critères importants de la vérité qu'il ne faut pas confondre — ce qui peut être vrai matériellement peut être formellement faux, et vice-versa —, et surtout parce que c'est exactement de cette même distinction que procède le Self-consistency prompting. Il s'agit en effet de demander au modèle de faire varier plusieurs fois une même requête et de lui demander d'identifier lequel des résultats est statistiquement le plus probable. Un exemple de prompt pourrait être :

 

"Dis-moi qui est l'auteur de la phrase "toute vérité est fausse dès lors que l'on s'en contente". Génère dix manières différentes de formuler la question, et renvoie la réponse qui revient le plus souvent."

 

La technique du Self-consistency est donc particulièrement adaptée aux questions où la vérité factuelle, mais également la validité formelle d'un texte ou d'un raisonnement, sont particulièrement critiques. Elle tire parti à la fois des limites d'un modèle linguistique et de son mode probabiliste et statistique de générer des contenus. En effet, il est fort à parier que si l'on pose la même question dix fois à un modèle, en faisant varier la formulation sans en changer le sens fondamental, alors la réponse correcte sera statistiquement celle qui est la plus fréquente. C'est en quelque sorte comme si la vérité et la validité d'un raisonnement étaient soumises au vote de la majorité des suffrages exprimés, directement issus du corpus de textes à partir duquel le modèle a été entraîné. Est-il en effet besoin de rappeler qu'un modèle linguistique n'est pas en capacité de distinguer, comme le ferait un humain, le vrai du faux ? Qu'il n'a jamais été confronté aux faits qu'il décrit, si ce n'est qu'au travers des mots qu'il enchaîne de façon probabiliste ? Le moyen le plus sûr est donc de le soumettre à une base de faits — via un RAG ou une requête web par exemple —, et d'utiliser ses aptitudes à résumer du texte pour obtenir la réponse la plus fiable possible.

 

Decomposed prompting : Comme son nom l'indique, le Decomposed prompting consiste à prendre une thématique générale et complexe dont le traitement nécessite une décomposition en plusieurs sous-thématiques ou sous-tâches élémentaires, qui feront chacune l'objet d'un prompt séparé spécifique, et selon un ordre de dépendance logiquement justifié. Les résultats obtenus seront ensuite recombinés pour former un tout cohérent. Il s'agit d'une transposition technique des règles cartésiennes de l'analyse et de la synthèse, qui s'articulent au sein d'une même dynamique en trois processus de pensée successifs : 1) décomposer un tout en autant d'éléments distincts qu'il est nécessaire de le faire pour le traiter de façon exhaustive — c'est la règle de l'analyse ; 2) traiter chacun de ces éléments selon un ordre de complexité croissante, en veillant à ce que chaque étape prépare et éclaire la suivante — c'est la règle de la synthèse ; 3) recomposer enfin le tout en s'assurant que chaque partie s'articule de façon cohérente avec l'ensemble dont elle fait partie — c'est à nouveau la règle de la synthèse dans sa dimension récapitulative.

 

Où l'on voit surtout que la pratique du Decomposed prompting implique, d'une certaine manière, d'avoir une connaissance assez claire et globale du sujet que l'on souhaite traiter. Dans le cas de notre article sur l'histoire des moteurs de recherche, il faudra d'abord définir les grandes étapes et moments clés, puis créer un prompt pour chacune des étapes en question, en s'assurant que le modèle suive une même ligne éditoriale et un ton similaire. C'est précisément cette connaissance de l'histoire des moteurs qui permet de formuler des prompts cohérents, puis d'assembler les réponses dans un rendu final et complet, conforme aux intentions de départ.

 

Cette technique est potentiellement sans limite, puisqu'il sera possible de subdiviser cette histoire de façon plus ou moins précise, voire d'imaginer des sous-thématiques à l'intérieur de chacune des périodes, comme l'évolution des algorithmes, l'arrivée de la publicité, les modèles économiques, l'impact des réseaux sociaux, l'évolution des pratiques de SEO, l'importance de la confidentialité et de la protection des données personnelles, l'émergence de la recherche conversationnelle, etc. Toutes ces sous-thématiques peuvent s'insérer dans une chronologie qui raconte l'histoire du web et des moteurs de recherche, et faire l'objet de prompts spécifiques et personnalisés.

 

Thread-of-Thought prompting : En tant que variante du Decomposed prompting, il est également possible d'associer la technique du Thread-of-Thought prompting aux règles de l'analyse et de la synthèse, puisqu'elle consiste à encourager le modèle à expliciter de façon détaillée les différentes étapes qui le conduisent à un résultat donné, sans jamais perdre la logique d'ensemble. Dans l'analyse d'un document par exemple, on lui demandera de dégager les thèmes puis la thèse principale, pour ensuite développer une explication en suivant l'ordre chronologique et en mettant en exergue les grandes idées chapitre par chapitre, avant de terminer sur une synthèse des principaux enseignements. Ce qui permet au modèle de maintenir un fil directeur entre chaque partie du document et de conserver la cohérence de l'ensemble. On notera également que cette technique entretient un lien secondaire avec la règle du dénombrement, dans la mesure où le fil directeur qu'elle impose au modèle est aussi une façon de s'assurer que rien n'est omis dans le traitement du sujet.

 

Dans le cadre de notre article sur l'histoire des moteurs de recherche, on indiquera précisément au modèle la manière dont nous souhaitons qu'il construise le texte final, en décomposant chacune des étapes qu'il devra respecter, mais également et surtout, en lui demandant de justifier ses réponses. En d'autres termes, on force le modèle à exposer de façon explicite la logique qu'il suit pour élaborer sa réponse, tout en construisant en parallèle le contenu. On pourrait ainsi commencer par demander au modèle de lister les moteurs de recherche pionniers avant l'arrivée de Google et de son PageRank, de justifier l'ordre dans lequel il les présente, puis d'expliquer pourquoi ils ont joué un rôle important dans l'histoire du web. Il pourrait ensuite enchaîner sur la manière dont Google a construit son hégémonie dans les années 2000-2010 jusqu'à l'arrivée de l'IA générative, puis expliquer et justifier ses réponses. Ce qu'il est important de comprendre ici, c'est le double mécanisme de décomposition et de justification qui est à l'œuvre, puisque l'on demande au modèle de suivre des étapes précises sans jamais perdre la logique d'ensemble — le résultat final —, tout en l'invitant à expliciter les raisons qui l'ont amené à fournir tel ou tel résultat.

 

Least-to-most prompting : La technique du Least-to-most prompting est peut-être celle qui reprend le plus fidèlement la troisième règle de la synthèse chez Descartes. Elle consiste en effet en un approfondissement progressif d'un problème ou d'une thématique donnée en partant de questions simples et générales, pour se diriger vers des questions toujours plus précises, selon un ordre logique de dépendance, où les sous-thématiques mises en évidence dans chacune des réponses du modèle appellent d'autres questions qui viennent graduellement éclaircir la question de départ. Cette technique permet de s'assurer que le modèle va suivre la progression logique que son utilisateur lui impose, en parcourant chacune des étapes nécessaires à sa résolution, jusqu'au moment où l'on juge que tous les points relatifs à la question de départ ont été éclaircis de façon exhaustive. Le Least-to-most prompting est donc particulièrement adapté dans les cas où l'on souhaite approfondir une question dont on n'a au départ qu'une idée vague et incertaine.

 

Contrairement au Decomposed prompting et au Thread-of-Thought prompting, qui impliquent une certaine connaissance du sujet de départ, le Least-to-most prompting est une technique d'exploration qui permet précisément de décanter une thématique donnée, pour pouvoir ensuite la traiter à l'aide d'autres techniques comme celles évoquées ci-dessus. On pourra ainsi commencer par une question générale du type : "Quand sont apparus les premiers moteurs de recherche ?" pour ensuite, en s'appuyant sur les réponses déjà fournies par le modèle, approfondir la thématique qui est la nôtre jusqu'à son point décisif qui est celui d'une remise en cause de l'existence du web tel qu'il a été imaginé en 1989 dans l'esprit de son inventeur et informaticien britannique Tim Berners-Lee, alors qu'il travaillait au CERN (Conseil Européen pour la Recherche Nucléaire).

 

On pourra faire remarquer que les trois techniques que sont le Decomposed prompting, le Thread-of-Thought prompting et le Least-to-most prompting participent d'un même processus d'approfondissement progressif, sans néanmoins contenir en elles-mêmes un mécanisme d'auto-vérification final assimilable à la règle du dénombrement chez Descartes. Il faut en effet insister sur le caractère logique et ordonné de la méthode cartésienne, dont chacun des moments prend appui sur le précédent qui le rend possible. Ainsi, il faut considérer le précepte du dénombrement comme une règle qui vient en quelque sorte clôturer et contrôler le processus d'élaboration des connaissances, pour s'assurer que toutes les dimensions d'un problème ou d'une thématique de départ ont été traitées de façon exhaustive. Cette fonction essentielle pourra être assurée par un prompt que j'appellerais "réflexif", du fait qu'il s'agirait d'inviter le modèle à s'interroger sur ses propres réponses, et à évaluer par lui-même si le sujet de départ a été traité dans son entièreté et de façon exhaustive. Nous pourrions lui soumettre la question ouverte suivante :

 

"Relis attentivement l'ensemble du texte produit. Fais un dénombrement complet de chaque aspect et chaque dimension de la question traitée. Passe en revue chaque partie, chaque argument, chaque étape, et identifie les points ou perspectives qui n'auraient pas été pris en compte, en t'assurant de ne rien omettre."

 

Il est toutefois important de garder à l'esprit le caractère limité de ce type de prompt, qui n'est appelé ici "réflexif" que par analogie et non en vertu d'un processus cognitif qui serait en tout point similaire au cerveau humain. Le traitement du prompt, bien qu'invitant le modèle à faire retour sur lui-même, ou en tout cas sur ce qu'il a produit, n'induit aucune forme de conscience — de cette forme de conscience que les philosophes appellent précisément "réflexive" —, et ne procède, comme tout ce que produit un LLM, que d'une auto-évaluation de nature algorithmique et probabiliste.

 

Chain-of-Thought prompting : Si le Least-to-most prompting incarne la règle de la synthèse dans sa dimension progressive et constructive – partir du simple pour aller vers le plus complexe –, il est également possible de rattacher à ce même précepte une autre technique de prompting qui en explore une autre facette, non moins importante, qui est celle de la déduction. Nous avons en effet suffisamment souligné l'influence qu'ont jouée les mathématiques dans l'élaboration des règles de la méthode, laquelle transparaît nettement dans le passage du Discours qui suit la présentation des quatre règles pour en donner, en quelque sorte, un commentaire ramassé et la logique toute déductive qui les anime :

 

"Ces longues chaînes de raisons, toutes simples et faciles, dont les géomètres ont coutume de se servir, pour parvenir à leurs plus difficiles démonstrations, m'avaient donné occasion de m'imaginer que toutes les choses, qui peuvent tomber sous la connaissance des hommes, s'entresuivent en même façon et que, pourvu seulement qu'on s'abstienne d'en recevoir aucune pour vraie qui ne le soit, et qu'on garde toujours l'ordre qu'il faut pour les déduire les unes des autres, il n'y en peut avoir de si éloignées auxquelles enfin on ne parvienne, ni de si cachées qu'on ne découvre."

 

C'est exactement cette logique que l'on retrouve à l'œuvre dans la technique du Chain-of-Thought prompting, lequel reprend d'ailleurs très exactement l'expression cartésienne de "chaînes de raisons", puisqu'il s'agit d'inciter le modèle à détailler l'ensemble des étapes qui conduisent à un résultat donné, et à exhiber l'enchaînement des opérations logiques qui ont été réalisées dans la résolution d'un problème. Il est donc particulièrement adapté au traitement de problèmes de logique ou de mathématiques. On pourra ainsi, par exemple, demander au modèle de résoudre le problème existentiel suivant : "Les cinq septièmes d'un gâteau sont partagés en dix parts égales. Quelle fraction du gâteau total une part représente-t-elle ?", en lui demandant de fournir toutes les étapes intermédiaires qui ont structuré son raisonnement. Ou encore, dans le cadre d'un apprentissage, de résoudre une équation du type 2x + 3 = 11, et de lui demander d'expliquer chacune des opérations réalisées pour prouver l'égalité des deux termes.

 

Est-ce à dire que l'utilisation de la technique du Chain-of-Thought prompting n'est valable que dans les cas où le résultat attendu est logiquement contraignant et unique, comme c'est le cas pour des problèmes de raisonnement logique ou la résolution de problèmes mathématiques ? En d'autres termes, le Chain-of-Thought n'est-il applicable que si chacune des étapes d'un raisonnement découle nécessairement d'une étape précédente, comme c'est le cas d'un syllogisme correctement formé ? Il n'admettrait ainsi qu'un seul type d'argumentation, et réduirait du même coup tous les problèmes que nous nous posons dans le cadre de nos activités professionnelles et privées à des problèmes de logique formelle. Ce qui n'est naturellement pas le cas, et n'était pas du tout l'intention de Descartes, qui prenait davantage les mathématiques comme une école de rigueur que comme une sorte de sésame pour traiter tous les problèmes du monde.

 

Or le Chain-of-Thought peut être aussi utilisé dans des registres argumentatifs autres que ceux de la logique ou des mathématiques, dans le but d'exhiber la logique sous-jacente au modèle et le raisonnement précis qu'il a suivi pour aboutir à une solution. On pourrait ainsi décrire à un modèle la situation d'une entreprise, et lui demander quelle pourrait être la meilleure option stratégique à suivre, en listant de façon exhaustive toutes les options possibles, en examinant les points forts et les points faibles de chacune d'elles, et en justifiant sa réponse finale. Dans le cadre d'un problème de philosophie classique comme la question du bonheur par exemple, lequel ne peut pas être simplement réduit à un exercice de logique formelle, on pourra demander au modèle d'exposer un raisonnement étape par étape, en partant d'une définition commune du bonheur — la doxa, c'est-à-dire l'opinion commune —, puis d'examiner et de confronter une à une toutes les grandes théories, pour finalement conclure de façon argumentée.

 

Le prompt engineering est une discipline non figée et en expansion rapide, qui va continuer à évoluer avec les modèles dans les années à venir. En à peine moins de cinq ans, les chercheurs et praticiens ont développé une véritable boîte à outils de techniques variées, chacune conçue pour résoudre un problème ou répondre à des problématiques spécifiques qui n'ont finalement que la curiosité, l'imagination et l'expérimentation pour limite. Loin d'encourager à la délégation et à l'abdication de nos facultés cognitives qu'il s'agit de préserver, voire de protéger à tout prix, les modèles de langue peuvent aussi servir de formidables moyens pour stimuler la réflexion, approfondir des sujets, réaliser des découvertes et investiguer de nouvelles idées que nous n'aurions pas même pu envisager il y a peu. À condition de ne pas ignorer le caractère fondamentalement ambivalent que recèle l'usage de toute technique — à la fois remède et poison (voir mon article Le projet techno-utopiste de Dario Amodei à l'épreuve de la philosophie de la technique de Jacques Ellul, et notamment la notion essentielle de « Pharmakon ») —, et d'apprendre à les utiliser de telle sorte qu'ils stimulent la réflexion, plutôt qu'ils ne la paralysent.

 

En tant que technique d'expression de soi au même titre que l'écriture, la peinture, la photographie ou encore le cinéma, les modèles linguistiques ne constituent en aucun cas des systèmes qu'il suffirait d'utiliser à bon escient et conformément à leur mode d'emploi pour neutraliser les effets négatifs qu'ils pourraient potentiellement avoir sur les individus et la société. À ce titre, l'arrivée dans l'histoire de nouvelles techniques d'expression et leurs effets sur les processus mentaux (mémoire, imagination, attention, réflexion, etc.), la pensée créative, les productions intellectuelles et les pratiques culturelles, mériterait plus que jamais d'être étudiée en profondeur pour pouvoir envisager avec un peu plus de circonspection l'ampleur et la nature des changements que les IA génératives pourraient produire sur les sociétés. Plutôt que de céder à l'urgence et au catastrophisme qui opposent en quelque sorte aujourd'hui deux camps — ceux qui pensent qu'il faut rapidement tout changer et réagir au plus vite sous peine d'être déclassés, et ceux qui pensent au contraire qu'il faut à tout prix résister, précisément au nom de la préservation d'une pensée critique plus que jamais menacée, aussi bien que l'art, la littérature, la philosophie, la culture et l'idéal d'émancipation hérité des Lumières —, force est de constater que nous sommes face à un dilemme qui met les deux camps dos à dos.

 

D'un côté, nous savons qu'il sera difficile, pour ne pas dire impossible, d'arrêter la révolution en marche. Et c'est précisément au nom du changement et de la nécessaire adaptation qu'il implique que les partisans des réformes radicales en appellent, souvent à juste titre, à la déconstruction et à la réforme des institutions actuelles (l'école, l'enseignement, le monde du travail, les systèmes sociaux, les organisations politiques, les modes de participation démocratique, etc.). D'un autre côté, nous sommes actuellement incapables de proposer des alternatives documentées et incontestables du fait de la brutalité des révolutions technologiques en cours et de leur vitesse de propagation, qui semble prendre tout le monde de court. Ce dilemme est symptomatique de toutes les grandes révolutions industrielles et technologiques et prend, à la période actuelle, une acuité particulière.

 

Pour ma part, je ne crois pas que la résistance forcenée au changement et l'interdiction de technologies dont la prolifération semble inévitable constituent une solution viable dans le temps. Je ne pense naturellement pas non plus qu'il faille accueillir tout progrès technique de façon béate, dont l'extase précisément nous ferait oublier le danger potentiel qu'il recèle. Une voie plus raisonnable est donc de comprendre leur mode de fonctionnement, de les penser à la fois comme remède et poison — le pharmakon —, et d'apprendre le plus possible à les utiliser à bon escient.

 

 

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page