Pour une IA de type "socratique".
- Franck Negro

- 1 sept. 2025
- 5 min de lecture
Dernière mise à jour : 18 janv.
Fort de l’expérience acquise au cours de ces dernières années, et à la lumière d’études de plus en plus nombreuses sur les effets des outils numériques sur les capacités cognitives humaines, d’aucuns alertent aujourd’hui sur les risques de perte progressive d’autonomie que nous subirions du fait de l’usage généralisé des outils d’intelligence artificielle, en particulier des IA génératives. En d’autres termes, à force de déléguer à des systèmes artificiels des tâches habituellement réalisées par des humains, nous deviendrions de plus en plus dépendants de ces outils et perdrions, de ce fait, des capacités aussi fondamentales que l’attention et la mémoire, mais aussi — et surtout — la capacité à raisonner et à argumenter. Bref, nous serions de moins en moins capables de penser par nous-mêmes. C’est ainsi l’ensemble du processus de recherche d’information, et plus largement notre rapport à la connaissance, qui se trouve interrogé, comme le rappelle Ngaire Woods dans une tribune publiée dans Le Monde le 2 septembre 2025.
En effet, l’avènement du Web au début des années 1990, puis le développement, dans la foulée, des moteurs de recherche avec ce que l’on a appelé le "moment Google" à la fin de cette même décennie, avaient déjà profondément transformé la manière dont nous accédions à l’information et, ce faisant, dont nous construisions notre connaissance du monde. Le Web et les outils connexes qu’il charriait accréditaient l’idée, promue par ses fondateurs, d’un accès désormais quasi illimité et à faible coût à un stock de connaissances sans équivalent dans l’histoire de l’humanité. Ébahis dans un premier temps par cette promesse, nous n’entrevoyions pas encore ce que le Web allait progressivement devenir dès le début des années 2000, avec notamment l’essor des premiers réseaux sociaux et le lancement de LinkedIn en 2003, puis surtout de Facebook en 2004.
C’est à ce moment-là, nous disent les historiens, que nous sommes passés d’un Web des origines, principalement statique et fondé sur la consultation de contenus produits par des professionnels ou des institutions — le Web dit "1.0" —, à un Web qualifié de "2.0", marqué par l’essor des blogs et des forums. Ces derniers allaient désormais permettre aux internautes non seulement de consommer passivement des contenus, mais aussi de les produire, de les commenter et, surtout, de les partager. C’est également à cette période qu’est propulsée sur le devant de la scène une notion entrée depuis dans le langage courant : celle de "Big Data". Celle-ci était apparue pour la première fois dans des articles scientifiques de l’Association for Computing Machinery (ACM) en octobre 1997, afin de désigner des ensembles de données si volumineux, si variés et générés à une telle vitesse — d’où le fameux triptyque "volume", "vélocité" et "variété", auquel il est désormais d’usage d’ajouter la "véracité" et la "valeur" — qu’il devenait impossible de les analyser à l’aide des outils et méthodes traditionnels de gestion et d’analyse des données, tels que les bases de données relationnelles de type SQL ou les serveurs centralisés aux capacités limitées de stockage et de calcul.
Dans ce contexte, une application allait jouer un rôle absolument central pour l’ensemble des internautes que nous sommes devenus : les moteurs de recherche. Il était en effet indispensable, comme le rappelle la déclaration de mission de Google, fondée en 1998, "d’organiser l’information mondiale et de la rendre universellement accessible et utile". Autrement dit, il s’agissait de faciliter l’accès à la connaissance pour le plus grand nombre possible de personnes, indépendamment de la langue dans laquelle les requêtes étaient formulées. La sortie de l’iPhone, au début de l’année 2007, allait encore amplifier ce phénomène, en rendant possible la consultation d’Internet partout et à tout moment. On pouvait alors véritablement parler d’un accès à l’information à la fois universel, immédiat et mobile.
Ce que pointe en filigrane la chronique de Ngaire Woods, c’est le lien consubstantiel qui existe entre la manière dont nous accédons aux connaissances et la mobilisation des capacités cognitives que cette activité requiert. En d’autres termes, la façon dont nous accédons au savoir influe directement sur les facultés cognitives sollicitées et, par conséquent, sur le développement ou l’érosion de certaines compétences. C’est précisément ce lien que vient interroger l’essor et l’usage croissant d’outils d’IA générative tels que ChatGPT, Gemini ou DeepSeek. Lorsque nous recherchions auparavant de l’information sur le Web, il nous fallait fournir un effort cognitif consistant à explorer les dizaines de pages renvoyées sous forme de « liens bleus » par les moteurs de recherche, à évaluer la fiabilité des sources, à sélectionner les plus pertinentes, puis à lire et croiser ces contenus afin d’élaborer notre propre synthèse.
Or, c’est précisément ce processus que les IA génératives, ou encore les nouvelles expériences de recherche de type Google SGE (Search Generative Experience), viennent aujourd’hui remettre en question. Il suffit désormais de formuler une question en langage naturel pour obtenir en retour une réponse synthétique censée regrouper l’ensemble des informations pertinentes, sans que l’utilisateur ait à les rechercher, à les collecter ou à les hiérarchiser lui-même. En d’autres termes, la machine prend en charge l’intégralité du processus de traitement de l’information, si bien que l’utilisateur n’a plus à fournir l’effort d’analyse cognitive et de synthèse mentale qu’exigeait l’usage des moteurs de recherche traditionnels. En simplifiant à l’extrême et en rendant toujours plus transparent l’accès à l’information et à son traitement, nous prenons ainsi le risque de déléguer à des systèmes d’IA un nombre croissant de fonctions cognitives, de devenir dépendants de ces outils et de perdre progressivement des capacités essentielles à l’exercice de la pensée critique.
À cela s’ajoute la complaisance intrinsèque des IA génératives, lesquelles sont avant tout entraînées, comme le souligne Ngaire Woods, "à plaire et à rechercher l’approbation des utilisateurs", dans le but de réduire au maximum les « frictions cognitives », pourtant indispensables à l’aiguisement des facultés intellectuelles. Pour une IA générative, chaque interaction avec un utilisateur constitue en effet une rétroaction susceptible d’influencer ses réponses futures. Or ces systèmes ne disposent ni d’une compréhension sémantique des contenus qu’ils traitent, ni d’une conception propre des notions de vérité et de fausseté. Ils produisent du texte en s’appuyant sur des corrélations statistiques entre des mots et des séquences linguistiques. Il peut ainsi arriver qu’un modèle considère comme plausibles, car cohérentes avec son corpus d’entraînement, des informations pourtant factuellement fausses. En ce sens, il tend à s’aligner sur ce qui est statistiquement majoritaire, indépendamment du caractère véridique ou non des énoncés produits.
Bien entendu, ces modèles continueront très probablement à s’améliorer au fil du temps. Peut-être les chercheurs parviendront-ils à intégrer des mécanismes de vérification toujours plus sophistiqués, rendant les IA moins complaisantes à l’égard des utilisateurs et plus rigoureuses quant à l’exactitude de leurs réponses, à condition toutefois de maintenir une exigence forte à l’égard de la valeur de vérité.
Nous pourrions alors imaginer une IA de type "socratique" qui, à la manière de Socrate tel que le met en scène Platon, poserait sans cesse de nouvelles questions et nous contraindrait, par un exercice de maïeutique, à interroger nos croyances et nos certitudes les plus profondément ancrées. Bref, une IA à laquelle nous n’abandonnerions pas nos capacités cognitives et notre esprit critique, mais qui contribuerait, au contraire, à les renforcer et à les développer.
Commentaires