Pour une IA de type "socratique".
- francknegro1900
- 1 sept.
- 5 min de lecture
Dernière mise à jour : 18 sept.
Fort de l’expérience acquise au cours de ces dernières années et des études de plus en plus nombreuses sur les effets des outils numériques sur les capacités cognitives humaines, d’aucuns alertent aujourd’hui sur les risques de perte progressive d’autonomie que nous subirions du fait de l’usage généralisé des outils d’intelligence artificielle, en particulier des IA génératives. En d’autres termes, à force de déléguer des tâches habituellement réalisées par des humains, nous deviendrions de plus en plus dépendants de ces IA et, de ce fait, perdrions des capacités aussi fondamentales que l’attention, la mémoire, mais aussi et surtout la capacité à raisonner et à argumenter. Bref, nous serions de moins en moins capables de penser par nous-mêmes. C’est ainsi tout le processus de recherche d’information et notre rapport à la connaissance qui est questionné, rappelle Ngaire Woods (professeure d’économie à l’université d’Oxford.) dans une tribune au journal Le Monde du 02 septembre 2025.
En effet, l’avènement du web au début des années 1990, puis le développement dans la foulée des moteurs de recherche avec le "moment Google" à la fin de cette même décennie, avaient déjà largement changé la façon dont nous accédions désormais à l’information et construisions, du même coup, notre connaissance du monde. Le web et les outils connexes qu’il charriait accréditaient l’idée promue par ses fondateurs d’un accès désormais illimité et à faible coût à un stock de connaissances jamais égalé dans l’histoire de l’humanité. Ébahis dans un premier temps par cette promesse, nous n’entrevoyions pas encore ce que le web allait progressivement devenir dès le début des années 2000, avec notamment, l’avènement des premiers réseaux sociaux et le lancement de LinkedIn en 2003, puis surtout de Facebook en 2004.
C’est à ce moment-là que nous sommes passés, nous disent les historiens, d’un web des origines, principalement statique et fondé sur la consultation de contenus créés par des professionnels ou des institutions (Web 1.0), à un web dit « 2.0 », qui voit également l’essor des blogs et des forums. Ces derniers allaient dorénavant permettre aux internautes non seulement de consommer passivement des contenus, mais aussi de les créer, de les commenter et, surtout, de les partager. Était propulsée au même moment une notion entrée depuis dans le langage courant : celle de « Big Data ». Celle-ci était en fait apparue pour la première fois dans des articles scientifiques de l’Association for Computing Machinery (ACM) en octobre 1997, pour désigner des ensembles de données si volumineux, variés et générés à une telle vitesse (d’où le fameux triptyque généralement associé au terme : "volume", "vélocité" et "variété", auxquels il est coutume d’ajouter la "véracité" et la valeur), qu’il était impossible de les analyser avec des outils et des méthodes traditionnels de gestion et d’analyse de données (bases de données de type SQL, serveurs centralisés limités en capacité de stockage et de calcul, etc.).
Dans ce cadre, une application allait jouer un rôle central pour tous les internautes que nous sommes : les moteurs de recherche. Il était en effet absolument nécessaire, comme le rappelle la déclaration de mission de Google, créé en 1998, "d’organiser l’information mondiale et de la rendre universellement accessible et utile". En d’autres termes, faciliter l’accès à la connaissance pour le plus grand nombre de personnes possible, quelle que soit la langue utilisée pour formuler des requêtes. La sortie de l’iPhone au début de l’année 2007 allait amplifier ce phénomène, en offrant la possibilité de consulter Internet partout et à tout moment. Il devenait alors possible de parler d’un accès à l’information qui était tout à la fois "universel", "immédiat" et, surtout, "mobile".
Ce que pointe en filigrane la chronique de Ngaire Woods, c’est le lien consubstantiel qui existe entre la façon dont nous accédons aux connaissances et la mobilisation des capacités cognitives que cette activité implique. En d’autres termes, la manière dont nous accédons au savoir a une incidence significative sur le type de capacités cognitives mobilisées et donc, sur le développement ou la perte de certaines compétences. C’est ce lien que vient en quelque sorte questionner le lancement et l’usage croissant d’outils d’IA générative comme ChatGPT, Gemini ou DeepSeek. Lorsque nous recherchions de l’information sur le web, il nous fallait auparavant faire l’effort de fouiller parmi les dizaines de pages renvoyées sous forme de "liens bleus" par les moteurs de recherche, en prenant soin non seulement d’évaluer chacune des sources, mais aussi de sélectionner les plus pertinentes, puis de lire chacune d’entre elles afin de pouvoir élaborer notre propre synthèse.
Or, c’est précisément ce processus que remettent en question les IA génératives ou les nouvelles expériences de recherche de type Google SGE (Search Generative Experience). Il suffit désormais de poser des questions en langage naturel et d’obtenir en retour toutes les informations dont nous avons besoin, sans prendre nous-mêmes la peine de les rechercher, de les collecter et de les synthétiser. C’est en gros la machine qui prend désormais en charge l’ensemble du processus de traitement de l’information, si bien que nous n’avons plus à faire l’effort d’analyse cognitive et de synthèse mentale que requérait l’usage des moteurs de recherche d’autrefois. En simplifiant à l’excès et en rendant toujours plus transparent l’accès à l’information et à son traitement, nous prenons ainsi le risque de déléguer à des IA un nombre toujours plus important de fonctions cognitives, de vivre sous la dépendance de ces outils et de perdre progressivement des capacités absolument essentielles à l’exercice de la pensée critique.
C’est sans compter, de plus, sur la complaisance des IA génératives qui sont, avant tout, entraînées, comme le rappelle Ngaire Woods, "à plaire et à rechercher l’approbation des utilisateurs", afin de réduire le plus possible les "frictions cognitives", pourtant absolument nécessaires pour aiguiser nos capacités intellectuelles. Pour une IA générative, en effet, chaque interaction avec un utilisateur constitue autant de rétroactions susceptibles d’influencer ses futures réponses. Or ces IA n’ont non seulement aucune compréhension sémantique des contenus qu’elles ingèrent, mais aucune idée non plus des notions de vérité et de fausseté. Elles ne font que produire du texte en se basant sur des corrélations statistiques entre les mots. Ainsi, un modèle peut considérer comme cohérentes avec son corpus d’entraînement initial des informations fausses si elles correspondent à des schémas plausibles appris durant la phase d’entraînement. En d’autres termes, il tend à s’aligner sur ce que dit la majorité des utilisateurs, sans se soucier du caractère véridique ou non de l’information.
Bien sûr, ces modèles vont certainement continuer à s’améliorer avec le temps. Peut-être les chercheurs réussiront-ils finalement à intégrer des mécanismes de vérification toujours plus sophistiqués qui rendront les IA un peu moins complaisantes vis-à-vis des utilisateurs, et en tout point exemplaires quant au caractère neutre et exact de leurs réponses. A condition de toujours accorder une importance capitale à la valeur de la vérité...
Nous pourrions ainsi rêver d’une IA de type "socratique" qui, à la manière du maître de Platon, poserait de plus en plus de questions et nous obligerait, à force de maïeutique, à questionner nos croyances et certitudes les plus ancrées. Bref, d’une IA à laquelle nous n’abandonnerions pas nos capacités cognitives et notre esprit critique, mais qui nous aiderait, au contraire, à le développer.

Commentaires