top of page
Rechercher

Le projet techno-utopiste de Dario Amodei à l’épreuve de la philosophie de la technique de Jacques Ellul.

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • il y a 21 heures
  • 51 min de lecture

Dernière mise à jour : il y a 6 heures

Contre-essai à partir de Machines of Loving Grace et The Adolescence of Technology de Dario Amodei.


Introduction générale. - En octobre 2024, Dario Amodei, cofondateur et CEO de la société Anthropic, publiait un court essai au titre énigmatique : Machines of Loving Grace. La note de bas de page à laquelle renvoie ce titre donne pourtant au lecteur une série d’indications importantes au prisme desquelles il est difficile de ne pas lire le texte. L’intitulé de l’essai d’Amodei fait en effet directement référence à un auteur et poète peu connu des lecteurs européens, généralement associé à la Beat Generation, à la contre-culture et au mouvement hippie des années 1960 : Richard Brautigan (1935-1984). Rendu célèbre à l’époque pour ses romans Trout Fishing in America (1967) ou In Watermelon Sugar (1968), tous deux traduits en français sous les titres La pêche à la truite en Amérique et Sucre de pastèque, l’œuvre de Brautigan s’inscrit dans le contexte plus large de la critique formulée par certains auteurs de la Beat Generation — Jack Kerouac, Allen Ginsberg ou William Burroughs — à l’égard du conformisme social, de la société matérialiste et de l’idéologie consumériste qui imprégnaient l’Amérique d’après-guerre. Ces courants allaient préparer le terrain à la contre-culture hippie des années 1960 qui, dans un contexte marqué par la guerre du Vietnam et les luttes pour les droits civiques, revendiquait des idéaux de paix, d’amour libre, de rejet de la société de consommation, mais aussi la recherche de formes alternatives de vie communautaire, nourries notamment par l’intérêt pour certaines philosophies orientales et l’expérimentation de substances psychédéliques.

 

C’est précisément dans ce contexte, et comme un emblème de cette période aujourd’hui partiellement oubliée, que le poème de Brautigan cité par Amodei, All Watched Over by Machines of Loving Grace, publié en 1967, fut écrit. Composé de trois strophes de huit courts vers chacune, le texte imagine un futur dans lequel la nature, les humains, les animaux et les ordinateurs coexisteraient en harmonie au sein d’une réalité hybride, mêlant des éléments appartenant à la fois au monde naturel et au monde artificiel de la technique. Brautigan y mobilise, de manière poétique, l’idée de cybernétique théorisée quelques années plus tôt par Norbert Wiener dans son ouvrage Cybernetics : Or Control and Communication in the Animal and the Machine (1948), traduit en français sous le titre La cybernétique. Information et régulation dans le vivant et la machine. Les concepts de rétroaction (feedback), d’autorégulation et de circulation de l’information dans des systèmes complexes — qu’ils soient biologiques, techniques ou sociaux — ont joué un rôle central dans le développement de l’informatique d’après-guerre. C’est précisément cet imaginaire cybernétique que Brautigan convoque pour proposer une vision techno-utopique du monde, où les ordinateurs ne sont plus seulement des instruments d’efficacité, mais aussi des vecteurs d’émancipation permettant de vivre une existence plus authentique, libérée des contraintes matérielles et du travail. C’est donc sous les auspices de Brautigan — qui préfigure en partie l’esprit techno-optimiste de la Silicon Valley, héritier paradoxal de la contre-culture des années 1960 et des débuts de la micro-informatique dans les années 1970 — qu’il convient d’aborder le texte de Dario Amodei.

 

Son sous-titre indique d’ailleurs assez bien les intentions de son auteur : réfléchir aux impacts futurs de l’intelligence artificielle dans un sens qui pourrait se révéler profondément bénéfique pour l’espèce humaine. Il s’agit en effet moins d’un exercice de prospective technologique au sens strict que d’une réflexion sur ce que pourrait être une trajectoire désirable du développement de l’IA, lorsque celle-ci est guidée par des normes, des valeurs et des lignes directrices susceptibles d’orienter son devenir. D’où le qualificatif d’essai de "prospective normative" auquel il est possible de rattacher le texte, puisqu’il ne se contente pas d’anticiper des transformations technologiques possibles, mais d’en proposer une perspective à la fois éthique et politique. S’il n’adopte pas la forme conventionnelle et universitaire d’un essai académique, le texte proposé par Dario Amodei n’est pas sans présenter, au moins dans ses intentions, des affinités avec la philosophie politique de tradition utopiste, puisqu’il accorde une place centrale, non seulement à des questions classiques de justice et de gouvernance, mais également à celle de la construction d’une société collectivement souhaitable dans un monde où nous aurons à cohabiter avec des IA avancées.

 

Rappelons à ce titre que le terme "utopie", forgé par Thomas More (1478-1535), est formé à partir du grec ou (préfixe privatif) et topos, qui signifie « lieu », soit, littéralement: "ce qui n’est d’aucun lieu". Si, dans son sens ordinaire, le mot renvoie à un projet irréalisable, il peut prendre, en philosophie politique, une acception plus positive, pour désigner non plus une chimère, mais la tentative de décrire une organisation sociale, sinon idéale, du moins souhaitable. Dans cette perspective, l’utopie ne serait plus seulement une rupture avec le réel, mais une autre manière de penser le changement — une idée régulatrice au sens kantien du terme — et de proposer une alternative au monde présent. C’est précisément ce que suggère l’essai de Dario Amodei, démarche relativement peu commune de la part d’un dirigeant issu d’une société technologique de la Silicon Valley, qui s’apprête à faire rentrer en bourse la société qu’il a co-fondé.

 

Ce dernier part en effet d’un double constat : celui d’une sous-estimation fréquente de l’ampleur des risques associés au développement d’IA de plus en plus performantes, mais également des avantages potentiellement radicaux qu’elles pourraient produire du point de vue d’avancées civilisationnelles majeures. C’est sur ce second aspect qu’il choisit de centrer sa réflexion, en posant la question suivante : à quoi pourrait ressembler un monde dans lequel le développement d’une IA puissante parviendrait à produire des bénéfices considérables pour l’humanité, tout en évitant une partie des effets négatifs qui nourrissent aujourd’hui nos inquiétudes ?

 

Je me propose ici de suivre dans un premier temps la chronologie du texte d’Amodei, en clarifiant: 1) le concept polysémique d’IA puissante, qu’il préfère au terme de "superintelligence", sans doute moins polémique, ainsi que les hypothèses relatives à la vitesse de transformation du monde par une IA puissante, telles qu’envisagées par lui; 2) les transformations profondes — de nature civilisationnelle et anthropologique — induites par l’émergence d’une IA puissante dans les cinq domaines privilégiés par le CEO d’Anthropic, à savoir : biologie et santé physique ; neurosciences et santé mentale; développement économique et lutte contre la pauvreté ; paix et gouvernance ; travail et sens ; 3) l’introduction d’une philosophie de l’histoire sous-jacente, pensée comme la transition d’une phase d’adolescence vers une phase adulte de la technologie, telle qu’elle apparaît dans un texte récent faisant écho au premier, The Adolescence of Technology ; pour ensuite 4) proposer une dernière partie, plus critique, opposant la philosophie de la technique présupposée par les textes d’Amodei — laquelle postule la thèse, en apparence paradoxale, d’un déterminisme du développement technologique accompagné d’une prétention à la gouvernabilité des risques — à la philosophie de la technique de Jacques Ellul (1912-1994), telle que présentée notamment dans mon article : Les six caractéristiques du monde de la technique selon Jacques Ellul.

 

IA puissante et transformation du monde : hypothèses de base. – Quelle est en effet la logique argumentative d’Amodei ? En d’autres termes, sur quelles hypothèses de départ dresse-t-il le scénario de transformation des cinq domaines cités ci-dessus, qui constitue in fine le cœur de son essai ? Deux piliers préalables servant de cadre à son analyse prospective sont ici invoqués : 1) une définition de type opératoire de l’IA dite "puissante", qu’il circonscrit au travers de six caractéristiques fonctionnelles que nous allons rapidement détaillée ; et, sur cette base, 2) un modèle d’accélération du progrès scientifique rendu possible par l’IA puissante — hypothèse avancée à titre exploratoire et non comme une vérité scientifique avérée —, permettant d’ancrer son scénario dans un horizon temporel d’environ dix années après l’arrivée d’une telle IA. Autrement dit, le point (2) n’est envisageable que si le point (1) est validé.

 

Il faut donc commencer par envisager la vision de l’évolution de l’IA telle qu’elle est actuellement pensée vers une IA puissante, qu’Amodei tire à n’en pas douter — au moment où il publie son texte, soit en octobre 2024 — des recherches en cours au sein des laboratoires d’Anthropic. Que veut dire son CEO lorsqu’il parle d’IA puissante ? Et en quoi cette notion s’écarte-t-elle des concepts plus théoriques d’Intelligence Artificielle Générale (AGI) ou de "superintelligence", tels qu’ils sont envisagés par des personnalités comme Sam Altman ou Mark Zuckerberg ?

 

S’il est fréquent en effet d’entendre dans la presse ou entre spécialistes des expressions devenues communes comme "IA faible", "IA forte ", "intelligence artificielle générale (AGI)" ou encore "superintelligence", il n’existe pas, à ce jour, parmi la communauté des experts, de définitions claires et consensuelles de ces termes. Tout au plus existe-t-il des définitions génériques reflétant des usages qui structurent une grande partie des débats et des recherches sur l’intelligence artificielle, ainsi que sur ses capacités actuelles et futures.

 

Bien plus que de simples querelles sémantiques, le débat sur les définitions est d’autant plus important qu’il permet, d’une part, d’éviter les confusions entre les progrès réels de l’IA actuelle dite "IA faible" et les spéculations autour de ce que l’on appelle l’intelligence artificielle générale, la superintelligence et l’IA forte ; d’autre part, de questionner de façon précise les implications sociétales et philosophiques que renferme la signification de chacun de ces termes. Autrement dit, les distinctions entre IA faible, AGI, superintelligence et IA forte sont fondamentales pour comprendre les avancées et les limites de l’IA. Encore faudrait-il s’entendre sur les termes "intelligence", "intelligence humaine", "capacités cognitives", etc., ce qui relève précisément d’un ensemble de disciplines académiques regroupées sous le vocable de "sciences cognitives" : la psychologie (notamment la psychologie cognitive), la philosophie (philosophie de l’esprit), la linguistique, les sciences humaines et sociales, les neurosciences et l’intelligence artificielle.

 

À défaut de faire l’objet de définitions précises, la liste des termes évoqués raconte surtout, lorsqu’ils sont mis dans un ordre chronologique adéquat, le récit techno-philosophique de l’évolution de l’IA tel que se le représentent notamment les entreprises d’IA de premier plan comme OpenAI, Meta, Alphabet ou Anthropic. Dans ce cadre, quatre expressions reviennent le plus souvent sur le devant de la scène. Elles peuvent parfois se chevaucher selon les auteurs, mais il est bon de les avoir à l’esprit pour comprendre les débats en cours :

 

  • IA faible (Narrow ou Weak AI) : C’est l’IA telle qu’elle existe aujourd’hui. L’IA faible désigne des systèmes conçus pour accomplir des tâches uniques et spécifiques, sans conscience ni compréhension réelle de ce qu’ils font. En d’autres termes, une IA faible ne possède pas de capacité générale d’intelligence comparable à celle d’un humain et reste spécialisée dans un domaine d’application précis, même si elle peut apprendre à partir de données dans le cadre pour lequel elle a été conçue. À titre d’exemples, on peut citer des assistants vocaux comme Siri ou Alexa, dont la vocation est de répondre le mieux possible aux questions posées par les utilisateurs; les systèmes de recommandation sur un site de commerce en ligne, chargés de déterminer les préférences d’achat et de proposer en conséquence des produits ciblés ; des systèmes de reconnaissance d’images pour trier des photos ; des filtres antispam pour détecter automatiquement les courriels indésirables ; les moteurs de recherche pour proposer des contenus en lien avec une requête donnée, etc.

  • AGI (Artificial General Intelligence) : L’intelligence artificielle générale, ou AGI pour Artificial General Intelligence, constituerait le second grand moment de l’histoire de l’intelligence artificielle. Il s’agirait de l’étape venant après l’IA faible et préparant le moment auquel aspirent aujourd’hui la plupart des grandes sociétés technologiques américaines : celui de la superintelligence. Si l’IA faible est spécialisée dans une tâche ou un problème particulier, l’AGI désigne une catégorie de systèmes capables d’accomplir toutes les tâches intellectuelles qu’un humain peut réaliser, avec une capacité d’adaptation et de généralisation à de nouveaux contextes. Bien qu’elle n’existe pas à l’heure actuelle, l’AGI est le plus souvent considérée comme un objectif intermédiaire entre l’IA faible et la superintelligence.

  • Superintelligence : Le terme « superintelligence » renvoie à une forme d’intelligence capable de réaliser toutes les tâches cognitives qu’un être humain peut accomplir, mais d’une manière telle qu’elle dépasserait largement les performances des meilleurs cerveaux humains dans tous les domaines, y compris ceux que l’on attribue généralement aux humains seuls, comme la créativité, le bon sens pratique ou encore, l’intelligence sociale et comportementale. Il n’existerait ainsi qu’une différence de degré — et non de nature — entre l’intelligence artificielle généraliste et la superintelligence, si bien que certains auteurs ne jugent pas nécessaire de les distinguer. D’autres préfèrent conserver la distinction et utiliser le terme "AGI" pour désigner un stade intermédiaire nécessaire à l’émergence d’une superintelligence, cette dernière marquant un saut qualitatif tel qu’elle pourrait faire preuve d’un niveau d’autonomie avancé, en étant capable de s’améliorer d’elle-même de façon constante et exponentielle. D’où les risques de perte de contrôle sur lesquels alertent de nombreux chercheurs en intelligence artificielle.

  • IA forte (Strong AI) : Enfin, l’IA forte désignerait une intelligence artificielle qui ne se contenterait pas de mimer l’intelligence humaine ou de surpasser l’humain dans tous les domaines, mais qui posséderait en plus, au même titre que ce dernier, sinon une conscience phénoménale — c’est-à-dire la dimension vécue et strictement subjective de l’expérience consciente —, à tout le moins une « conscience de soi », ce que les philosophes de tradition continentale appellent  "conscience psychologique", laquelle peut être plus ou moins réfléchie, par distinction avec la conscience morale, qui juge nos pensées et nos actions en fonction des valeurs admises dans une société donnée.

 

Ces quatre notions, de nature quasi narrative et sans véritable consistance scientifique — si ce n’est pour jouer un rôle heuristique — servent davantage à structurer l’imaginaire historique de l’intelligence artificielle qu’à valider de façon opérationnelle un projet de recherche. Or, ce que cherche à proposer Amodei au travers du concept "d’IA puissante", c’est une définition avant tout opératoire de l’IA, plutôt que littéraire ou philosophique. En d’autres termes, il s’agit de fournir une liste de caractéristiques fonctionnelles qui agissent comme autant de critères empiriquement contrôlables permettant de circonscrire — sinon de valider scientifiquement — la notion d’IA puissante. Il en propose six:

 

  • Intelligence : En tout premier lieu, une IA puissante serait plus performante que n’importe quel lauréat du prix Nobel dans la plupart des domaines jugés pertinents aux yeux d’Amodei, comme la biologie, les mathématiques, l’ingénierie, la programmation ou encore l’écriture de romans. Mis à part le dernier domaine mentionné, dont j’attends impatiemment le jour où une IA sera capable d’écrire un chef-d’œuvre qui surpasse en tout point À la recherche du temps perdu de Proust… (ce que semble suggérer le texte du CEO d’Anthropic), les exemples mentionnés par Amodei sont naturellement corrélés à ceux qu’il se propose d’explorer par la suite, puisqu’il s’agit avant tout d’accélérer les découvertes scientifiques, en premier lieu dans les champs de la biologie et de la santé — tant physique que mentale — auxquels il associe plus largement les neurosciences et les sciences de l’esprit. Dans cette perspective, la notion d’IA puissante fonctionne comme une reformulation opératoire de l’idée de superintelligence, non pas envisagée comme une hypothèse spéculative, mais comme un seuil fonctionnel caractérisé par un niveau de performance cognitive surhumaine dans une pluralité de domaines que l’auteur évoque au travers de quelques exemples, sans circonscrire véritablement le périmètre disciplinaire.

  • Interfaces : Une IA puissante ne se caractérise pas seulement par une intelligence surhumaine et une capacité à traiter avec brio des problèmes complexes que même des lauréats du prix Nobel n’arriveraient pas à résoudre, mais également par sa faculté à manipuler et à utiliser, mieux que n’importe quel être humain, tous types d’interfaces numériques, comme un clavier, une souris ou d’autres interfaces graphiques, afin de naviguer sur le web, rédiger une note de synthèse, consulter de manière autonome des bases de connaissances ou encore participer à des visioconférences. Il ne s’agirait donc plus seulement d’un simple assistant conversationnel ou autre générateur de contenus multimodaux — cas des LLM —, mais d’un agent autonome capable d’agir directement dans l’environnement numérique par l’intermédiaire de ces interfaces. En d’autres termes, une IA puissante surpasserait de loin n’importe quel humain dans ses interactions avec le monde numérique, même si, là aussi, Amodei se contente d’exemples non exhaustifs, proches de ce que l’on désigne aujourd’hui sous les termes "d’agent IA" ou "d’agentivité informatique".

  • Autonomie: Ce qui nous conduit tout droit vers la troisième caractéristique d’une IA puissante, à savoir sa capacité à exécuter en toute autonomie des tâches qui pourraient prendre des heures, voire des jours ou des semaines à un être humain — bref, à réaliser ce que font généralement des employés hautement qualifiés, selon les termes mêmes d’Amodei. Ce point fait naturellement écho à la notion centrale de "time horizon", ou horizon temporel de tâche, élaborée par des chercheurs du METR (Model Evaluation and Threat Research) dans un article publié sur la plateforme arXiv le 30 mars 2025, soit à peine cinq mois après l’essai du cofondateur d’Anthropic (voir mon article: Mesurer l’autonomie opérationnelle des agents IA: jusqu’où automatiser le travail humain?). Là encore, la notion d’autonomie telle que définie par Amodei reste relativement floue, puisque non seulement le "time horizon" envisagé oscille entre plusieurs heures et plusieurs mois, mais qu’à aucun moment les tâches ne sont véritablement spécifiées.

  • Monde physique: Quatrième caractéristique de l’IA puissante, sa capacité à mobiliser, piloter et coordonner des ressources physiques à distance (robots, équipements de laboratoire, ordinateurs, etc.) en vue de l’atteinte d’un objectif donné, sans avoir elle-même d’incarnation physique propre. Elle pourrait prendre l’initiative de concevoir et de construire les machines nécessaires à la réalisation de cet objectif. Dario Amodei ne fait pas ici allusion à des robots humanoïdes, mais à des agents IA logiciels capables d’agir, d’interagir et de commander à distance, via des interfaces numériques, tous types d’outils externes, dont l’environnement d’exécution qu’il a à l’esprit semble évoquer le laboratoire de recherche. On peut donc imaginer des agents susceptibles de mener des recherches et des expérimentations sans aucune intervention humaine directe.

  • Instances: La cinquième caractéristique évoquée par Amodei renvoie à la notion centrale « d’instances », soit la possibilité de faire tourner parallèlement des milliers, voire des millions d’exemplaires d’un même modèle d’intelligence artificielle — ses instances —, dans le but de réaliser un nombre toujours plus important de tâches, et de façon toujours plus rapide. Cette hypothèse n’étant limitée que par des contraintes issues du monde physique, comme la puissance de calcul disponible, l’énergie consommée, la quantité de chaleur générée ou encore la qualité de réseau nécessaire aux transferts rapides de données. Amodei ne précise pas si la multiplication des instances serait pilotée et contrôlée par des humains, ou gérée de façon autonome par les modèles eux-mêmes, qui pourraient évaluer à tout moment les capacités de calcul dont ils disposent et décider de se démultiplier pour atteindre plus rapidement un objectif donné. Si le cofondateur d’Anthropic laisse entrevoir cette possibilité, il ne l’explore pas explicitement ici, pas plus qu’il n’y déploie une analyse détaillée des risques potentiels qu’une telle IA avancée pourrait soulever. Ces questions feront précisément l’objet de son second essai, The Adolescence of Technology, sur lequel nous reviendrons un peu plus tard.

  • Collaboration: Et enfin, sixième et dernière grande caractéristique d’une IA puissante — laquelle fait largement écho à la dimension systémique et industrielle déjà évoquée dans la cinquième caractéristique —, sa capacité à collaborer avec d’autres modèles d’IA, de même nature ou complémentaires, en fonction des tâches qu’elle a à réaliser pour l’atteinte d’un objectif donné. Dario Amodei a tout simplement ici à l’esprit l’exemple d’une organisation humaine dont il ne précise pas véritablement l’échelle, se contentant de prendre l’illustration, je cite, "d’équipes humaines spécialisées". L’invocation de millions d’instances pouvant agir indépendamment ou de façon collaborative laisse pourtant présager la prise en charge d’un nombre de tâches tel qu’il devient possible d’imaginer l’automatisation du travail d’une organisation de grande taille que le texte d’Amodei ne nous permet pas de spécifier davantage.

 

Si l’on voulait tenter une synthèse quelque peu laconique — et certainement réductrice — du concept d’IA puissante, on pourrait dire qu’il rassemble les attributs d’une intelligence surhumaine — ce que suggère précisément le terme de superintelligence —, mais incarnée de façon opérationnelle dans une architecture technique distribuée (serveurs, CPU, GPU, unités de stockage, bases de données, microservices, API, applications métiers, etc.), composée notamment d’agents IA capables d’agir, de se démultiplier et de collaborer ensemble à très grande échelle, comme l’explicite la métaphore fréquemment employée par Dario Amodei : celle "d’un pays de génies (les modèles d’IA) dans un centre de données".

 

Dans une interview récente, en compagnie de Demis Hassabis (cofondateur et CEO de Google DeepMind), qu’il donne au Forum économique de Davos le 20 janvier 2026, intitulée "The Day After AGI", le CEO d’Anthropic affirme l’arrivée plus qu’imminente d’une IA puissante, telle que définie dans son essai de 2024. Il y dévoile surtout la stratégie de développement mise en œuvre par Anthropic pour y parvenir. Celle-ci repose sur une logique d’automatisation accélérée du développement technologique et scientifique comprenant deux temps forts : 1) le premier consiste à concevoir des modèles hautement performants dans les domaines de la programmation et de la recherche en intelligence artificielle ; 2) le second à utiliser ces mêmes modèles pour contribuer à la conception et à l’entraînement de modèles de nouvelle génération, instaurant ainsi une boucle d’auto-amélioration continue dont le but est d’accroître la vitesse de développement d’une IA dite "puissante". Il s’agit en quelque sorte d’instaurer un mécanisme d’auto-engendrement des modèles d’IA par eux-mêmes, ces derniers assurant à la fois les processus de recherche et de développement, mais aussi de programmation des nouveaux modèles.

 

Ce que Dario Amodei décrit, et qu’un Alexandr Wang, tout nouveau Chief AI Officer des Meta Superintelligence Labs du groupe Meta, interprète comme l’avènement d’une nouvelle ère de l’auto-amélioration récursive qui aurait émergée fin 2025 (source: interview donné à l’occasion du India AI Summit le 18 février), n’est ni plus ni moins qu’un processus de délégation progressive de la recherche et du développement de modèles d’IA, dont l’exécution tendrait à se déployer sans intervention humaine, avec toutefois pour ambition de créer un système technique autonome doté d’une intelligence "surhumaine" — "un pays de génies dans un centre de données" —, capable d’accélérer les découvertes scientifiques dans des domaines aussi vitaux que la biologie, la médecine et les neurosciences.

 

Ce point absolument central lui permet surtout d’avancer une seconde hypothèse, qui concerne non plus seulement l’intelligence artificielle comme objet technique, mais comme principe dynamique de transformation des structures mêmes de la recherche scientifique, et, par extension, des sphères technologiques, économiques et sociétales. Dans l’esprit qui est celui du CEO d’Anthropic, en effet, l’IA n’est pas seulement une invention technique exceptionnelle, mais un catalyseur de changement civilisationnel sans précédent. Et c’est précisément à cet endroit que la référence à Richard Brautigan — et à l’imaginaire techno-optimiste de la Silicon Valley qu’il préfigure — prend tout son sens. À la différence près que Dario Amodei ne se contente pas de proposer une lecture hypothétique des changements qu’induirait l’avènement d’une IA puissante, dont il vient de construire conceptuellement l’architecture, mais cherche à les inscrire dans un horizon temporel reposant — seconde hypothèse de son cadre d’analyse — sur une évaluation de la vitesse de transformation des cinq domaines de prédilection qu’il se propose d’examiner, à partir de "l’an 1" de l’IA puissante.

 

C’est de la science économique, cette fois-ci — dont il avoue être "un amateur éclairé" — et non plus de l’ingénierie informatique, qu’il tire l’inspiration de ce qui peut être assimilé à une forme d’accélération de l’histoire des découvertes scientifiques, laquelle deviendrait en même temps une accélération de l’histoire humaine tout court. Cette hypothèse repose sur un sous-entendu — largement défendable d’ailleurs — que Dario Amodei ne juge pas opportun d’interroger mais qui parcourt l’ensemble de son texte : celui d’une vision technocentrée de l’évolution historique, selon laquelle les innovations et le progrès technique constitueraient les principaux moteurs des transformations économiques, sociales, politiques et culturelles des sociétés humaines. Une telle conception — qui retraduit sous une autre forme l’idéologie techno-optimiste de la Silicon Valley — est d’ailleurs profondément ancrée dans le récit historique dominant en Occident. Elle structure la manière dont sont construits la plupart de nos manuels scolaires, lesquels organisent le plus souvent l’histoire autour de grands moments d’inflexion associés à des ruptures techniques majeures : paléolithique, néolithique, invention de l’écriture, de l’imprimerie, révolution scientifique des XVIᵉ et XVIIᵉ siècle, première, deuxième et troisième révolutions industrielles, etc.

 

Mais ce qui est ici plus original, et témoigne davantage d’une projection stratégique de type volontariste que d’une philosophie de l’histoire qui ne dit pas son nom, c’est la trajectoire hypothétique quasi datée qu’il trace de l’évolution historique. Il emprunte de façon analogique à l’économie deux concepts : 1) celui de facteurs de production (travail, capital, ressources) et 2) celui de rendements marginaux, entendu comme le gain obtenu lorsqu’on ajoute une ressource supplémentaire dans un processus de production donné.

 

Le premier lui permet de penser les facteurs d’inertie susceptibles de ralentir le progrès technique lorsqu’ils sont appliqués à l’intelligence artificielle — le temps de mise en place des infrastructures nécessaires à la conduite d’expériences scientifiques, le besoin de données fiables et validées par les chercheurs pour entraîner les modèles, les contraintes politiques, institutionnelles et réglementaires, etc. Le second sert davantage à expliciter l’idée d’un surplus d’intelligence produit par le déploiement d’une IA puissante telle que décrite précédemment. D’où l’usage de l’expression "rendement marginal de l’intelligence" qu’Amodei introduit pour suggérer les gains potentiels de productivité en recherche et développement qu’une augmentation significative des capacités cognitives artificielles serait susceptible d’engendrer.

 

Au risque de détourner quelque peu les propos d’Amodei dans le sens d’une lecture strictement économique qui n’est pas la sienne, puisque les concepts qu’il reprend de la science économique sont ici réinterprétés pour venir clarifier son propos, on pourrait néanmoins rapprocher le raisonnement qu’il fait de ce que les économistes appellent, depuis David Ricardo, la loi des rendements décroissants. Selon cette dernière, l’ajout croissant d’un facteur de production tend par faire diminuer les gains marginaux, et donc la productivité moyenne des facteurs. Pour prendre l’exemple simple d’un département informatique, l’ajout de développeurs sur un projet donné peut faire croître la productivité moyenne jusqu’au moment où l’ajout d’un développeur supplémentaire accroît le besoin de coordination et fait baisser la productivité moyenne de l’ensemble de l’équipe. Il existe donc un optimum correspondant au seuil de productivité moyenne maximale, au-dessus duquel l’ajout d’un facteur de production devient contre-productif. Appliqué à l’hypothèse d’Amodei, le facteur de production en question correspondrait alors non plus à du travail humain, mais à une augmentation du volume d’intelligence disponible au sein d’une architecture informatique distribuée, tandis que l’optimum équivaudrait au seuil au-delà duquel l’ajout d’instances d’IA ne produirait plus l’accélération des découvertes scientifiques escomptées.

 

Ces deux hypothèses de base, à savoir 1) l’avènement d’une IA puissante dotée de capacités cognitives supérieures à celles des meilleurs experts dans la plupart des domaines appartenant notamment à ce que l’on appelle communément les sciences dites "dures" (mathématiques, physique, chimie, biologie, neurosciences, informatique théorique, sciences de l’ingénieur, etc.) ; 2) la transformation corrélative du progrès scientifique et technologique du fait de l’augmentation contrainte mais massive des capacités cognitives artificielles (l’intelligence comme facteur de production), amènent Dario Amodei à formuler une troisième hypothèse : celle d’une accélération du temps des découvertes scientifiques selon un facteur dix. En d’autres termes, ce qui était jusqu’ici réalisé en un siècle pourrait désormais l’être, grâce à l’IA puissante, en quelques années (cinq à dix ans).

 

Cette troisième hypothèse, de nature conjecturale et spéculative, est davantage tirée de la lecture personnelle qu’il fait des progrès technologiques en cours que de faits ou de propositions scientifiquement démontrés. Ce qui tend à confirmer la dimension utopique de l’essai d’Amodei, mais sous la forme d’une utopie programmatique qui trouve son ancrage dans les possibilités concrètes qu’ouvrirait, selon lui, l’avènement d’une IA puissante. Amodei utilise l’image évocatrice du "siècle compressé" pour insister sur l’ampleur des transformations imminentes qu’une telle avancée provoquerait, lesquelles seraient moins de nature strictement technique qu’anthropologique et civilisationnelle.

 

C’est précisément pour donner un contenu concret à cette hypothèse du "siècle compressé" que le co-fondateur d’Anthropic entreprend d’examiner le devenir — à un horizon d’environ dix ans à compter de "l’an 1" de l’IA puissante — de cinq secteurs clés, en raison de leur influence directe « sur la qualité de vie humaine »: biologie et santé physique; neurosciences et santé mentale; développement économique et lutte contre la pauvreté; paix et gouvernance; travail et sens. Il imagine ainsi, dans chacun de ces domaines, le monde hypothétique d’une humanité transformée à l’ère de l’IA puissante, dans un contexte de maturité technologique supposée, caractérisé par un développement volontariste, encadré et régulé de millions d’instances d’IA, orientées vers la poursuite d’un bien commun présenté comme collectivement désirable.

 

De l’âge adulte à l’adolescence de la technologie. – Dans un essai plus récent publié sur son blog en janvier 2026, The Adolescence of Technology, lequel se présente comme le pendant négatif de Machines of Loving Grace, Amodei invoque l’idée de lois d’échelle (scaling laws), mais surtout celle d’un phénomène nouveau déjà évoqué plus haut, à savoir la boucle d’accélération (feedback loop), qui seraient toutes deux au fondement de la dynamique actuelle observée dans la performance exponentielle des modèles d’intelligence artificielle, jusqu’au moment fatidique et imminent de l’arrivée d’une IA puissante telle que définie dans Machines of Loving Grace. Selon la première idée, qu’il convient d’interpréter comme des régularités observées par les concepteurs de modèles au fil du temps, plutôt que comme des « lois scientifiques immuables » au sens strict du terme, il existerait une corrélation remarquable, empiriquement constatée, entre l’augmentation de certaines ressources — quantité de données, puissance de calcul, nombre de paramètres, etc. — et la performance des modèles. Le concept plus récent de "boucle d’accélération" ou "boucle de rétroaction" indique quant à lui l’idée que les IA seraient elles-mêmes de plus en plus impliquées dans la construction d’IA de nouvelle génération, jusqu’à réaliser une part toujours plus substantielle du travail habituellement effectuée par des développeurs, voire par des chercheurs.

 

On assisterait ainsi, au cours de ces dix dernières années, à une amélioration exponentielle, régulière, quasi prévisible des capacités cognitives des modèles d’IA, si bien que nous serions, selon lui, plus que jamais proches d’un moment de transition absolument inédit: un point de bascule historique et transformationnel entre ce qu’il appelle un âge de l’adolescence de la technologie et un âge adulte de la technologie. Tandis que le second décrit un état de maturité technologique souhaité, en tout point aligné avec des aspirations, des valeurs et des normes institutionnelles, le premier désigne, par contraste, moins un état qu’une phase historique transitoire, caractérisée par une asymétrie entre notre capacité à comprendre et à maîtriser pleinement les systèmes techniques que nous concevons et le cadre de gouvernance qui est le notre aujourd’hui.

 

Ainsi, le CEO d’Anthropic passe d’une projection civilisationnelle, proche d’une théorie techno-utopiste du devenir des sociétés humaines, qu’il développe dans son premier texte, Machines of Loving Grace, à une forme de philosophie de l’histoire techno-centrée qu’il poursuit dans son second essai, The Adolescence of Technology, puisque c’est la technique — considérée ici au moment de son stade quasi ultime d’auto-développement — qui constitue le facteur principal de transformation et de progrès de ces mêmes sociétés.

 

Chez Amodei en effet, comme beaucoup de figures intellectuelles et entrepreneuriales de la Silicon Valley, apparaît l’idée nouvelle d’un stade avancé, voire ultime du développement de la technique qui aurait déjà commencé – une ère de l’auto-amélioration récursive pour reprendre les termes récents d’un Alexandr Wang –, que l’on peut caractériser par le passage de la technique comme ensemble de moyens – outils, machines, instruments, robots industriels, etc. –, procédés, méthodes et savoir-faire hétéronomes (contrôlée in fine par des humains) mis en oeuvre pour transformer la nature et améliorer ses conditions de vie, à la technique comme moteur autonome (capable de prendre des décisions et régi par ces propres lois) d’accélération et de mutations civilisationnelles sans précédent. Ce que dit précisément le concept d’IA puissante (powerful AI), à la fois comme point d’arrivée critique du développement historique des techniques, mais aussi comme point de départ d’une ère de prospérité nouvelle.  

 

D’où la question centrale qui traverse tout le second essai de Dario Amodei: comment négocier au mieux ce qui nous sépare encore de cette "adolescence technologique" actuelle, vers un avenir fondamentalement positif qu’il avait commencé par esquisser dans Machine of Loving Grace? En d’autres termes, comment les sociétés humaines peuvent-elles faire face collectivement aux risques inévitablement contenus dans des systèmes techniques dont la puissance et les capacités cognitives croissent à un rythme bien plus rapide que notre propre capacité à les comprendre, à les encadrer et à les gouverner? Pour le CEO d’Anthropic en effet, cinq grandes catégories de risques nous séparent du projet techno-utopiste qu’il appelle de ces voeux. Je vais les parcourir ici rapidement, sans entrer dans le détail de chacun d’entre eux, avant de faire émerger une première caractéristique fondamentale de la technique et du progrès technique, que la lecture conjointe des deux textes d’Amodei permet de mettre en évidence.

 

  • Risques d’autonomie: ce sont les risques liés à la perte de contrôle d’une IA qui ne se comporterait plus conformément aux intérêts et aux valeurs humaines, voire déciderait d’agir dans le but de nuire à l’humanité (problème classique de l’alignement des valeurs). L’auteur évoque l’exemple, aujourd’hui documenté, d’IA imprévisibles reproduisant des comportements déjà observés, plus ou moins dissimulés, tels que l’obsession, la flatterie excessive, la tromperie, la triche ou encore le chantage. L’usage de termes empruntés à la psychologie, qui assimile en quelque sorte le processus d’entraînement d’une IA au processus de développement du comportement d’un individu, permet à Amodei d’insister sur le caractère non conventionnel que constitue un système d’IA, par opposition à un système technique « standard », dont il est logiquement possible d’anticiper et de circonscrire de façon précise l’ensemble des fonctionnalités et des comportements futurs. En d’autres termes — et c’est un point central à prendre en compte dans la mise en place d’un système de gestion des risques, a fortiori associés à des IA puissantes — l’IA constitue un genre d’objet ou de système technique dont les actions et réactions (intentions, conscience, émotions, etc.) ne sont pas entièrement déterministes. Elles peuvent ainsi adopter des comportements non désirés, y compris lorsqu’elles ont été entraînées à se conformer à des règles et à des valeurs éthiques clairement explicitées. D’où la nécessité, selon Amodei, de littéralement former "l’identité" et le "caractère" d’une IA, afin qu’elle puisse se comporter comme le ferait une "personne vertueuse" — référence implicite à une éthique des vertus telle que développée par un auteur comme Aristote dans son Éthique à Nicomaque — dans une grande variété de situations nouvelles.

  • Risques de mésusage. – ils ne sont plus liés au fonctionnement interne et imprévisible des modèles d’IA, mais aux usages malveillants qui peuvent être réalisés à partir de ces mêmes modèles, du fait de l’augmentation des capacités qu’ils confèrent à ceux qui les utilisent. En d’autres termes, l’accès généralisé à une quantité de capacité cognitive inégalée dans toute l’histoire de l’humanité fait simultanément tomber des barrières de compétence autrefois réservées à une minorité qualifiée d’experts dans certains domaines, et accroît, de façon corrélative, les risques d’exploitation malintentionnée de l’IA dans des secteurs particulièrement sensibles, comme la fabrication d’armes chimiques, biologiques ou nucléaires. C’est un peu comme si nous disposions tous, dans notre poche, de « petits génies » transformant chacun d’entre nous en expert potentiel dans n’importe quelle matière, pour le meilleur comme pour le pire. La démocratisation de l’accès à des connaissances et à des savoir-faire, qui peut être considérée au premier abord comme un acquis civilisationnel certain, s’avère être, au même moment, un élargissement quasi généralisé des capacités destructrices de chacun et pose la question sensible de la possibilité même d’une gouvernance institutionnelle des risques. En d’autres termes, l’usage responsable et éthique d’une telle capacité de nuire, dont le "coût cognitif marginal" tend vers zéro, est renvoyé à la sphère privée et à la conscience morale de chacun. Or, sommes-nous, en tant que société, suffisamment moralement matures pour faire un usage responsable d’une telle puissance cognitive, qui constitue simultanément une augmentation des capacités d’agir et de nuire?

  • Risques de consolidation autoritaire : des risques d’usages malveillants au niveau individuel, Amodei passe aux usages malveillants et abusifs réalisés par des acteurs collectifs de type institutionnel disposant d’une forme de légitimité juridique, comme les États, les organisations militaires ou encore les grandes entreprises. Ces derniers pourraient en effet utiliser l’IA puissante pour consolider leur pouvoir, étendre leur emprise sur les individus, voire contrôler l’accès à certaines ressources clés, telles que les centres de données, la puissance de calcul ou l’expertise technique. L’auteur pense en premier lieu à l’usage que pourraient faire des régimes autocratiques d’une telle puissance technologique, non seulement pour contrôler et surveiller leurs populations en palliant les limites humaines de l’organisation de la répression — Amodei évoque notamment le caractère non entièrement manipulable des personnes humaines, qui peuvent à tout moment désobéir aux ordres d’une hiérarchie, voire les dénoncer —, mais également pour dominer d’autres États ne disposant pas de capacités technologiques similaires. Le CEO d’Anthropic recense ainsi quatre moyens clés de ce qui pourrait ressembler à une forme "d’autocratie assistée par IA" ou "d’autocratie augmentée" : 1) les armes létales autonomes, sous la forme d’essaims de drones armés entièrement automatisés, non contrôlés par des humains ; 2) la surveillance permanente de l’écosystème numérique par l’IA, illustrée par l’idée de panoptique qu’Amodei emprunte au philosophe et juriste Jeremy Bentham ; 3) la propagande automatisée et la manipulation des esprits à grande échelle, rendues possibles par la connaissance intime que ces systèmes pourraient acquérir des individus ; 4) enfin, l’assistance stratégique par l’IA dans les domaines militaire, diplomatique et économique, à des fins de domination géopolitique. Ce que pointe ici Dario Amodei est moins le risque d’un usage instrumental des techniques à des fins de domination politique — phénomène déjà bien connu et largement documenté par les historiens spécialistes des régimes autoritaires —, que le risque d’une appropriation asymétrique et déséquilibrée de nouveaux moyens de contrôle et de répression, qui contribuerait à amplifier le pouvoir de nuisance des États autocratiques.

  • Risques de perturbations économiques : des risques sécuritaires — correspondant aux trois premières catégories — Amodei passe aux risques relatifs aux perturbations causées par le déploiement d’une IA puissante dans la sphère économique de la production, du travail et de l’emploi. Le cofondateur d’Anthropic développe l’idée paradoxale d’une sorte d’âge d’or de la création exceptionnelle de richesse — il avance l’hypothèse d’une accélération exponentielle de la croissance annuelle du PIB de 10 à 20 %, sans véritablement justifier à aucun moment des chiffres pourtant situés entre deux et quatre fois au-dessus de ceux qu’ont connus les pays industrialisés durant la période des Trente Glorieuses —, laquelle aurait simultanément pour conséquence de détruire massivement des emplois du fait d’un processus d’automatisation généralisée des tâches. Ce qui conduirait, en l’absence de mécanisme correcteur de la part des pouvoirs publics, à une concentration accrue du pouvoir économique et, par ricochet, du pouvoir politique entre les mains d’une élite ultra-riche. Amodei justifie cette perspective par quatre arguments destinés à montrer en quoi la révolution technologique actuelle serait différente des révolutions industrielles antérieures : 1) la brutalité de la transition et la vitesse sans précédent à laquelle elle devrait se dérouler, rendant quasi impossible l’adaptation parallèle des compétences, des institutions, des politiques publiques et des organisations ; 2) la substitution généralisée que la révolution de l’IA opère à la fois sur les dimensions intellectuelles et physiques du travail humain ; 3) le creusement des inégalités que l’IA tendrait à amplifier en "sélectionnant" les individus les plus qualifiés ou les plus adaptables aux changements ; 4) l’augmentation exponentielle observée des performances des IA, qui accélérerait progressivement mais rapidement le processus de substitution du travail humain par le travail machine.

  • Risques indirects déstabilisateurs : ils désignent enfin, dans une sorte de catégorie « fourre-tout » et non véritablement spécifiée, l’ensemble des effets indirects et imprévisibles qu’une IA puissante pourrait provoquer, en admettant que l’on ait mis sous contrôle tous les risques directs précédemment énumérés par Amodei. Ils sont par essence inconnus, puisqu’ils sont précisément impossibles à nommer et à circonscrire, du fait du caractère fondamentalement et partiellement imprévisible des impacts qu’une nouvelle technologie — en tant que composante indissociable d’un système plus vaste que l’on peut qualifier de "système socio-technique" — est susceptible d’exercer sur le système socio-technique existant qu’elle vient immanquablement perturber : individus, compétences, capacités cognitives, comportements, dynamiques de groupe, modes de socialisation, organisation du travail, émergence de nouvelles valeurs, régulation, institutions, environnement naturel, etc. S’il est donc impossible, étant donné la complexité du réel, de fournir une liste exhaustive des effets imprévisibles qu’une IA puissante pourrait produire sur les individus et sur la société, Amodei émet néanmoins, à titre d’hypothèse, une série d’effets indésirables susceptibles d’apparaître dans un monde pourtant parvenu à pleine maturité technologique. Un monde de « progrès compressé », dans lequel les effets bénéfiques de l’IA puissante, tels qu’il les décrit dans son premier essai Machines of Loving Grace, commenceraient à se manifester, et où aucun des risques directs identifiés dans The Adolescence of Technology ne se serait réalisé. Les effets indésirables dont il ne peut fournir que quelques exemples à titre illustratif — troubles psychologiques, perte de capacités cognitives, dépendance et addiction, perte de sens et de repères, etc. — apparaissent ainsi comme le pendant consubstantiel des effets bénéfiques qu’Amodei a lui-même théorisés dans son premier essai. Ils illustrent deux idées centrales sur lesquelles nous allons maintenant revenir : 1) le caractère foncièrement imprévisible des effets du progrès technique ; 2) l’ambivalence intrinsèque de ce dernier, qui produit simultanément, et sans qu’il soit possible de les anticiper entièrement, des retombées bénéfiques et des conséquences dommageables.

 

La technique comme pharmakon. – La mise en confrontation des deux textes de Dario Amodei illustre ainsi de façon exemplaire l’un des caractères les plus fondamentaux de la technique : son ambivalence. Celle-ci a été magistralement illustrée dans un passage célèbre de l’un des dialogues les plus fameux de Platon : le Phèdre. Tout enseignement sur l’éthique de la technique, et plus généralement sur l’éthique de l’intelligence artificielle et des algorithmes, devrait commencer par une réflexion sur le passage en question, connu sous le titre de mythe de Theuth (Phèdre, 274b-276b), une divinité à laquelle les Égyptiens attribuaient l’invention de plusieurs sciences et techniques, dont l’une fait précisément l’objet du passage : l’écriture. Peu importe de savoir si la légende racontée par Socrate est vraie ou fausse ; s’il s’agit, ou non, d’une invention de Platon. L’essentiel, comme toujours dans les mythes platoniciens, est ailleurs. Il s’agit d’illustrer de façon imagée ce que le genre argumentatif est moins propice à traiter lorsque la question porte sur un problème philosophique fondamental.

 

En prenant l’exemple d’une technique particulière, à savoir l’écriture, la question centrale qu’aborde en effet Platon, par la bouche de Socrate, et que les sociétés hypertechniciennes semblent avoir occultée, est la suivante : toute invention technique constitue-t-elle un progrès pour les sociétés humaines ? Dans les textes de Platon, le terme grec technè est généralement traduit par le mot "art", qu’il ne faut surtout pas entendre au sens moderne de "beaux-arts", mais comme un savoir-faire, ou une compétence acquise et réglée, visant à produire quelque chose avec méthode. Chez les Grecs, la technique désigne donc avant tout un savoir-faire, un moyen, ou une habileté à produire quelque chose, plutôt qu’un certain type d’objets (outils, machines, appareils, ustensiles, instruments, etc.).

 

L’exemple de l’écriture, pris par l’auteur de La République, n’est d’ailleurs pas anodin pour nous, puisque les historiens s’accordent à dire qu’il s’agit de l’une des inventions les plus importantes de l’histoire universelle, mettant fin à la période de la préhistoire et ouvrant, par la même occasion, le temps de l’histoire à proprement parler. Au même titre que l’IA puissante pour le CEO d’Anthropic, l’écriture introduit ainsi une rupture civilisationnelle dont nous étions encore, jusqu’à peu, les héritiers privilégiés, mais que l’avènement de l’IA générative vient en quelque sorte remettre en cause, en nous disputant une compétence qui semblait être jusqu’ici constitutive de notre humanité. Pour nous autres, contemporains de ChatGPT, de Claude et de Gemini, le mythe de Theuth acquiert soudain une résonance nouvelle qu’il n’avait pas encore avant l’apparition publique de ChatGPT 3.5.

 

Platon l’introduit naturellement dans un tout autre contexte. Les enseignements qu’il en tire sont pourtant, plus que jamais, d’actualité. À la question de savoir si l’écriture est un substitut adéquat à la parole vivante du philosophe, Socrate — personnage principal des dialogues de Platon — répond par une légende qu’il dit avoir autrefois entendue. Celle-ci raconte l’histoire d’une divinité dénommée Theuth venue rendre visite au roi d’Égypte, Thamous, afin de soumettre à son jugement l’utilité de chacun des arts — au sens du mot technè rappelé plus haut — dont il était l’inventeur. L’écriture, que le dieu dévoile en dernier, est présentée par lui comme un remède miracle contre l’oubli, pour la préservation de la mémoire et l’acquisition des connaissances. Ce à quoi Thamous répond que le remède tant vanté par Theuth, loin d’être un antidote préservant la mémoire par la conservation extérieure des écrits qu’elle autorise sur des supports matériels, pourrait en réalité s’avérer être un poison pour la mémoire intérieure des personnes, jusqu’à dissuader celles-ci de l’exercer.

 

En d’autres termes, ce qui apparaît au premier abord comme un remède (Theuth) constitue également, au même moment et sous un autre rapport, un poison (Thamous). Il en va ainsi de l’écriture, comme de toute technique en général (web, smartphone, intelligence artificielle, etc.), laquelle est tout à la fois bonne et mauvaise. Ce que dit très exactement le terme issu du grec ancien, pharmakon, lequel désigne — pour reprendre la définition qu’en donne le site de l’association Ars Industrialis — une puissance curative (remède), mais aussi une puissance destructive (poison). D’où le caractère ambivalent de tout dispositif technique, que la lecture parallèle des deux textes d’Amodei vient rappeler de façon quasi paradigmatique, puisque l’IA peut s’avérer être tour à tour — mais de manière indissociable — un outil d’émancipation et de progrès, mais aussi d’aliénation et de régression civilisationnelle.

 

Or si tout objet ou système technique est par essence pharmacologique, au sens où il possède de façon intrinsèque et structurelle le caractère ambivalent d’un pharmakon –

soit remède et poison à la fois –, alors toute investigation et appréhension de telles objets ou systèmes (voiture, marteau, ordinateur, web, moteur de recherche, télévision, smartphone, etc.) a fortiori numériques, algorithmiques et d’intelligence artificielle, prendra la forme métaphorique d’une pharmacologie entendue cette fois-ci comme méthode et manière de les penser, laquelle évite deux écueils : 1) le techno-optimisme, qui consiste à considérer la technique comme ce qui sauve inévitablement (remède) ; 2) la technophobie, qui consiste à considérer systématiquement la technique comme ce qui nuit (poison), aux individus, à la société ou à l’environnement.

 

Comme le rappelle encore le site de Ars industrialis, le "à la fois", qui caractérise et la pharmacologie et le caractère irréductiblement ambivalent de tout objet technique, renvoie à l’impérative nécessité "d’appréhender par le même geste le danger et ce qui sauve". C’est précisément ce qu’illustre Platon dans le Phèdre au travers des deux figures indissociables de Theuth et Thamous. Cette opposition fait étrangement écho, plus de 2500 ans après la rédaction du dialogue, aux transformations profondes que les technologies d’IA sont susceptibles d’opérer sur les facultés cognitives humaines : l’attention, la mémoire, la motivation à apprendre et acquérir des connaissances, l’analyse, la pensée critique, ou encore, l’autonomie cognitive. Il semblerait même probable – comme une ultime résonance avec le texte de Platon –, que nous puissions également perdre notre capacité à écrire et rédiger des textes, sans que cette perte ne représente en même temps – ce que souhaitait l’auteur de Phèdre –, un gain du point de vue de la parole vivante et le débat contradictoire, laquelle nécessite précisément les facultés cognitives que les IA générative menacent aujourd’hui.  


Ce qui semble pouvoir, sinon disparaître, du moins progressivement s’affaiblir sous nos yeux avec l’IA générative, est moins l’écriture elle-même et le produit qui l’accompagne — puisque nous devrions au contraire assister à un véritable déluge de textes écrits que la technologie rend soudainement possible avec un coût cognitif proche de zéro — que les facultés cognitives humaines que l’acte même d’écrire mobilise et développe. Au même titre que l’écriture représente, dans le texte de Platon, une forme d’externalisation de la mémoire qui quitte la partie rationnelle de l’âme — pour reprendre la terminologie platonicienne — au profit des supports matériels que sont les rouleaux de papyrus, l’IA générative opère un mouvement comparable d’externalisation de certaines opérations cognitives habituellement dévolues aux réseaux de neurones biologiques, désormais transférées vers des réseaux de neurones artificiels. Nous devons ainsi, en quelque sorte, payer ce que nous gagnons d’un côté (remède) — productivité accrue, automatisation de tâches répétitives, accès instantané à la connaissance, traduction multilingue, synthèse d’informations, analyse de données, programmation, acquisition de nouvelles compétences, etc. — par ce que nous perdons de l’autre : saturation de l’espace informationnel, deepfakes, désinformation, affaiblissement de l’exercice de certaines compétences, chômage technologique, fracture numérique, creusement des inégalités, voire, mort de la philosophie et de la littérature.

 

Le même type de raisonnement peut être appliqué à l’IA puissante telle que définie par Amodei. En tant que pharmakon, elle reproduit la même structure d’ambivalence que celle qui caractérise, de manière plus générale, tout objet ou système technique. Les remèdes extraordinaires qu’elle promet dans la résolution de certains problèmes fondamentaux de l’humanité — grâce à une accélération sans précédent du rythme de la recherche et des découvertes scientifiques — tels que l’élimination d’une grande partie des cancers, l’amélioration générale de la santé humaine, le possible doublement de l’espérance de vie, la prévention de certaines pathologies psychiatriques ou encore la réduction drastique de la pauvreté mondiale, se paient, corrélativement, par l’émergence de risques inédits : perte de contrôle de systèmes techniques extrêmement puissants, perturbations majeures du marché du travail, renforcement des régimes autocratiques, concentration du pouvoir économique et technologique, ou encore usages malveillants que le déploiement d’une telle technologie pourrait faciliter.

 

L’analyse pharmacologique de l’IA semble ainsi orienter toute évaluation normative de la technique vers une approche de type conséquentialiste, consistant à prendre en compte la dimension ambivalente du dispositif considéré — remède et poison à la fois — et à identifier l’ensemble des transformations directes et indirectes, sociétales, anthropologiques et civilisationnelles qu’il est susceptible d’opérer au sein du système socio-technique dans lequel il s’insère (infrastructures, marché, usagers, pratiques sociales, institutions, régulation, rapports de pouvoir, etc.). Ce type de raisonnement en termes de coûts et de bénéfices, typique de la pensée ingénieriale, suppose qu’il soit possible de mettre en balance, de la manière la plus complète et la plus impartiale possible, les effets à la fois bénéfiques et indésirables que produirait le déploiement d’un système d’IA. Une telle approche procède le plus souvent d’une forme de calcul évaluatif visant à déterminer le bénéfice net maximal pour l’ensemble de la société. Elle implique, en conséquence, de pouvoir trancher sur la base de critères d’évaluation éthiques et politiques explicitement définis; évaluer les conséquences attendues; déterminer le type de société jugé collectivement souhaitable; mais aussi identifier le système et l’échelle de gouvernance les plus appropriés pour orienter et encadrer le développement du progrès technique.

 

Elle suppose surtout, une conception volontariste en partie contrôlée du développement et de l’évolution des systèmes techniques, et par extension, de l’histoire des sociétés, fondées sur deux idées essentielles : 1) que l’aptitude à concevoir et fabriquer des artefacts est constitutive et indissociable de la nature humaine (la technique comme catégorie anthropologique et non historique), 2) que les innovations technologiques constituent le principal facteur d’évolution globale des structures socio-économiques, institutionnelles et culturelles. C’est cette vision, non complètement déterministe du devenir des techniques, dont il serait possible d’orienter et de guider les usages en fonction de normes et de valeurs moralement justifiées, qui semble animer les deux essais de Dario Amodei. Elle rend surtout possible l’idée d’une gouvernabilité de la technique défendue par l’auteur.

 

Cette conception définitivement technophile et humaniste, au sens où c’est l’être humain, en tant que sujet, qui décide in fine de la trajectoire qu’il convient de donner au développement des techniques et de leur usage, s’oppose en tout point à une conception déterministe de l’évolution des techniques, qui considère au contraire, que la technique constitue désormais, une sphère d’évolution autonome, qui façonne davantage les hommes qu’elle n’est façonnée par eux. L’auteur de référence de cette conception du monde de la technique est Jacques Ellul (1912-1994), à l’épreuve de laquelle je vais maintenant soumettre le projet techno-utopiste d’Amodei, à bien des égards, représentatif de la Silicon Valley.

 

La lecture critique d’Amodei par Ellul. – Je voudrais en effet terminer cette présentation, laquelle, je l’espère, trahit le moins possible les deux essais très stimulants de Dario Amodei, en évoquant la philosophie de la technique que les deux textes ne pensent pas explicitement mais suggèrent clairement, et confronter cette dernière à la philosophie de la technique telle que développée par Jacques Ellul, notamment au chapitre II de La technique ou l’enjeu du siècle, intitulé : Caractérologie de la technique. Pour une présentation détaillée des caractéristiques de la technique tels qu’ils ont commencés à émerger au XVIIIᵉ et XIXᵉ siècle, je renvoie le lecteur à mon article : Les six caractéristiques du monde de la technique selon Jacques Ellul.

 

En introduction de son essai – Machine of Loving Grace –, ainsi que dans un passage qui semble a priori secondaire et digressif par rapport au reste du texte, Dario Amodei explique pourquoi lui et sa société Anthropic insistent — et continueront d’insister — davantage sur les risques de l’IA plutôt que sur ses bénéfices potentiels. Il invoque à ce sujet quatre raisons, dont une première qui s’intitule : "Maximiser l’effet de levie"», qu’il explicite ainsi (je laisse de côté les trois autres) :

 

"Le développement fondamental de la technologie IA et une grande partie de ses bénéfices (mais pas tous) semblent inévitables — sauf si les risques viennent tout compromettre — et sont largement portés par de puissantes forces de marché. En revanche, les risques ne sont pas prédéterminés, et nos actions peuvent fortement en modifier la probabilité."

La notion "d’effet de levier", empruntée au monde de la finance, qui l’emprunte à son tour au monde de la physique, indique l’idée d’un effet d’amplification d’une action initiale minime produisant un résultat beaucoup plus important. Il peut s’agir d’un rendement du capital initialement investi accru grâce à un apport d’argent emprunté dans le cas de la finance, ou de l’application d’une force réduite en un point précis pour produire un effet plus grand en un autre point dans le cas de la physique. En d’autres termes, "maximiser l’effet de levier" consiste à démultiplier un résultat final par rapport à un effort de départ moindre, mais ciblé de façon appropriée.

 

Dans le cadre du développement de l’intelligence artificielle tel qu’envisagé par Dario Amodei, "maximiser l’effet de levier" consisterait à identifier les points de contrôle et les facteurs de risques les plus probants sur lesquels nous sommes susceptibles d’avoir le plus d’influence — comme la régulation, la mise en place de normes de sécurité, la transparence et l’explicabilité des algorithmes, ou encore les formes de gouvernance internationale —, et à agir en conséquence afin de faire en sorte que l’ensemble des actions entreprises maximisent la probabilité d’un développement bénéfique de l’IA, tout en minimisant les risques associés.

 

Le texte cité plus haut contient surtout un paradoxe qu’un lecteur attentif ne peut manquer de relever : l’affirmation, d’un côté, du caractère déterministe de l’évolution technologique et des effets bénéfiques de l’IA puissante — ils semblent en grande partie inévitables —, et, de l’autre, du caractère au contraire indéterministe, ou non prédéterminé, pour reprendre la terminologie d’Amodei, des risques et des effets négatifs de l’IA puissante. C’est un peu comme si le co-fondateur d’Anthropic scindait de façon quelque peu artificielle, et afin de pouvoir absolument soutenir la thèse d’une gouvernabilité de l’IA, le monde de la technique en deux parties : l’une fonctionnerait selon des lois internes sur lesquelles nous n’avons aucune prise — puisqu’elles sont notamment portées par les forces aveugles du marché — ; l’autre, dont le devenir pourrait être influencé par l’action des êtres humains, ne serait dès lors pas soumise aux mêmes contraintes. Il suffirait ainsi "de faire levier" sur ces dernières, lesquelles seraient pilotables et contrôlables, pour amplifier les premières, lesquelles seraient de toute façon déjà inscrites dans le développement "naturel" de l’IA.

 

On pourrait penser au premier abord que l’affirmation d’Amodei entre en contradiction avec le principe d’ambivalence de la technique magistralement mis en évidence par le texte de Platon. Ce point est toutefois largement discutable selon la manière dont on interprète le texte du philosophe grec. Dario Amodei ne nie pas en effet le caractère pharmacologique de la technique, puisque ses deux textes, Machines of Loving Grace et The Adolescence of Technology, consistent précisément à penser à la fois l’aspect positif et l’aspect négatif de l’IA puissante. Ce que la citation mentionnée plus haut affirme en revanche, c’est qu’il serait possible, en quelque sorte, de neutraliser la technique en tant que poison pour ne conserver que la technique en tant que remède. Or il est possible d’interpréter le mythe de Theuth de deux manières différentes : 1) la première position consiste à affirmer que le seul moyen d’extirper le poison est de détruire le remède, les deux étant indissociablement liés. Bref, soit nous mettons un terme au progrès technique ; soit nous acceptons d’endosser les risques inhérents à tout développement technique, du fait des bénéfices que nous pouvons en tirer par ailleurs ; 2) la seconde position, plus nuancée, affirme au contraire qu’il est possible, sans nier la nature fondamentalement pharmacologique de la technique, d’infléchir ses usages de telle sorte à maximiser ses effets bénéfiques tout en limitant ses effets destructeurs.

 

La seconde position, qui est celle de Dario Amodei dans sa version la moins nuancée, revient à distinguer, d’une part, le développement technique, lequel serait inévitable et intrinsèquement déterminé, et, d’autre part, les conséquences du progrès technique, lesquelles seraient gouvernables. Or peut-on légitimement séparer les deux, puisque précisément, en tant que phénomène unitaire et global, les conséquences — qu’elles soient négatives ou positives — sont elles-mêmes intrinsèques au développement technique? C’est ce qu’illustre déjà parfaitement le mythe de Theuth, pour lequel il n’est pas possible de moduler à sa guise le caractère foncièrement ambivalent de la technique. Si la technique constitue un système global — ce qu’affirme à mon sens Platon et nie Amodei —, alors ses effets ne sont pas extérieurs à son développement, mais en procèdent directement. C’est en tous les cas la thèse que défend l’un des penseurs les plus importants de la technique, Jacques Ellul.   

 

Dans un article publié en 1965 intitulé précisément Réflexion sur l’ambivalence du progrès technique, l’auteur de La technique ou l’enjeu du siècle reprend à son compte la question ô combien importante de "l’excellence ou du danger du progrès technique". Il insiste d’emblée sur ce qu’il considère « comme l’un des caractères les plus importants de ce dernier : son ambivalence ». Bien qu’en partie idéologique et pouvant difficilement être tranchée à l’aide d’arguments exclusivement scientifiques, la position critique qu’Ellul affirme semble être à l’exact opposé de celle défendue par Dario Amodei et des discours souvent simplificateurs véhiculés par la plupart des entreprises de la tech de la Silicon Valley, imputant les risques potentiels d’une technologie à ses seuls usages. Or, rappelant la notion platonicienne de pharmakon, Ellul écrit à propos de la nature ambivalente de la technique :

 

"J’entends par là que le développement de la technique n’est ni bon, ni mauvais, ni neutre — mais qu’il est fait d’un mélange complexe d’éléments positifs et négatifs (…). J’entends encore par là qu’il est impossible de dissocier ces facteurs de façon à obtenir une technique purement bonne, et qu’il ne dépend absolument pas de l’usage que nous faisons de l’outillage technique d’avoir des résultats exclusivement positifs."

 

D’ailleurs, comment pourrions-nous même juger en toute autonomie et de façon objective du caractère bénéfique ou non du progrès technique, puisque nos comportements et nos pensées sont eux-mêmes en permanence orientés par des dispositifs techniques qui nous somment, en quelque sorte, de nous adapter psychologiquement à eux ? En d’autres termes, il est impossible de s’extraire de l’univers technique, tandis que l’évaluation que nous pouvons porter à son égard est déjà façonnée par cet univers même.

 

D’aucuns pourront avancer que nous sommes libres, à tout moment, en tant qu’individus, de l’usage que nous faisons d’une technologie. Mais ce comportement, aussi vertueux soit-il, ne change en rien la civilisation technicienne prise dans son ensemble. Celle-ci progresse en effet selon une dynamique autonome et « aveugle », d’où est évacuée toute forme de finalité qui permettrait de déterminer l’excellence ou non du progrès technique. Cette logique de fonctionnement, interne au monde de la technique, qu’Ellul appellera ailleurs « auto-accroissement du phénomène technique » (voir Les six caractéristiques du monde de la technique selon Jacques Ellul), disqualifie surtout de façon radicale tout discours de nature téléologique (du grec télos, "fin", "but", et logos, "discours", "science"), qui consiste à assigner des finalités normatives, politiques ou morales au progrès technologique afin d’en orienter le devenir. Ce que précisément propose Amodei dans Machines of Loving Grace, lorsqu’il décrit les bénéfices civilisationnels potentiels que nous pourrions tirer de l’IA puissante.

 

Dans ce cadre, la proposition de Dario Amodei, aussi louable soit-elle sur le plan des intentions — et que chacun ne demande qu’à croire en tant qu’agent moral épris de bons sentiments — relève d’une erreur d’appréciation quant au fonctionnement réel même du monde de la technique en général, lequel évolue selon une progression causale qui oriente de l’intérieur "des possibilités déjà existantes de croissance". Ce que dit parfaitement le terme "d’auto-accroissement", lequel indique un phénomène d’augmentation et de développement continus et autonomes, sans l’idée d’une cause finale — ici, des valeurs ou des normes — qui viendrait de l’extérieur orienter l’évolution globale de ce que Ellul appellera plus tard le système technicien. Selon une lecture ellulienne, l’IA puissante ainsi que ses usages, qu’ils soient bons ou mauvais — et sans qu’aucun d’entre nous, à titre individuel, ne puisse infléchir un tant soit peu le mouvement d’accroissement continu dont il est lui-même une partie — sont déjà inscrits potentiellement dans l’état actuel de l’évolution du système technicien.

 

Or l’auto-accroissement autonome de ce dernier, que l’on assimile généralement au "progrès technique", a pour effet mécanique, selon Ellul, d’accentuer ses effets ambivalents, et donc le caractère de plus en plus inextricable des relations entre les aspects positifs et les aspects négatifs du développement technique. C’est cet accroissement simultané des possibilités et des dangers du progrès technique qu’Ellul va illustrer au travers de quatre thèses clés, que l’on peut interpréter comme quatre caractéristiques fondamentales du progrès technique. Elles seront approfondies dans un chapitre de son troisième et dernier grand ouvrage consacré à la critique de la technique, Le Bluff technologique (1988). Je les cite telles qu’énoncées dans son article de 1965, avant de les présenter brièvement: 1) Tout progrès technique se paie ; 2) Le progrès technique soulève plus de problèmes qu’il n’en résout ; 3) Les effets néfastes du progrès technique sont inséparables des effets favorables; 4) Tout progrès technique comporte un grand nombre d’effets imprévisibles.

 

Le progrès technique a un coût (1): c’est un aspect du progrès technique que nous avons déjà évoqué au moment de l’analyse du mythe de Theuth dans le Phèdre de Platon. Il vient rappeler le caractère non absolu de ce dernier, lequel charrie inévitablement avec lui à la fois des gains et des pertes. Cette thèse, en apparence évidente, est pourtant largement occultée lorsqu’il s’agit de procéder à une évaluation du progrès technique, laquelle a tendance le plus souvent à mettre en avant les gains, et à sous-estimer les pertes. Ellul ne cherche surtout pas à minimiser la valeur indiscutable du progrès et de l’innovation, comme l’amélioration du confort de vie, l’allongement de l’espérance de vie en bonne santé, ou encore, la capacité d’action des êtres humains, mais à pointer le caractère biaisé de l’évaluation en question, assez symptomatique d’une civilisation par ailleurs ultra-technicisée. Il insiste également sur la difficulté même d’une telle évaluation, du fait de l’asymétrie existant entre les gains et les pertes, ainsi que de la diversité des biens qui sont mis en jeu.

 

Tout progrès technique ne vient en effet pas seulement transformer ce qui relève, de façon générale, des biens matériels, mais également, les formes de vie sociale auxquelles les personnes sont attachées, les relations humaines, les manières de penser, ou encore, les équilibres écologiques. Comment, dans ce cadre, procéder à l’évaluation de ce qui est gagné et de ce qui est perdu, lorsque les deux ne sont pas de même nature, et que tout progrès technique engage en même temps une transformation de l’équilibre des valeurs d’une civilisation? Ambivalence, donc, du progrès technique, dont on ne peut jamais véritablement évaluer de façon objective l’apport net en gains, du fait de l’hétérogénéité de ce qui est comparé.

 

Il soulève plus de problèmes qu’il n’en résout (2): deuxième aspect de tout progrès technique; le caractère local des problèmes qu’il vient en apparence résoudre, lequel va avoir, après coup, et sans que l’on ne puisse jamais tout à fait l’anticiper, des répercussions globales sur l’ensemble du corps social. En d’autres termes, le problème qu’il résout d’un côté de façon spécifique et locale, conformément à sa vocation première, génère de façon différée de nouveaux problèmes plus vastes et plus complexes, selon une dynamique propre, de nature récursive et continue. Autrement dit, résoudre un problème revient à en créer de nouveaux, plus importants. Jacques Ellul prend l’exemple des progrès techniques réalisés au XIXᵉ siècle dans les domaines de la division du travail et de la mécanisation, qui étaient au départ supposés répondre à des besoins vitaux d’ordre matériel, mais qui ont aussi engendré, à terme, des problèmes globaux de prolétarisation et d’exploitation d’une classe ouvrière, soumise à des conditions de travail aliénantes.

 

L’exemple contemporain de l’IA générative illustre de façon éclairante de ce que Jacques Ellul entend par cette seconde thèse. L’automatisation de certaines tâches cognitives, ainsi que les gains de productivité qu’elle promet, apparaissent au départ comme des solutions locales aux défis d’efficacité organisationnelle. Elles devraient pourtant engendrer à terme, des effets systémiques problématiques d’envergure, à la fois d’ordre économique, informationnel, culturel et géopolitique. Le système technicien, selon Ellul, semble ainsi animé par un principe d’auto-engendrement croissant en raison de la double fonction qu’il exerce au sein du système social qu’il tend à recouvrir totalement : d’une part, celle de résoudre de la manière la plus efficace possible tous les problèmes auxquels l’humanité est confrontée – ce que l’on appelle aujourd’hui solutionnisme technologique –, et d’autre part, engendrer, par cette même promesse, de nouveaux problèmes qu’il se chargera à son tour de résoudre, en réduisant systématiquement toutes les questions à des problèmes techniques.

 

Ses effets positifs et négatifs sont inséparables (3): c’est certainement ce troisième et avant-dernier aspect du progrès technique, tel que le définit Jacques Ellul, qui nous permet de saisir au plus près la fragilité du projet techno-utopiste d’un Dario Amodei, ainsi que l’illusion téléologique sur laquelle il repose. Cette illusion révèle précisément la nature utopique du projet en question, puisqu’elle consiste à croire qu’il serait possible d’isoler les effets positifs des effets négatifs du progrès technique, et sur cette base, classer les techniques selon qu’elles favorisent ou non le développement et les progrès civilisationnels. Selon cette conception, les techniques seraient moralement neutres, seules les intentions humaines déterminant le bon ou le mauvais usage. Dans cette perspective, l’âge d’or du progrès technique dépendrait de notre maturité technologique à mettre en œuvre et à utiliser ce progrès. C’est en tous les cas l’une des thèses centrales de l’essai de Dario Amodei, The Adolescence of Technology.

 

Or c’est ignorer, selon l’auteur du Système technicien, la nature intrinsèquement unitaire et systémique de la technique. Là encore, l’exemple de l’IA générative illustre parfaitement les propos d’Ellul: ses avancées produisent simultanément des effets bénéfiques et problématiques que nous ne pouvons ni prévoir entièrement, ni isoler les uns des autres pour ne conserver que les aspects positifs. L’accélération de la production de contenus et les gains de productivité qu’elle permet d’un côté, comme promesse d’efficacité (effets positifs), nécessitent en effet en retour la construction et le déploiement de nouvelles techniques contribuant à complexifier le système technicien tout entier — extraction de matières premières, consommation d’énergie, infrastructures cloud, entraînement et déploiement des modèles, nouvelle organisation du travail, acquisition de nouvelles compétences, recomposition des chaînes de valeur et des rapports de pouvoir, etc. —, lequel engendre des dépendances technologiques entre les entreprises et les États ; des perturbations importantes du marché du travail et de l’emploi ; une pression accrue sur le marché des matières premières et sur la production d’énergie ; ou encore, la dégradation potentielle de certaines capacités cognitives (effets négatifs).

 

Il produit des effets imprévisibles (4) : le quatrième et dernier aspect du progrès technique mis en avant par Ellul dénonce l’idée largement répandue selon laquelle il serait possible de l’orienter vers un état souhaitable et désirable. Là encore, les analyses d’Ellul font remarquablement écho aux textes d’Amodei, dont elles anticipent en quelque sorte la critique. Puisque la technique est réductible à un ensemble de moyens, affirment les partisans de cette conception idéaliste du progrès technique, il suffirait alors d’assigner à son développement des fins élevées pour garantir les effets positifs du progrès technique. C’est toujours dans le cadre de la mise en évidence du caractère ambivalent du progrès technique, et pour déconstruire l’illusion de la technique en tant que simple outil, qu’Ellul propose une analyse nuancée des conséquences du progrès technique. Or ce dernier comporte toujours trois types d’effets : 1) les effets voulus ; 2) les effets prévisibles mais non recherchés ; 3) les effets imprévisibles. On va voir que cette classification en trois catégories a surtout pour objectif de mettre en évidence la loi d’échelle suivante : il existe une corrélation forte entre le développement croissant du système technique et l’augmentation du niveau d’imprévisibilité des effets du progrès technique.

 

Le premier cas, le moins problématique des trois, car le plus évident, correspond à la fonction première de tout progrès technique, son but initial, à savoir résoudre efficacement un problème particulier. En d’autres termes, toute innovation vise un objectif immédiat spécifique, clairement exprimé par la finalité même (résultat) qu’elle est supposée servir : guérir une maladie, augmenter la productivité du travail, protéger un lieu contre le froid, etc. C’est généralement à ce niveau précis des résultats escomptés, lesquels découlent directement des raisons d’être de la solution en question, que les progrès techniques sont les plus efficaces, car conformes aux attentes.

 

Ce qui n’est pas le cas de la seconde catégorie d’effets dont le caractère pourtant prévisible n’est pas, contrairement aux premiers, désirable. Ce sont des effets à la fois prévisibles, indésirables et inévitables, mais malgré tout acceptés comme tels, comme l’excès de stress provoqué par la mise en place de nouvelles techniques de production, par exemple, ou encore la pollution industrielle provoquée par l’installation d’une usine. Ils sont pourtant, souligne Ellul, le plus souvent négligés lorsqu’il s’agit d’évaluer le progrès technique. Or toute évaluation sérieuse devrait tenir compte de l’ensemble des effets prévisibles, qu’ils soient positifs ou négatifs.

 

Mais c’est la troisième catégorie d’effets qui retient particulièrement l’attention d’Ellul, à savoir ce qu’il appelle les effets « totalement imprévisibles » du progrès technique, qu’il scinde en deux :

 

  • Imprévisibles mais attendus : ceux qui sont attendus mais dont il nous est impossible de prévoir très exactement la forme qu’ils vont prendre, étant donné la complexité des changements qu’ils sont susceptibles d’opérer sur de nombreux aspects du corps social. On peut citer à titre d’exemple les effets économiques, sociologiques et psychologiques importants que devraient provoquer le déploiement et l’usage croissants des systèmes d’intelligence artificielle, au sens où nous savons que des changements de grande ampleur vont avoir lieu, mais où nous sommes incapables de prédire la nature exacte de ces mutations. Nous pouvons établir des conjectures plus ou moins documentées, construire des scénarios d’évolution, mais la complexité même du phénomène nous interdit en quelque sorte de penser qu’une extrapolation est plus certaine qu’une autre ;

  • Imprévisibles et inattendus : Ceux qui sont totalement inattendus, du fait qu’il est impossible pour les ingénieurs et les chercheurs d’explorer l’ensemble des conditions d’utilisation d’une technologie donnée. Autrement dit, nous ne pouvons prendre conscience de certaines conséquences du progrès technique qu’après le déploiement effectif d’une innovation, laquelle va produire, du fait de ses interactions avec les individus, les organisations et l’ensemble de la société, des effets émergents impossibles à prévoir. Il n’est donc possible qu’après coup de corriger ou de limiter les effets indésirables, voire seulement de constater les effets irréversibles d’une technologie lorsque celle-ci a notamment été diffusée à grande échelle.

 

On ne rendrait compte que très partiellement des apports incontestables du concept d’ambivalence de la technique et des caractéristiques clés du progrès technique selon Ellul, si l’on ne mettait pas en évidence le lien qu’ils entretiennent avec la description qu’il fait par ailleurs de la structure générale du monde de la technique. En d’autres termes, les questions de l’évaluation et de la gouvernabilité du progrès technique ne sont possibles, pour Ellul, que si l’on a au préalable mis au jour les caractéristiques structurelles et la logique de fonctionnement de ce qu’il appellera, dans son dernier ouvrage consacré à la technique, Le Système technicien (1977). Comment, en effet, prétendre gouverner quelque chose, voire même poser la question encore plus radicale de la gouvernabilité du progrès technique – à fortiori de l’IA –, si l’on n’a pas au préalable mis au jour les lois de fonctionnement de ce que l’on prétend gouverner ?

 

Or, selon Ellul, nous serions parvenus à un point du développement historique où la technique a pris une dimension telle qu’elle doit désormais être pensée à la fois comme un milieu — c’est-à-dire l’environnement global à l’intérieur duquel évoluent les sociétés humaines — et comme un système, dans la mesure où les différentes techniques deviennent interdépendantes les unes des autres et évoluent selon une dynamique autonome qui échappe désormais largement à toute forme d’intervention humaine. C’est cette idée centrale qu’il développe dès 1954 dans son livre La technique ou l’enjeu du siècle, au travers des six caractéristiques fondamentales du monde de la technique que j’ai présentées ailleurs. Penser que nous avons encore une pleine prise sur le développement du système technicien est, au mieux, une illusion rassurante, au pire, une forme de blessure narcissique.

 

Il devient ainsi possible de caractériser la modernité sous un double aspect : 1) d’une part, comme une prolifération toujours plus importante de techniques en tout genre 2) d’autre part, comme une extension progressive du phénomène technique à l’ensemble du champ des activités humaines, désormais soumises au seul critère de la façon unique et optimale d’accomplir chaque chose ("The one best way ", selon l’expression même utilisée par Ellul). Si bien que plus aucune pratique sociale n’échappe aujourd’hui à la technique comme mise en œuvre généralisée d’une forme particulière de rationalité — la rationalité instrumentale — qui tend à étendre son empire à l’ensemble des domaines de l’existence humaine. C’est ainsi qu’il faut comprendre le caractère fondamentalement "totalitaire" du phénomène technique, puisqu’il vient non seulement régler un nombre croissant d’aspects de la vie publique et privée des individus, mais aussi réduire progressivement l’espace des choix possibles, dans la mesure où toute option tend à être soumise au calcul et à l’impératif d’efficience.

 

Comment ne pas voir, dans l’idée de ce qu’un Alexander Wang interprète comme l’avènement d’une nouvelle ère de l’auto-amélioration récursive, ainsi que dans les descriptions techniques, les principes de fonctionnement et les périmètres d’usage qu’un Amodei donne de l’IA puissante, une confirmation indirecte et a posteriori des thèses défendues par Ellul ? Cette manière de décrire l’évolution actuelle de l’intelligence artificielle correspond presque point par point à l’hypothèse typiquement ellulienne d’un auto-accroissement du système technicien, dont le processus d’autonomisation semble atteindre un paroxysme, jusqu’à émettre l’hypothèse d’un transfert progressif de tâches visant à automatiser, pour le moment partiellement, le processus de recherche scientifique et de développement d’agents IA.

 

Dans ce cadre, l’IA puissante irait jusqu’à reconfigurer le lien historiquement établi, depuis le XIXᵉ siècle, entre la science d’un côté et la technique de l’autre, voire accomplirait définitivement le mouvement d’assujettissement de la science à la technique — généralement désigné sous le terme de "technoscience" — puisque ce serait la technique elle-même qui deviendrait le principal facteur, de plus en plus autonome, de production de connaissances et de nouvelles techniques. En d’autres termes, la science deviendrait en quelque sorte un sous-produit de la technique, jusqu’à s’emparer de ce qui était jusqu’alors considéré comme la plus éminente des prérogatives humaines: la production du savoir.

 

Indépendamment du caractère plus que convaincant des thèses d’Ellul au regard de la place toujours plus importante que prennent les technologies au sein des sociétés modernes, ainsi que du processus d’automatisation généralisée promis par le projet d’une IA puissante, les conclusions de l’auteur du Bluff technologique sur la dynamique de fonctionnement du système technicien viennent surtout questionner en profondeur la possibilité même d’une gouvernabilité de l’intelligence artificielle, qui est au cœur des deux textes d’Amodei. D’autant plus que l’IA puissante devrait également avoir un effet amplificateur certain sur les quatre thèses qu’Ellul énonce à propos de l’ambivalence du progrès technique, ce qui rend la gouvernabilité de l’intelligence artificielle encore plus problématique.

 

En participant, en vertu de l’hypothèse du "siècle compressé", au phénomène d’auto-accroissement exponentiel du système technicien, elle devrait, corrélativement à la fonction de gain promise par Amodei, augmenter significativement la fonction de coût du progrès technique (1), ainsi que ses répercussions sur l’ensemble du corps social (2 et 3). Or, puisqu’il existe, conformément à la quatrième et dernière thèse d’Ellul, une corrélation positive forte entre le développement croissant du système technicien et le niveau d’imprévisibilité des effets du progrès technique, les effets imprévisibles — positifs et négatifs d’ailleurs, puisque les deux sont toujours inséparables — qu’ils soient attendus ou inattendus, devraient croître significativement. Autrement dit, en accélérant la croissance du système technicien, l’IA puissante en intensifie simultanément l’ambivalence et le niveau d’imprévisibilité, rendant de fait sa gouvernabilité encore plus difficile.

 

Je pense qu’Amodei acquiescerait à peu près en totalité aux conclusions que l’on peut tirer au sujet de l’effet amplificateur que devrait avoir l’IA puissante sur les quatre aspects de l’ambivalence du progrès technique. Pour Ellul comme pour Amodei d’ailleurs, c’est la technique, plus que l’économie, qui constitue la clef d’interprétation de notre modernité. Les deux adoptent donc une vision techno-centrée des mutations et transformations civilisationnelles et anthropologiques, pour lesquelles c’est in fine la technique qui constitue le facteur infrastructurel essentiel de changement.

 

Pourtant, Amodei et Ellul n’ont pas exactement la même vision du fonctionnement général et du développement du système technique, ainsi que de la manière dont ce dernier évolue. Cette différence provient naturellement en grande partie de la posture à partir de laquelle ils écrivent. Est-il besoin de rappeler que, chez Amodei, cette question ne fait d’ailleurs jamais l’objet d’une théorie explicite, alors qu’elle est au cœur de l’œuvre d’Ellul ? Elle apparaît néanmoins de façon plus ou moins implicite tout au long des deux textes du CEO d’Anthropic, dans l’idée même qu’il serait possible, selon lui, d’orienter le progrès technique dans un sens conforme à des normes et à des valeurs. C’est précisément là que la vision de l’évolution réglée de l’IA qu’il propose mérite d’être interrogée.

 

Là où il n’y a, chez Ellul, que des causes efficientes, Amodei réintroduit paradoxalement la possibilité de causes finales, chargées de neutraliser autant que possible les effets négatifs du progrès technique afin de faire levier, comme il le dit lui-même, sur ses effets positifs. De ce point de vue, les lectures de Platon puis d’Ellul éclairent les deux textes d’Amodei, ainsi que les débats en cours sur la question de la gouvernance, voire de la gouvernabilité même de la technique en général, et de l’IA en particulier. Ce qui légitime, à mon sens, la confrontation de textes pourtant écrits depuis des postures totalement différentes, et rappelle surtout que le sujet est transdisciplinaire et ne doit pas être laissé à la seule appréciation des ingénieurs et des sociétés de la tech. Au risque de grossir le trait, trois positions semblent se dégager :

 

  • Déterminisme technologique : Il y a d’abord ceux qui, comme Jacques Ellul, pensent que la technique a atteint un degré de développement tel qu’elle est entrée depuis longtemps dans un processus d’auto-accroissement autonome "sans sujet" (ou sans pilote, pour utiliser un langage plus directement compréhensible), que les évolutions récentes de l’IA ne font qu’accélérer de façon quasi paroxystique. Cette position, que l’on peut qualifier de déterminisme technologique, débouche sur une vision sceptique quant à la possibilité même d’une gouvernance globale du système technicien. Tout au plus pouvons-nous freiner quelques dérives locales qui n’auront à peu près aucune incidence sur le fonctionnement global du système. Cette forme de lucidité tragique, qui repose sur une analyse rigoureuse et approfondie de la logique technicienne, a un coût psychologique certain qui en fait une position difficilement défendable, puisqu’elle débouche sur une forme d’acceptation passive du cours des choses.

  • Techno-utopisme modéré : Il y a ensuite ceux qui acquiescent en grande partie aux analyses très convaincantes d’un Ellul sans en accepter pour autant totalement les conclusions quant à ce qu’elles impliquent sur le plan de l’action. Cette position, à mon sens moins rigoureuse sur le plan de l’argumentation philosophique, mais psychologiquement et éthiquement plus acceptable, considère qu’il est au contraire possible d’infléchir et de réguler le développement technologique — a fortiori le développement de l’IA — dans un sens qui vise à minimiser ses effets négatifs et à maximiser ses effets positifs. Cette position, que l’on peut qualifier de "déterminisme mou", serait celle d’un Amodei et, plus généralement, depuis les années 2010, de très nombreux projets émanant des grands acteurs de l’industrie de l’IA, de groupements sectoriels, d’universités (notamment Montréal) et d’autres groupes d’experts, visant à fixer de grandes lignes directrices et des principes éthiques afin d’encadrer le développement et le déploiement de systèmes d’intelligence artificielle dans un sens qui soit bénéfique pour l’humanité.

  • Techno-utopisme radical : Enfin, il y a ceux qui tendent à minimiser la nature pharmacologique de la technique et qui considèrent celle-ci comme la principale cause de l’amélioration de la condition humaine. Dans un article publié le 14 avril 2024, The TESCREAL Bundle : Eugenics and the Promise of Utopia through Artificial General Intelligence, les auteurs Gebru et Torres ont forgé l’acronyme "TESCREAL", pour désigner un faisceau d’idéologies technofuturistes qui motiveraient les aspirations à la construction d’une intelligence artificielle générale (AGI) : transhumanisme, extropianisme, singularitarisme, cosmisme, rationalisme, altruisme efficace et longtermisme.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page