La science-fiction, laboratoire éthique de l’IA.
- Franck Negro

- 3 sept. 2022
- 2 min de lecture
Dernière mise à jour : 18 janv.
Dans un article du journal Le Monde du 3 septembre 2022, Élisa Thévenet, rédactrice en chef du magazine Futur, rappelle le rôle qu’a joué la littérature de science-fiction dans la fascination largement partagée aujourd’hui pour des intelligences artificielles possiblement douées de conscience. Cette filiation culturelle et imaginaire s’est trouvée réactivée, d’une certaine manière, par l’affaire LaMDA, à la suite de la publication par un ingénieur de Google, Blake Lemoine, d’échanges qu’il affirmait avoir eus avec le robot conversationnel LaMDA (Language Model for Dialogue Applications). Chargé d’évaluer la perméabilité du programme aux discours de haine et aux propos discriminatoires, l’ingénieur — depuis licencié — en vint à considérer que les réponses du chatbot manifestaient une forme de conscience. Cet épisode illustre ce que l’on appelle "l’effet ELIZA", du nom du programme mis au point en 1966 par Joseph Weizenbaum pour imiter un psychothérapeute, et qui désigne la tendance humaine à attribuer inconsciemment des intentions, des émotions ou une compréhension à des systèmes informatiques.
Weizenbaum lui-même avait pourtant mis en garde contre cette tentation anthropomorphique, en soulignant le risque d’oublier qu’un algorithme ne comprend pas les signes qu’il manipule, mais se contente de les traiter formellement. Cette intuition sera théorisée quelques années plus tard par le philosophe américain John Searle, à travers la célèbre expérience de pensée de la "chambre chinoise", exposée dans un article devenu classique, Minds, Brains and Programs, publié en 1980. Searle y montre qu’un système peut produire des réponses linguistiquement pertinentes sans pour autant comprendre ce qu’il dit, remettant ainsi en cause toute assimilation entre performance computationnelle et conscience.
S’il existe un récit emblématique ayant profondément nourri notre fascination pour des créatures artificielles dotées de capacités cognitives comparables à celles des humains et façonnées à leur image, c’est bien ce mythe fondateur de l’ère industrielle qu’est Frankenstein ou le Prométhée moderne, publié en 1818 par Mary Shelley alors qu’elle n’avait pas vingt ans. Héritier à la fois du mythe hébraïque du Golem et de la figure prométhéenne issue de la mythologie grecque, le roman met en scène une créature née de la science humaine, dont l’existence cristallise, selon Élisa Thévenet, "l’angoisse existentielle d’une technique omniprésente". En ce sens, la science-fiction ne relève pas seulement du divertissement : elle fonctionne aussi comme un laboratoire éthique permettant d’explorer, par l’imaginaire, les conséquences sociales, morales et politiques des innovations techniques. C’est précisément ce rôle que souligne Thierry Ménissier, responsable de la chaire Éthique et IA de l’Institut de philosophie de Grenoble, lorsqu’il affirme que "la science naît dans l’imaginaire" et plaide pour une intégration explicite de la science-fiction dans la formation à l’éthique de l’intelligence artificielle.
La littérature de science-fiction apparaît ainsi comme un outil privilégié pour penser le monde de demain et anticiper les dilemmes éthiques que le développement de l’IA pourrait susciter. Encore faut-il, rappelle Andréane Sabourin Laflamme, professeure de philosophie et d’éthique de l’IA au collège André-Laurendeau à Montréal et coautrice d’un référentiel de compétences en éthique de l’intelligence artificielle, ne pas perdre de vue les enjeux bien réels auxquels nous sommes déjà confrontés aujourd’hui. La fiction éclaire l’avenir, mais elle invite aussi à interroger le présent.
Commentaires