top of page
Rechercher

L’éthique à l’épreuve de l’IA : agentivité et responsabilité (1).

  • francknegro1900
  • 23 janv.
  • 14 min de lecture

Le texte qui suit constitue le premier volet de trois articles qui, en réalité, n’en forment qu’un seul. L’objectif est d’introduire, de la manière la plus didactique possible, à quelques problèmes fondamentaux de l’éthique de l’IA, tout en en proposant une vision d’ensemble. Mon point de départ est un texte du philosophe contemporain Thierry Ménissier, Quelle éthique pour l’IA ? (2019), issu d’une conférence donnée à l’occasion du colloque intitulé "Naissance et développements de l’intelligence artificielle à Grenoble", qui s’est tenu le 19 octobre 2019 à l’auditorium du Musée de Grenoble. À partir de la thèse centrale de ce texte, que je présente dans ce premier article (1), je cherche à mettre en évidence les apories auxquelles conduit la tentative, largement partagée par les ingénieurs et les informaticiens, de mise en place d’une éthique de type "procédurale" (2), pour finalement conclure sur les limites de l’éthique des machines (3), en insistant sur le caractère pluriel des discours éthiques relatifs à l’IA.

 

Comme souvent en pareil cas en effet, le développement et le déploiement de nouveaux systèmes socio-techniques tels que l’IA, ainsi que les inquiétudes d’ordre sociétal que ces derniers charrient inévitablement, ont engendré en parallèle, de la part d’institutions, d’entreprises, de leaders d’opinion, de chercheurs et d’experts en tout genre, une inflation de discours appelant à l’encadrement et à la régulation de ces systèmes, fondés sur des principes éthiques, de transparence, de protection des droits humains et de responsabilité sociale. C’est dans ce contexte que l’on a vu proliférer ces dernières années un certain nombre de déclarations de principes et autres chartes éthiques — tels que les 23 principes d’Asilomar (2016), la Déclaration de Montréal (2017), les principes de l’OCDE sur l’intelligence artificielle (2019), les Lignes directrices en matière d’éthique pour une IA digne de confiance du groupe d’experts de haut niveau sur l’intelligence artificielle (2019), ou encore les Recommandations sur l’éthique de l’intelligence artificielle de l’UNESCO (2021), pour ne citer que les plus connues — ainsi que l’usage désormais quasi systématique de l’association des termes "éthique" et "intelligence artificielle", au point de faire émerger l’idée d’une nouvelle branche de l’éthique appliquée dédiée à l’IA.

 

Mais a-t-on véritablement pris la peine de clarifier, se demande Thierry Ménissier, ce qu’il faut entendre par l’expression "éthique de l’IA" ? Pourquoi existerait-il d’ailleurs un besoin spécifique d’éthique pour faire face au déploiement de systèmes d’IA, comme si la philosophie — parler d’éthique renvoyant en effet inévitablement à l’une de ses branches fondamentales, — se trouvait soudainement convoquée afin d’éclairer, voire d’accompagner, ces développements technologiques ? Et enfin, si une éthique semble désormais requise, de quel type d’éthique l’IA doit-elle se réclamer ? Telles sont les trois questions fondamentales auxquelles il convient de répondre, sous peine de ne jamais dissiper véritablement le flou qui entoure l’usage désormais généralisé de l’expression "éthique de l’IA", souvent mobilisée sans que son sens ait été préalablement clarifié.

Clarifier le sens de l’expression "éthique de l’IA". - Si la philosophie n’a pas, a priori, vocation à intervenir sur les aspects purement techniques de l’intelligence artificielle, elle peut en revanche jouer un rôle essentiel dans la clarification des concepts que nous mobilisons lorsque nous parlons d’IA, a fortiori lorsque l’une de ses disciplines historiques, depuis son origine socratique, se trouve convoquée dans la grande majorité des débats portant sur les impacts sociétaux d’une technologie souvent considérée comme décisive pour le devenir de nos sociétés : l’éthique. Or, l’ambiguïté de l’expression "éthique de l’IA" semble tenir tout entière dans l’interprétation que nous faisons de la préposition "de", laquelle renvoie à deux façons distinctes d’envisager la relation que l’éthique – entendue comme l’ensemble des principes et des valeurs à partir desquels nous jugeons ce qu’il est bien (bon) ou mal (mauvais) de faire – entretient avec l’IA, comprise comme un ensemble de systèmes socio-techniques susceptibles de produire des effets sociétaux et environnementaux non désirés du point de vue, précisément, des valeurs qu’une société défend.

 

  • Éthique de l’IA : Dans un premier cas, l’expression "éthique de l’IA" peut être comprise au sens d’une éthique appliquée à l’IA. En tant qu’éthique sectorielle appartenant au champ, de plus en plus vaste, de l’éthique appliquée, l’éthique de l’IA ne serait ni plus ni moins que la discipline philosophique dont la vocation serait de réfléchir de manière concrète aux implications d’ordre moral provoquées par l’émergence, le développement et le déploiement de systèmes d’intelligence artificielle (SIA), dont on entrevoit les risques potentiels au regard des inquiétudes qu’ils suscitent, et d’en interroger les usages sociaux qui peuvent en être faits. Elle constituerait, aux côtés de l’éthique du numérique – avec laquelle elle tend d’ailleurs à fusionner –, une sous-branche de l’éthique de la technique, et viendrait enrichir le champ des éthiques dites "appliquées" à des domaines spécifiques de l’activité humaine, tels que l’éthique médicale, l’éthique animale, l’éthique de l’environnement, l’éthique des affaires, l’éthique de la guerre ou encore l’éthique des relations internationales.

  • Éthique intégrée à l’IA : Dans un second cas, la préposition "de" renverrait moins à un domaine extérieur de l’éthique – l’IA – que cette dernière examinerait de façon réflexive afin d’en questionner les usages à l’aune de valeurs, de principes et de doctrines éthiques préexistants, qu’à un ensemble de règles morales intégrées aux pratiques de conception et de développement des SIA – par exemple sous la forme de lignes directrices ou de protocoles éthiques –, voire directement incorporées au sein des algorithmes eux-mêmes. Dans ce cadre, l’éthique de l’IA prendrait la forme d’un ensemble de règles examinées, débattues et partagées par la corporation des informaticiens, au même titre que la bioéthique pour les médecins, l’éthique des affaires pour les managers ou encore la déontologie pour la profession d’avocat. Elle ne serait alors plus principalement l’œuvre des philosophes, mais celle des informaticiens. La préposition "de" ne signifierait dès lors plus "appliquée à", au sens où une réflexion philosophique est appliquée à un nouveau domaine de l’histoire des technologies, mais "intégrée à", au sens où des règles morales décidées et partagées par une corporation donnée seraient littéralement incorporées dans la chaîne de conception, de production et de déploiement des systèmes d’IA, afin de garantir que leur fonctionnement et les décisions qu’ils produisent soient alignés, en toutes circonstances, avec nos valeurs morales. Ce second sens de la préposition "de" tend ainsi à infléchir l’interprétation sémantique de l’expression "éthique de l’IA" vers le second terme du syntagme, en insistant avant tout sur le caractère éminemment scientifique et technique des questions relatives à l’éthique de l’IA, plutôt que sur leur caractère philosophique. Il indique également, par analogie avec la nécessité de connaissances médicales en bioéthique, qu’il est indispensable de posséder des compétences techniques en informatique et en intelligence artificielle pour pouvoir véritablement faire de l’éthique de l’IA. Or cette attraction de l’éthique du côté de l’informaticien, qui traduit en même temps une orientation techniciste de l’éthique, fait peser sur lui une responsabilité accrue : celle de devoir rendre compte, à tout moment, des règles morales et du sens général ayant présidé au développement technique d’un système.

 

Loin d’être anodine, la distinction mise en évidence par le texte est en réalité cruciale, dans la mesure où elle engage deux conceptions fondamentalement différentes de la responsabilité morale. Elle vise avant tout à éviter que l’éthique de l’IA, entendue comme une discipline et une réflexion philosophique à part entière, essentielle à la formation de l’esprit critique dans une société démocratique, ne soit finalement comprise comme une simple fonctionnalité technique ajoutée aux machines, dans le but de leur conférer une capacité qui viendrait brouiller en profondeur les conditions de l’agentivité humaine. C’est là la deuxième grande question que pose le texte de Ménissier : en quoi le développement et le déploiement des systèmes d’intelligence artificielle soulèvent-ils des problèmes éthiques inédits, en tant que problèmes spécifiquement liés à l’IA ? Et en quoi ses problèmes touchent-ils au fondement même de ce que nous entendons généralement par le terme "éthique" ?

 

Le problème de l’agentivité et de la responsabilité. - Parler d’éthique, c’est en effet référer en premier lieu à un type d’action spécifiquement humaine, guidée par des principes et des valeurs. Une action éthique possède ainsi trois caractéristiques essentielles. Elle est d’abord intentionnelle, au sens "d’orientée vers une fin" qu’un agent se représente comme désirable. Elle est ensuite consciente, au sens de cette forme particulière de conscience appelée « conscience morale », laquelle comporte une dimension normative permettant à l’agent d’évaluer et d’apprécier ses actions selon des critères de justice, de dignité ou de respect, autrement dit, selon des valeurs morales. Enfin, elle est motivée par des raisons spécifiquement éthiques, que la tradition philosophique, à la suite notamment de Kant (1724-1804), qualifie de désintéressées, ou du moins comme prenant prioritairement en compte l’intérêt, la dignité et le bien-être des autres personnes.

 

C’est ce que rappelle le regretté Ruwen Ogien (1949-2017) dans un texte d’introduction à la philosophie morale issu de la tradition analytique (Précis de philosophie analytique, PUF, 2000), lorsqu’il distingue en filigrane les raisons morales d’agir de deux autres types de raisons : les raisons légales d’agir (respecter la loi afin d’éviter les sanctions prévues en cas de transgression) ; et les raisons prudentielles d’agir, qui relève du calcul de l’intérêt personnel, comme s’abstenir de faire quelque chose qui pourrait compromettre l’obtention d’une promotion imminente. Ogien écrit ainsi :

 

"Pour différentes raisons qui apparaîtront progressivement, il n’est pas très facile de dire ce que signifie agir “moralement” ou de définir les limites de ce qui peut être appelé “moral” ou “éthique”. L’un des critères qui peut nous servir, en première approximation, est celui de la spécificité de certaines raisons d’agir. Parmi les raisons que nous pouvons invoquer pour justifier une action, il semble que certaines peuvent être dites “morales” et d’autres pas. Si, pour justifier mon refus d’accepter un pot-de-vin, j’invoque le fait que je suis surveillé par mes collègues et que je risque de rater une promotion importante au cas où je serais dénoncé, cette justification ne sera probablement pas jugée “morale” (à défaut d’autres spécifications). Si, en revanche, j’invoque le bien commun, l’équité, l’honnêteté ou l’intégrité, on estimera, aussi probablement, que je propose une justification morale (même si personne ne la prend au sérieux). À première vue, les raisons d’agir morales sont de type altruiste, en ce qu’elles font appel à une certaine conception du respect de la personne."

 

Ces précisions permettent surtout de distinguer l’agir moral de tout autre type de comportement purement automatique, mécanique ou conditionné. De tels comportements vont précisément à l’encontre de la notion centrale d’agent, laquelle implique la capacité, pour un individu ou une entité donnée, de faire des choix, d’orienter ses conduites selon des raisons ou des motifs clairement assumés, et ce faisant, de se reconnaître comme l’auteur de ses actes. En d’autres termes, ce que les philosophes anglo-saxons nomment généralement l’agentivité (agency) suppose l’identification de soi comme sujet agissant, l’auto-affirmation comme auteur supposé libre de ses actes, et, par conséquent, la possibilité d’en être tenu pour responsable.

 

La notion de responsabilité, concept central tant en philosophie éthique qu’en droit, est donc consubstantielle à celle d’agentivité. On ne peut penser l’une sans l’autre : la responsabilité n’est en effet concevable que portée par un sujet au moins théoriquement libre et conscient de ses actes, tandis que l’agentivité contient, dans sa définition même, l’exigence de responsabilité. S’il convient de distinguer la responsabilité au sens philosophique du terme, qui relève de la métaphysique – puisqu’elle touche notamment à la question fondamentale de savoir s’il existe un libre arbitre ou si celui-ci n’est qu’une illusion –, de la responsabilité au sens juridique, codifiée dans des textes de lois selon la distinction fondamentale entre responsabilité civile et responsabilité pénale, les deux demeurent étroitement liées dans les faits.

 

C’est en ce sens que l’on peut dire que la philosophie fonde le droit. Il n’est en effet pas anodin de trouver à la base de notre droit la distinction fondamentale (summa divisio) entre, d’une part, les personnes, sujets de droit, et en cela assujetties à des obligations, notamment celle de devoir répondre de leurs actes – ce qui définit précisément la notion de sujet et de personne par celle de responsabilité –, et, d’autre part, les choses, objets de droit, comme les biens matériels, sur lesquels s’exercent des droits (par exemple le droit de propriété), mais auxquels aucune responsabilité ne peut être imputée, du fait même que les choses, par définition, ne disposent pas d’une capacité à agir au sens philosophique strict de l’agentivité.

 

C’est pour des raisons analogues que, malgré l’article 515-14 du Code civil introduit par la loi de 2015, qui reconnaît aux animaux le statut "d’êtres vivants doués de sensibilité", ceux-ci demeurent soumis au régime juridique des biens. Autrement dit, si les animaux peuvent être titulaires de droits, comme le droit à ne pas souffrir, ils ne peuvent être rangés dans la catégorie des personnes juridiques, dans la mesure où, agissant majoritairement par instinct ou conditionnement, ils ne peuvent être pleinement tenus responsables de leurs actes. Cette distinction recoupe celle établie en éthique animale entre, d’une part, les patients moraux, qui doivent être moralement pris en considération du fait de leur capacité à souffrir, sans être pour autant assujettis à des obligations, et, d’autre part, les agents moraux, capables d’évaluer leurs actions, d’en anticiper les conséquences, et de les motiver par des valeurs.

 

Enfin, que ce soit en philosophie morale ou en droit, la notion de responsabilité, reliée respectivement aux notions d’agentivité et de personne sujet de droits, ne peut être pensée sans être articulée à trois autres notions fondamentales de la philosophie éthique : celles de liberté, de devoir et d’obligation. Comment, en effet, imputer à un individu la responsabilité d’un acte si nous ne supposons pas simultanément, au moins à titre de postulat, qu’il aurait pu agir autrement ? Le droit, comme la morale, reposent ainsi, à titre de condition de possibilité, et pour ne pas finalement avoir à se nier eux-mêmes, la reconnaissance de l’être humain comme agent moral, c’est-à-dire comme être libre et responsable de ses actes. Et c’est finalement sur ces deux idées fondamentales simples, à savoir : 1) les êtres humains ont la capacité de choisir librement ce qu’ils font et le sens qu’ils donnent à leurs actions (agentivité) ; 2) en vertu de cette qualité d’agent libre, les êtres humains doivent répondre de leurs choix et de leurs actes devant les autres (Responsabilité), que les sociétés modernes se sont constituées au cours des derniers siècles.  

 

Or que se passe-t-il lorsque nous ne nous contentons plus seulement de demander à des dispositifs techniques de faciliter le travail humain et d’améliorer la production de biens ou de services, mais d’agir à la place de l’humain dans un nombre toujours plus important de secteurs d’activité ? Que se passe-t-il lorsque le déploiement de plus en plus généralisé de systèmes d’IA – santé, transport, sécurité, énergie, etc. –, pourtant encore dénués de toute conscience, et souffrant, de ce point de vue-là, de toute comparaison avec les capacités cognitives humaines, viennent questionner les deux attributs essentiels de l’agentivité morale, de par le fait que nous leur déléguons de plus en plus notre capacité à agir ? En d’autres termes – et c’est précisément ce point central que pointe de façon saisissante l’article de Thierry Ménissier –, à chaque fois que nous décidons de déléguer à des systèmes d’IA notre pouvoir d’agir, 1) nous rompons le lien séculaire entre "agentivité" et "responsabilité", 2) nous rendons du même coup problématique la question de la responsabilité et de l’imputation de la faute en cas de dommages, d’erreurs ou de conséquences imprévues.

 

Bref, sous le prétexte de l’efficacité – dont il faut bien admettre qu’elle constitue un argument puissant, difficile à écarter, sans céder à une forme de pureté morale fantasmée –, nous sommes en train – et c’est peut-être là le fait le plus remarquable de la révolution technologique actuelle, du fait de son caractère à la fois latent et fulgurant –, de fragiliser notre qualité d’agents et d’auteurs responsables de nos actes. Ce processus, déjà largement observable dans les usages et dans la manière dont l’IA contribuait à transformer en profondeur des pans entiers de l’activité humaine au moment où écrit Thierry Ménissier – le texte date du 19 octobre 2019 –, s’est trouvé largement amplifié depuis l’émergence et la diffusion massive des IA génératives, à depuis l’avènement du moment ChatGPT, le 30 novembre 2022.

 

Si jusqu’à présent en effet, nous pouvons tenir le conducteur d’un véhicule pour responsable en cas d’accident de la route, qu’en est-il pour la voiture autonome ? Faut-il incomber la faute au constructeur du véhicule ? Où incriminer le fabriquant des capteurs ou des systèmes embarqués, comme les radars ou les caméras, dont le défaut de fonctionnement au moment de l’accident pourrait être mis en cause ? Qu’en est-il du propriétaire du véhicule ? N’aurait-il pas respecté les conditions générales d’utilisation en omettant de mettre à jour le logiciel d’IA embarqué dans la voiture ? A moins que ce ne soit la faute des développeurs du logiciel eux-mêmes ? Voire un défaut au niveau de l’infrastructure routière ? Etc. Le cas du véhicule autonome illustre de façon quasi paradigmatique le questionnement soulevé à l’endroit de la notion centrale d’agentivité-responsabilité. Comment en effet, dans pareils cas, peut-on être reconnu comme l’auteur libre et responsable de ses actes, lorsque la conduite est automatisée ? Bref, lorsque ce n’est plus nous qui conduisons ?  

 

Des cas de dilemmes similaires se posent dans le domaine militaire, avec les drones armés et les systèmes d’armes létales autonomes. En cas de pertes civiles causées par un drone armé, faut-il en effet condamner l’entreprise qui a développé l’algorithme de ciblage et pris la décision de tirer ? Qu’en est-il de l’opérateur qui a programmé la mission, bien qu’il ne soit intervenu à aucun moment durant son exécution ? Doit-on, au contraire, interroger en priorité la responsabilité des décideurs militaires et politiques qui ont commandité la mission et autorisé l’usage de drones armés, avec l’objectif pourtant louable de ne pas mettre en danger la vie de leurs soldats ? Lorsque la technologie vient bouleverser en profondeur l’idée traditionnelle de la guerre, et que l’acte — voire la décision tragique de donner la mort, au risque de sacrifier des civils — est déléguée à des systèmes techniques pilotés à distance ou entièrement autonomes, c’est la perception même de la gravité de ce que cet acte engageait, du point de vue de l’agent, qui se trouve brouillée. En d’autres termes, l’acte de déléguer ne rend pas seulement problématique la possibilité d’imputer à un agent la responsabilité entière des conséquences de ce qu’il choisit de faire ; il constitue également un acte de déresponsabilisation, – au sens fort de "rendre irresponsable" –, en ôtant à ce dernier le fait d’avoir à supporter la charge émotionnelle et psychologique inévitablement engagée dans la résolution d’un dilemme moral.

 

Dans le domaine de la santé et de l’aide aux personnes vulnérables, comme les personnes âgées, les malades, ou les personnes handicapées, l’essor et l’usage de dispositifs connectés comme l’IoT (Internet of Things) sont de plus en plus capables de prendre en charge une partie importante de la vie quotidienne des patients, voire de prendre en toute autonomie des "décisions" en fonction des données qu’ils reçoivent de leur environnement. Des capteurs connectés peuvent ainsi surveiller en permanence l’état de santé d’une personne âgée ou handicapée, mesurer des constantes vitales comme la fréquence cardiaque, la tension artérielle ou la glycémie, alerter sur un risque de détérioration d’une pathologie chronique, détecter des chutes ou des mouvements anormaux, ou encore ajuster le chauffage ou distribuer des médicaments selon des horaires précis. En prenant en charge un nombre toujours plus important de tâches jusque-là dévolues au corps médical, voire aux proches, cette "agentivité de substitution" — des systèmes technologiques agissant en lieu et place, ou en relais, de l’agentivité humaine — constitue une rupture fondamentale dans la manière dont on avait jusqu’ici l’habitude de prodiguer des soins. Si l’apport de ces dispositifs semble évident, dans la mesure où ils visent à améliorer la qualité des soins, à renforcer la sécurité et le bien-être des personnes vulnérables, mais aussi à alléger la charge du personnel soignant dans des contextes d’urgence et de sous-effectifs, ils soulèvent néanmoins des questions nouvelles au croisement de l’éthique médicale et de l’éthique de l’IA. Jusqu’où devons-nous en effet aller dans la délégation des tâches et des décisions ? Le processus croissant d’automatisation ne risque-t-il pas de priver les personnes en difficulté du peu d’espace d’autonomie qu’il leur restait ? Bref, ne risque-t-on pas de placer l’ensemble des acteurs concernés — personnels soignants, patients et proches — dans une situation de dépendance totale à l’égard de dispositifs techniques qu’ils ont contribué à mettre en place et, in fine, des sociétés qui les ont conçus ?

 

Ces trois exemples, pris dans les domaines des transports, de la défense et de la santé, pourraient être élargis à bien d’autres secteurs, comme la gestion des villes intelligentes (smart cities), la finance, la sécurité, etc. L’idée centrale, magistralement mise en lumière par Ménissier, est la suivante : partout où des tâches, des actions, des processus ou des décisions sont automatisés et délégués à des systèmes d’intelligence artificielle — dont les capacités et le champ d’expansion de leur domaine d’intervention ne cessent de croître et sont appelés à s’étendre encore dans les années à venir, jusqu’à potentiellement réaliser, en tout point et de manière plus efficiente, tout ce que les êtres humains, pris collectivement, sont capables de faire —, nous transformons en profondeur notre manière d’agir sur nous-mêmes, sur les autres et sur la société, et contribuons à brouiller le lien historiquement établi, et finalement fondateur de l’éthique philosophique, entre "agentivité" et "responsabilité".


Le déploiement des systèmes d’intelligence artificielle a ainsi pour conséquence d’ébranler en profondeur l’ensemble des sphères de l’activité humaine, sans en épargner aucune. Ils créent des situations nouvelles, largement non anticipées, qui sont vécues comme profondément déroutantes par la plupart des individus. L’irruption de l’IA générative dans le quotidien des personnes, et les capacités de traitement automatique du langage qu’elle rend possibles, en constitue un exemple particulièrement frappant. Ces systèmes font ainsi émerger des problèmes éthiques inédits, dans un contexte où les repères moraux hérités du passé se trouvent fortement remis en question. Nous sommes dès lors confrontés à la lourde tâche de devoir construire une éthique nouvelle dans un monde caractérisé par une forme d’automatisation généralisée des activités physiques et cognitives de l’être humain. Ce constat nous enjoint de répondre à une troisième question dont l’enjeu centrale est de préserver l’agentivité-responsabilité humaine dans un monde de plus en plus automatisé. Bref, de définir une éthique qui garantisse les conditions de possibilités d’un humain à la fois actif et auteur de ses actes (agentivité), et pleinement responsable (responsabilité). 

 

 

 

 

 

 

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page