top of page
Rechercher

L'éthique à l'épreuve de l'IA: les limites de l'éthique des machines (3).

  • francknegro1900
  • 23 janv.
  • 17 min de lecture

Dernière mise à jour : 24 janv.

Les limites de l’éthique computationnelle. – Ce qui nous amène à examiner enfin, un autre champ de l’éthique, situé au croisement de la philosophie, de l’informatique, de l’intelligence artificielle et des sciences cognitives, et qui tend à devenir, depuis le début des années 2000, un champ de recherche à part entière : l’éthique des machines (Machine Ethics). Ce que Ménissier appelle non plus une "éthique appliquée à l’IA", mais une "éthique intégrée à l’IA", afin d’indiquer qu’il s’agit moins de questionner, de façon externe, les problèmes éthiques et sociétaux soulevés par les systèmes d’IA, dans le but d’en réguler socialement et juridiquement les usages, que de concevoir des agents qui intégreraient, dans leur fonctionnement même, des considérations morales. Bref, des agents qui seraient capables de se comporter de façon autonome comme des agents moraux artificiels.

 

Or, ce qui pourrait apparaître comme une tentative technique de préservation des conditions de possibilité de l’exercice de l’agentivité-responsabilité humaines, par l’implémentation d’une éthique dite "computationnelle" – c’est-à-dire littéralement embarquée dans les modèles d’IA –, vient en réalité se heurter à deux problèmes fondamentaux, que nous allons examiner tour à tour : 1) ce que Jocelyn Maclure et Marie-Noëlle Saint-Pierre ont nommé le "problème aristotélicien-wittgensteinien" (voir leur article Le nouvel âge de l’intelligence artificielle : une synthèse des enjeux éthiques, 2018) ; 2) le problème bien connu en éthique de l’IA, et plus précisément en éthique des machines, généralement appelé le "problème de l’alignement des valeurs".

 

Il apparaît en effet que, compte tenu de l’impossibilité actuelle de concevoir des agents artificiels véritablement autonomes et dotés d’une conscience morale – à l’image des êtres humains –, toute tentative visant à apprendre aux machines à se comporter (au moins en apparence) de manière "éthique" se heurte à des limites qui tiennent moins à un défaut de sophistication technique qu’au fait même que l’agir moral, tel qu’il est défini par une certaine tradition de philosophie éthique d’influence empiriste et pragmatiste, mais également tel qu’il est généralement admis par nos institutions, suppose une agentivité et une responsabilité dont les systèmes artificiels sont, pour le moment, totalement dépourvus, et ce, malgré les ambitions affichées par certains programmes de recherche en éthique des machines. C’est ce qu’une lecture croisée d’Aristote (384-322 av. J.-C.) – celui de l’Éthique à Nicomaque – et de Wittgenstein (1889-1951) – celui des Investigations philosophiques – va nous permettre de mettre en évidence.

 

Qu’est-ce en effet qu’agir moralement, si ce n’est invoquer, en toute conscience, des valeurs dites morales, comme le respect, l’honnêteté, la justice, la bienfaisance, le courage, etc. – ce que l’on appelle des raisons morales d’agir –, comme guide de nos décisions et de nos actions, et confronter ces valeurs à des contextes, des circonstances et des situations donnés ? On pourrait ainsi résumer le problème fondamental de l’éthique de la manière suivante : "Comment pouvons-nous appliquer des normes ou des principes moraux généraux à des situations qui sont, elles, par nature, presque toujours particulières, sans sacrifier ni l’esprit des principes, ni la complexité des situations auxquelles des agents peuvent être confrontés ?"

 

Tout raisonnement éthique, par nature pratique, consiste en effet à rapporter des normes abstraites à des situations concrètes et singulières. Or, comme ne cesse de le rappeler Aristote dans son Éthique à Nicomaque, il est impossible d’appliquer de façon systématique des principes généraux et abstraits sans tenir compte des situations particulières au prisme desquelles il convient d’ajuster les normes en question. En d’autres termes, il n’existe pas de méthode déductive, générale et infaillible de l’action éthiquement adéquate qui vaudrait pour toutes les situations, puisque l’éthique est moins une science spéculative (théoria) qu’une connaissance pratique et empirique (praxis).

 

Ce dont l’agent moral a le plus besoin dans de tels cas, c’est de posséder "la plus excellente et la plus parfaite" des vertus, que le Stagirite appelle phronesis, et que l’on traduit généralement par "prudence" ou "sagesse pratique". Mais le terme "prudent" ne doit surtout pas être compris ici dans le sens affaibli qu’il a acquis aujourd’hui, comme simple évitement des erreurs ou des malheurs possibles, mais bien comme une vertu dite "intellectuelle" au service de la pratique. Il s’agit de la capacité à relier une loi morale connue à une situation singulière, et à déterminer l’action qu’il convient d’accomplir dans la situation particulière en question. En ce sens, la prudence, au sens aristotélicien du terme, désigne l’intelligence ou la sagesse pratique lorsqu’elle opère dans le domaine des actions qui engagent moralement l’agent. L’homme prudent est ainsi celui qui parvient, en toute circonstance, à concilier l’idéal et le réel : l’idéal, qui suppose la connaissance de ce qu’il convient de faire ou de la manière dont nous devons nous comporter pour accomplir notre fonction propre d’être humain (sagesse théorique ou sophia) ; le réel, parce qu’il n’y a de moralité que dans la pluralité des actions auxquelles nous sommes confrontés tout au long de notre vie, toutes singulières, et qui empêchent précisément l’application uniforme d’une même loi morale, quelles que soient les situations rencontrées.

 

Ce qu’Aristote montre à partir de l’analyse des spécificités de l’agir moral – lequel doit toujours être contextualisé, ancré dans des situations déterminées, et ne peut, de ce fait, être entièrement réglé par l’application d’un ensemble de règles explicites et générales –, Wittgenstein va le mettre en évidence à partir de l’analyse de la manière dont nous utilisons ordinairement le langage. Il appelle précisément "jeux de langage" les multiples pratiques langagières communes et concrètes, partagées par des sujets parlants au sein de contextes culturels et historiques donnés. Les jeux de langage, et le sens que nous associons spontanément aux mots, sont ainsi toujours liés à ce que Wittgenstein nomme des formes de vie partagées, lesquelles sont réglées par des usages qui sont, en dernière instance, enracinés dans une culture, une éducation, des mœurs, des coutumes, ou encore, des pratiques sociales.

 

En d’autres termes, les règles morales qui servent à guider nos décisions et nos actions, ainsi que le sens que nous leur attribuons, ne sont jamais entièrement explicitables, dans la mesure où elles ne prennent sens que dans le cadre de pratiques concrètes et partagées, qui déterminent des manières d’agir et de juger propres à une communauté humaine donnée. D’où l’intervention de ce que l’on peut appeler le sens commun, lequel repose davantage sur des expériences et des intuitions largement partagées, que sur des raisonnements logiquement élaborés, ou sur des règles qui viendraient être justifiées par d’autres règles.

 

Aristote et Wittgenstein convergent ainsi, chacun à leur manière, et à partir d’analyses et d’horizons philosophiques distincts, vers une même conclusion : aucun corpus de règles explicites, quelle que soit son exhaustivité ou sa pertinence, ne peut être appliqué mécaniquement et de façon indifférenciée, compte tenu de la complexité de l’agir éthique et de la diversité des contextes dans lesquels ces règles sont susceptibles de s’appliquer. Il s’agit de montrer désormais en quoi cette impossibilité conceptuelle de réduire l’agentivité morale humaine à l’application de règles explicites et générales – laquelle met simultanément en évidence d’ailleurs, les limites pratiques des éthiques déontologiques et conséquentialistes –, constitue également, et sans doute de manière décisive, le principal défi posé par le second problème que nous avons mentionné, à savoir, celui de l’alignement des valeurs et de la construction d’agents moraux artificiels.

 

Le problème de l’alignement des valeurs. – Dans leur ouvrage de référence Intelligence artificielle, une approche moderne (Pearson, 2021), Stuart Russell et Peter Norvig mettent clairement en évidence les problèmes éthiques posés par le modèle standard de l’agent dit "rationnel", qui a guidé la recherche en intelligence artificielle depuis ses débuts. Ce modèle concerne aussi bien la conception d’agents physiques – tels que des robots, des véhicules autonomes ou des drones – que celle d’agents purement virtuels (logiciels), comme des agents conversationnels, des programmes de jeu, des algorithmes de notation ou encore des systèmes de décision entièrement automatisés. L’idée centrale du modèle standard de développement des agents en IA consiste à définir un objectif à atteindre – on parle également de fonction d’utilité pour désigner une fonction mathématique chargée d’évaluer le niveau de performance de l’agent relativement à l’objectif qui lui a été fixé –, puis à attendre de l’agent qu’il optimise les actions nécessaires à la réalisation de cet objectif en fonction des informations qu’il reçoit de son environnement.

 

Or, précisent les auteurs, spécifier de manière complète et correcte un objectif à un agent informatique est loin d’être chose aisée, voire même possible, lorsqu’il s’agit de faire évoluer ce dernier dans des environnements réels, complexes et largement imprévisibles. L’exemple de la mise en circulation de véhicules autonomes entièrement automatisés met ainsi parfaitement en évidence les limites du modèle standard de l’agent rationnel. Comment, en effet, se contenter de spécifier à un agent – ici un véhicule autonome – l’objectif d’atteindre une destination en toute sécurité, alors que la conduite automobile exige de réaliser en permanence des compromis, c’est-à-dire des choix, entre progresser vers la destination et limiter les risques encourus par d’autres usagers de la route ? Sur quelle base établir de tels compromis ? Jusqu’où permettre à un véhicule autonome d’adopter des comportements susceptibles de gêner d’autres conducteurs, voire ses propres passagers ? Comment doit-il gérer ses accélérations, ses freinages ou ses changements de trajectoire tout en maximisant à la fois la sécurité, le confort et les attentes des passagers ?

Ces questions apparaissent d’autant plus centrales et difficiles que les interactions entre les humains et les systèmes robotiques sont appelées à se multiplier dans les années à venir. Dans un tel contexte, le déploiement d’agents physiques ou virtuels dont les objectifs auraient été mal définis pourrait entraîner des conséquences préjudiciables, dont la gravité serait proportionnelle au niveau d’autonomie et d’intelligence de ces systèmes.

 

Stuart Russell et Peter Norvig donnent à ce propos l’exemple, en apparence anodin, d’une machine jouant aux échecs dont le seul objectif serait de gagner la partie. Une telle machine pourrait, en toute cohérence avec l’objectif qui lui a été assigné, mettre en œuvre tous les moyens possibles et imaginables pour l’atteindre, en hypnotisant par exemple son adversaire, ou en détournant à son profit des ressources computationnelles externes. Ces stratagèmes, qui consistent à mobiliser n’importe quel moyen pour atteindre une fin donnée, ne seraient rien d’autre que la conséquence logique de la définition univoque de l’objectif assigné à la machine.

 

Cet exemple met ainsi clairement en évidence ce que les chercheurs en IA désignent sous le nom de problème de l’alignement des valeurs. Celui-ci peut être résumé par les deux questions suivantes : "Comment aligner les objectifs et les valeurs incorporés dans une machine avec ceux des êtres humains ?" et "Comment s’assurer qu’un agent artificiel dit intelligent ne recourra pas à des stratégies susceptibles de mettre en danger l’intégrité physique ou morale des personnes, dans le seul but d’atteindre l’objectif pour lequel il a été conçu ?" La reconnaissance de ce problème rend de ce fait caduc le modèle standard de l’agent rationnel, dans lequel le "bon choix" est défini exclusivement par l’objectif assigné à l’agent, et appelle la mise en place d’un nouveau cadre conceptuel, non plus centré sur les seuls objectifs fonctionnels de la machine, mais sur les objectifs, les préférences et les valeurs axiologiques des êtres humains. Ce qui impose de réviser le modèle de rationalité à partir duquel opère l’agent.

 

Le type de rationalité mis en œuvre par le modèle standard de l’agent rationnel est en effet à la fois téléologique – orientée vers un but –, instrumentale – puisqu’il s’agit de sélectionner les meilleurs moyens pour atteindre ce but – et optimisatrice – dans la mesure où elle vise à maximiser une fonction d’utilité prédéfinie. Cette rationalité s’oppose ainsi à ce que l’on pourrait appeler une rationalité axiologique, orientée en premier lieu vers des normes, des principes et des valeurs morales, qui ne se contentent pas de questionner la légitimité des objectifs assignés au système, mais viennent surtout encadrer et limiter ses impératifs d’efficacité et d’efficience.

 

Ce que l’on appelle l’éthique des machines vise donc à dépasser la simple logique de la rationalité téléologique et instrumentale inscrite au cœur du modèle standard de l’agent rationnel, afin d’y introduire une forme de rationalité élargie intégrant également une dimension axiologique. L’objectif ultime serait alors de concevoir des agents autonomes dont les comportements seraient alignés sur des principes et des valeurs censés réguler leur fonctionnement. Toute la question est désormais de savoir par quels moyens – et selon quelles méthodes – il est possible d’implémenter, au sein même des agents, cette fonction de régulation.

 

Il existe à ce jour trois grandes stratégies d’alignement qui visent toutes un même objectif : contraindre et ajuster le comportement des systèmes d’IA en fonction de normes et de règles morales préalablement définies. Ces normes et ces règles sont généralement consignées dans des codes de conduite, des chartes éthiques ou des lignes directrices ayant fait l’objet de processus de conception, de consultation et de délibération pouvant impliquer des philosophes, des juristes, des informaticiens, voire des citoyens, en tant que futurs usagers des systèmes.

Elles prennent généralement appui sur des documents ou des déclarations de référence, tels que les 23 principes d’Asilomar, la Déclaration de Montréal, les Recommandations sur l’éthique de l’UNESCO, ou encore la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, ainsi que la Charte des droits fondamentaux de l’Union européenne. Elles sont également largement redevables des grandes théories de l’éthique normative, en particulier le déontologisme et le conséquentialisme. Aligner un système d’IA sur des préférences humaines répond ainsi à un triple enjeu : 1) Définir les valeurs et les normes que le système devra, autant que possible, respecter ; 2) Implémenter techniquement ces normes, ce qui suppose de les transposer en procédures algorithmiques ; 3) Enfin, s’assurer et contrôler que le comportement effectif du système demeure conforme aux valeurs préalablement définies.

 

Ces remarques sur les enjeux liés au traitement du problème de l’alignement des valeurs montrent de manière suffisamment claire qu’il n’existe pas de neutralité axiologique des systèmes d’IA, et que les valeurs qu’ils mobilisent reflètent nécessairement la vision du monde des acteurs qui ont contribué, plus ou moins directement, à concevoir et à implémenter le système de normes censé régir leur comportement. Ces remarques valent pour les trois méthodes d’alignement que nous allons maintenant détailler, et permettent de montrer à quel point l’éthique des machines – qui n’est rien d’autre qu’une forme "d’éthique embarquée" – ne fait que reconduire, sur un autre plan, les apories inhérentes au projet d’une agentivité morale de type "algorithmique", telles qu’elles sont déjà suggérées par l’expression même "d’agent moral artificiel".

 

Afin de rendre ces apories plus concrètes, je prendrai l’exemple d’un agent conversationnel dont on cherche à contrôler la moralité des réponses dans des contextes particulièrement sensibles, tels que le conseil juridique, le conseil financier, l’aide psychologique, le domaine des croyances philosophiques, politiques ou religieuses, les conseils médicaux préliminaires, la sécurité ou encore l’orientation scolaire. Bref, toutes les situations dans lesquelles les réponses produites par l’agent sont susceptibles d’avoir des conséquences significatives sur la vie de ses usagers.

 

  • L’apprentissage par renforcement. – La première grande méthode d’alignement est ce que l’on appelle l’apprentissage par renforcement avec feedback humain. Des annotateurs humains soumettent le modèle, préalablement entraîné, à une série de questions extrêmement diversifiées portant sur des sujets sensibles, puis indiquent, sous la forme d’annotations (scores) – récompenses ou sanctions –, si les réponses fournies par le modèle sont conformes ou non aux lignes directrices définies lors de la phase de conception du référentiel éthique. Le modèle intègre progressivement ces retours jusqu’à ce que les concepteurs jugent possible d’entrer dans la phase suivante, celle du déploiement. Quatre reproches sont généralement adressés à cette méthode : 1) le comportement final du modèle dépend fortement des évaluations des annotateurs, lesquelles peuvent varier selon les contextes culturels et les interprétations des règles ; 2) elle est coûteuse en ressources, notamment humaines ; 3) le modèle ne se réfère pas à des règles ou à des normes explicitement formulées ; 4) il ne "comprend" pas pourquoi telle réponse est jugée désirable ou indésirable.

  • L’alignement constitutionnel. – Afin de pallier certaines limites de l’apprentissage par renforcement, les chercheurs ont développé une méthode visant notamment à répondre aux critiques (1), (2) et (3). Popularisé par la société Anthropic et son agent conversationnel Claude, l’alignement constitutionnel repose sur une idée simple : plutôt que de soumettre chaque réponse du modèle à l’évaluation d’annotateurs humains, on intègre directement dans le modèle un ensemble de principes et de valeurs éthiques explicitement définis – une "constitution". En d’autres termes, chaque réponse du modèle est soumise à une forme de "contrôle interne de constitutionnalité" avant d’être renvoyée à l’utilisateur. Là où la première approche s’inspire largement de la psychologie comportementale, cette seconde méthode fait explicitement référence au droit constitutionnel et à l’idée de hiérarchie des normes.

  • L’alignement délibératif. – Enfin, l’approche délibérative vise à prolonger l’alignement constitutionnel en y associant des capacités explicites de raisonnement moral. Il ne s’agit plus seulement de contrôler la conformité des réponses à des règles intégrées, mais de permettre au modèle de formuler des raisonnements éthiques étape par étape. Dans cette perspective, la phase d’entraînement repose sur des exemples comprenant : 1) une situation donnée ; 2) des spécifications de sécurité (documents décrivant des types de situations problématiques) ; 3) une chaîne de raisonnement ; 4) une réponse finale. Le modèle est ainsi entraîné à produire des réponses moralement acceptables en reliant des principes abstraits à des décisions concrètes par l’intermédiaire d’un raisonnement explicité. Cette approche s’inspire directement d’un modèle de délibération éthique, dans lequel une situation est analysée, confrontée à des valeurs, puis justifiée par une suite d’arguments.

 

Le projet de conception "d’agents moraux artificiels", qui est au cœur de l’éthique des machines, souffre en réalité d’une ambiguïté fondamentale, laquelle repose entièrement sur la clarification de la notion même "d’agent", ou, à tout le moins, sur la distinction entre deux formes d’agir que Luciano Floridi a parfaitement explicitée dans son ouvrage consacré à L’éthique de l’intelligence artificielle : d’une part, "l’agir" au sens philosophique et moral du terme, défini par des attributs cognitifs et intentionnels tels que la conscience phénoménale, la conscience réflexive, la conscience morale, l’intentionnalité, la volition, la capacité de compréhension, etc. ; d’autre part, un "agir" dit minimaliste et informatique, défini par trois conditions de base qu’un système informatique (IA) doit remplir, à savoir : 1) recevoir et utiliser des données en provenance de l’environnement ; 2) prendre de façon autonome des mesures pour atteindre des objectifs à partir des données collectées ; 3) améliorer ses performances grâce aux enseignements tirés de ses interactions (apprentissage).

 

Sans reprendre des propos que j’ai déjà développés ailleurs, la distinction fondamentale opérée par Floridi vise précisément à éviter le biais d’anthropomorphisme inhérent à tout discours sur l’IA, à rappeler la distinction essentielle entre "agir moralement" et "se comporter moralement", et, partant, à dénier aux machines, quel que soit leur niveau de technicité, le statut d’agentivité-responsabilité. Si un comportement renvoie en effet, au sens strict du terme, à un ensemble de réactions observables de l’extérieur — comme dans le behaviorisme ou la psychologie du comportement, qui étudient les réactions des individus à leur milieu sans recourir à l’introspection ni à l’hypothèse d’états mentaux non observables —, l’action, en revanche, en tant que réalisation et exécution d’un acte, insiste sur le caractère, au contraire, actif, volontaire et intentionnel de l’agent.

 

Or, en tant que nouvelle forme d’agir, l’IA rend pour la première fois possible le découplage entre la capacité d’un système technique à réaliser de façon autonome et avec succès un ensemble de tâches données – écrire ou expliquer un texte, le traduire en plusieurs langues, rédiger des dissertations, répondre à des questions, etc. –, et la nécessité de posséder une intelligence ou un ensemble de capacités cognitives pour réaliser ces tâches.


Ce qui est valable du point de vue strictement fonctionnel l’est désormais également du point de vue axiologique. Si, en effet, pendant très longtemps — je laisse ici de côté les célèbres procès intentés aux animaux durant le Moyen Âge — la réflexion éthique sur ce qui est bien ou mal de faire, juste ou injuste, a exclusivement porté sur les êtres humains — car eux seuls sont capables (à ce jour) d’intention, de choix et, par conséquent, de responsabilité —, les développements exponentiels que nous connaissons depuis quelques années dans le domaine de l’intelligence artificielle sont en train de modifier profondément la situation. Il est ainsi désormais possible de qualifier d’éthique ou de moral un artefact issu de l’ingénierie humaine, qui ne possède pourtant aucun des attributs généralement admis pour pouvoir être considéré comme un agent moral, tels qu’une conscience morale, des intentions, des émotions, une forme de psychologie associée au sens commun, la compréhension des enjeux éthiques liés à des contextes ou à des situations variées, une faculté de délibération morale, ou encore une capacité d’agir librement comparable à celle d’un être humain.

En réduisant "l’agir moral" à des calculs computationnels avancés, l’éthique des machines découple, de façon tout à fait inédite, l’agentivité de la responsabilité. Elle postule de fait qu’il est possible — pour des raisons d’ailleurs légitimes de prévention des risques — de confier à des machines des "décisions" régulées par des valeurs, sans porter le poids de la responsabilité que tout engagement moral exige normalement de la part de celui qui est l’auteur de l’action. Elle oblige, de ce fait, ces démiurges des temps modernes que sont les chercheurs et les informaticiens à réfléchir aux contextes d’usage des automates qu’ils conçoivent et à envisager, dans le cadre d’une collaboration nécessairement pluridisciplinaire, de penser le plus complètement possible les effets sociotechniques de leurs créations.

 

Ce découplage entre "agir moral" et "responsabilité" soulève en effet des questions à la fois essentielles et vertigineuses, qui vont, à mon sens, occuper une part considérable de l’énergie des ingénieurs, des philosophes, des juristes, des responsables politiques, mais aussi de la société civile, dans les années à venir, jusqu’à probablement façonner les sociétés et les institutions de demain. Au nom de quelles valeurs, doctrines ou justifications éthiques devrions-nous accepter de confier à des machines des décisions et des tâches susceptibles d’avoir des effets concrets sur les comportements, le développement cognitif et le bien-être des personnes ? Quelle méthode d’alignement peut-on envisager lorsqu’une machine doit arbitrer entre des valeurs conflictuelles — voire culturellement situées — dans le cadre de la résolution de dilemmes éthiques où plusieurs solutions peuvent être moralement justifiées ? Qui doit décider des valeurs à intégrer dans des systèmes appelés à être utilisés à grande échelle, dans des contextes où la vie des personnes peut être engagée ? Jusqu’où devrions-nous laisser les machines s’exprimer librement ? Ne devrions-nous pas, au nom de la diversité culturelle, concevoir des algorithmes prenant davantage en compte les préférences axiologiques et religieuses d’une communauté donnée ? Jusqu’où devrions-nous confier à des algorithmes des décisions susceptibles d’avoir des effets directs sur nos choix d’existence ? Et en quoi pourrions-nous, dans ce cadre, encore être considérés comme responsables de ce que nous faisons et de ce que nous sommes ? Devrions-nous, d’ailleurs, laisser les IA menacer ce que la culture nous a légué de plus précieux et de plus humain, comme la littérature, l’art, la musique, la philosophie, le cinéma, etc. ?

 

Et si, demain, nous parvenions à créer des machines disposant d’une agentivité similaire à celle de l’homme, devrions-nous les tenir pour responsables de leurs actes ? Ou encore leur attribuer une personnalité juridique et les soumettre aux mêmes textes de loi que les humains ? Devraient-elles disposer des mêmes droits fondamentaux que nous ? Ou devrions-nous envisager une déclaration universelle des droits des machines, au même titre qu’il existe une déclaration universelle des droits de l’homme ? Allons-nous un jour juger des machines — ou être jugés par des machines ? Avoir des obligations juridiques et morales à leur égard ? Etc.

 

En guise de conclusion provisoire. – L’éthique de l’IA n’est donc pas, à ce jour, une éthique unifiée qui se présenterait sous la forme d’un seul registre argumentatif. Sa diversité tient à la fois aux acteurs qui la pratiquent, aux points de vue à partir desquels elle est questionnée, à ses modalités de mise en œuvre, aux finalités mêmes dont elle se réclame, ainsi qu’au niveau et à l’échelle à partir desquels elle opère. Elle est ainsi traversée par une pluralité de discours de nature normative qui, sans être réductibles les uns aux autres, peuvent néanmoins être articulés logiquement, dans le souci de mettre en évidence à la fois leurs différences et leur complémentarité essentielle. Mais aussi, et surtout, afin de ne pas laisser aux seuls ingénieurs et informaticiens le choix des valeurs, ni de déléguer aux machines et à la technologie ce qui relève avant tout de choix de société devant être soumis au débat démocratique. Dans ce cadre, il est possible de considérer l'éthique de l'IA à partir de quatre dimensions essentielles:

 

  • L’éthique des informaticiens et des développeurs. – D’abord, l’éthique des informaticiens et des développeurs, dont la responsabilité est appelée à croître du fait de l’automatisation croissante que subissent aujourd’hui la majorité de nos pratiques sociales. Dans ce cadre, l’éthique des développeurs concerne avant tout le comportement que doivent adopter les personnes impliquées dans les phases de recherche, de développement et de déploiement des systèmes d’intelligence artificielle.

  • L’éthique des philosophes. – En tant que discipline philosophique relevant du champ de l’éthique appliquée, l’éthique est moins un discours portant sur des principes et leur consignation dans des chartes ou des codes de conduite, destinés à guider et réguler des pratiques, qu’une démarche réflexive, critique, argumentative et délibérative, visant à clarifier les concepts, et à expliciter, de manière contextuelle, les valeurs et le sens que nous leur attribuons. En tant qu’elle porte sur l’agir individuel et social, l’éthique philosophique possède également une dimension collective qui la rattache à la philosophie politique. Les questions éthiques soulevées par l’IA sont, en ce sens, également des questions de philosophie politique, dans la mesure où elles engagent des choix de société et concernent directement les institutions.

  • L’éthique des machines. – Centrée sur le problème de l’alignement des valeurs et sur la conception d’agents moraux artificiels, l’éthique des machines constitue un champ de recherche interdisciplinaire visant à étudier les conditions dans lesquelles des systèmes d’IA peuvent se comporter de façon moralement acceptable et conforme aux valeurs sur lesquelles ils ont été entraînés.

  • L’éthique des institutions. – Alors que l’éthique des ingénieurs se concentre sur le bon comportement des personnes impliquées dans la chaîne de valeur de l’IA, et que l’éthique des machines porte sur le comportement moralement acceptable des systèmes eux-mêmes, l’éthique des institutions concerne, plus généralement et à différentes échelles, le bon comportement des institutions, entendues ici au sens large : entreprises (via des programmes de conformité), États, organisations régionales (telles que l’Union européenne) ou institutions internationales (ONU, UNESCO, OCDE, etc.). Elle peut prendre la forme de textes relevant de la "soft law" – principes, déclarations, recommandations, lignes directrices, livres blancs, codes de conduite, etc. – mais également de règles juridiques contraignantes, telles que le RGPD (Règlement général sur la protection des données personnelles) ou l’AI Act (Règlement sur l’intelligence artificielle).

 

 

 

 

 

 

 

 

 

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page