De la bioéthique à l'éthique de l'intelligence artificielle.
- francknegro1900
- 15 nov. 2024
- 9 min de lecture
Dernière mise à jour : 18 sept.
Le terme "éthique appliquée" est apparu aux États-Unis au cours des années 1960. Ce n’est toutefois qu’à partir des années 1970 que l’éthique philosophique va subir une inflexion de ses recherches et passer progressivement d’une éthique théorique et spéculative centrée sur l’analyse sémantique et épistémologique des discours éthiques (ce que l’on nomme "métaéthique"), à une éthique plus concrète et sectorielle davantage centrée sur les implications morales provoquées par certaines évolutions du monde contemporain liées notamment à l’évolution des mœurs, à l’émergence de la question environnementale et à sa compatibilité avec l’économie capitaliste et néolibérale, aux progrès fulgurants réalisés dans les domaines de la technique et des sciences, notamment la biologie et la médecine. D’où la structuration de plus en plus grande de l’éthique autour de plusieurs branches différentes comme la bioéthique, l’éthique médicale, l’éthique animale, l’éthique de l’environnement, l’éthique des affaires, des relations internationales, de la guerre, et plus récemment, l’éthique des algorithmes ou l’éthique de l’IA.
Du point de vue de l’histoire, l’éthique médicale et la bioéthique ont été les premières formes d’éthique appliquée. Elles sont nées du traumatisme des expérimentations nazies réalisées sur des prisonniers de camps de concentration. C’est dans ce cadre qu’aura lieu, entre décembre 1946 et août 1947, soit au lendemain de la Seconde Guerre mondiale, le procès des médecins et fonctionnaires nazis de Nuremberg, mené par le tribunal militaire américain. Il jouera un rôle majeur dans l’émergence de l’éthique appliquée en général, et de la bioéthique en particulier, et aboutira à la publication, en 1947, du fameux Code de Nuremberg qui énonce, pour la première fois, un ensemble de dix principes déontologiques devant encadrer la recherche expérimentale sur les êtres humains.
C’est ce Code qui servira de référence, dix-sept ans plus tard, à la rédaction de la première mouture de la Déclaration d’Helsinki, adoptée par l’Association médicale mondiale en 1964. Cette dernière a depuis fait l’objet de dix-sept modifications qui visent toutes à s’assurer que les principes éthiques énoncés et visant à encadrer la « recherche médicale impliquant des participants humains » répondent aux défis éthiques du moment.
Il faut enfin citer le rapport de la Commission nationale pour la protection des sujets humains dans le cadre de la recherche médicale et comportementale, plus connu sous le nom de Rapport Belmont, publié en avril 1979 par le Département de la Santé, de l’Éducation et des Services sociaux des États-Unis. Au même titre que ses prédécesseurs que sont le Code de Nuremberg ou la Déclaration d’Helsinki, le Rapport Belmont a pour vocation d’établir des principes éthiques dans le but d’encadrer la recherche impliquant des sujets humains. Il énonce trois grands principes éthiques fondamentaux, à savoir : 1) le respect de l’autonomie des personnes, 2) le principe de bienfaisance et 3) la justice ou équité.
Si ces trois déclarations importantes traitent principalement de la recherche et de l’expérimentation médicales lorsque celles-ci opèrent sur des sujets humains, elles n’encadrent pas la pratique médicale à proprement parler. À contrario d’autres textes importants de l’éthique médicale que sont, par exemple, le fameux serment d’Hippocrate, rédigé au IVe siècle avant Jésus-Christ, ou encore, plus proche de nous, la Déclaration de Genève, adoptée également par l’Association médicale mondiale en 1948, soit juste après la rédaction du Code de Nuremberg (1947).
Les quatre principes fondamentaux de l’éthique biomédicale. — Les quatre principes fondamentaux de l’éthique biomédicale seront finalement énoncés par les philosophes américains Thomas Beauchamp et James Childress en 1979, dans un ouvrage désormais classique : Les principes d’éthique biomédicale. Ce sont ces quatre principes qui sont le plus souvent invoqués par l’éthique médicale. Ils offrent un cadre largement partagé aujourd’hui par les professionnels de la santé, devant servir de base à l’évaluation des situations de dilemmes éthiques rencontrées dans la pratique de la médecine et de la recherche biomédicale. Ces quatre principes sont :
Principe de bienfaisance : c’est l’obligation (au sens de devoir), de la part d’un professionnel de santé, d’agir dans l’intérêt et pour le bénéfice de son patient, en tâchant toujours de maximiser le bien-être et la santé de ce dernier, et en minimisant ses souffrances. Principalement centré sur l’intérêt du patient, le principe de bienfaisance implique, de la part du professionnel de santé, des actes comme : prévenir les maladies, soulager les douleurs, préconiser les traitements les plus adéquats par rapport à l’objectif d’amélioration de la santé et du bien-être, etc. Ce principe se trouve donc au fondement de l’acte médical à proprement parler, puisqu’il en décrit la finalité et la raison d’être.
Principe de non-malfaisance : c’est l’obligation, de la part d’un professionnel de santé, de ne jamais faire intentionnellement de tort à son patient. Il est généralement résumé par la maxime latine Primum non nocere ("d’abord, ne pas nuire"), que l’on trouve déjà dans le serment d’Hippocrate. Ce qui implique, de la part d’un médecin, d’établir, lorsque cela est nécessaire, un calcul de risques-bénéfices au moment de la préconisation d’un traitement ou d’une intervention médicale. En d’autres termes, une souffrance n’est justifiée qu’à la condition d’être nécessaire à la réalisation d’un bien-être futur plus grand, et à l’amélioration de la santé du patient.
Principe d’autonomie : selon le Rapport Belmont, "une personne autonome est une personne capable de réfléchir sur ses objectifs personnels et de décider pour elle-même d’agir conformément à cette réflexion". Le principe d’autonomie implique ainsi d’obtenir le consentement libre et éclairé du patient avant tout traitement, intervention ou, encore, expérimentation. Il est déjà présent sous cette forme dans l’article premier du Code de Nuremberg (1947), et implique, de la part du professionnel de santé, de transmettre à son patient des informations claires et honnêtes visant à éclairer au mieux son jugement et à opérer des choix en connaissance de cause et en toute liberté. Il part également du principe que le patient doit, in fine, avoir le dernier mot sur ce qui relève des choix qu’il fait à propos de sa propre existence : "Le consentement volontaire du sujet humain est absolument essentiel. Cela veut dire que la personne concernée doit avoir la capacité légale de consentir ; qu’elle doit être placée en situation d’exercer un libre pouvoir de choix, sans intervention de quelque élément de force, de fraude, de contrainte, de supercherie, de duperie ou d’autres formes sournoises de contrainte ou de coercition ; et qu’elle doit avoir une connaissance et une compréhension suffisantes de ce que cela implique, de façon à lui permettre de prendre une décision éclairée. Ce dernier point demande que, avant d’accepter une décision positive par le sujet d’expérience, il lui soit fait connaître : la nature, la durée et le but de l’expérience ; les méthodes et moyens par lesquels elle sera conduite ; tous les désagréments et risques qui peuvent être raisonnablement envisagés ; et les conséquences pour sa santé ou sa personne, qui pourraient possiblement advenir du fait de sa participation à l’expérience. L’obligation et la responsabilité d’apprécier la qualité du consentement incombent à chaque personne qui prend l’initiative de, dirige ou travaille à l’expérience. Il s’agit d’une obligation et d’une responsabilité personnelles qui ne peuvent pas être déléguées impunément."
Principe de justice (équité) : le principe de justice, appelé également principe d’équité, doit garantir à tous, et de façon égale, l’accès aux soins, à la santé et au bien-être, sans distinction de statut social, de genre, d’âge, de race, ou encore, de revenus. C’est un principe de nature déontologique fondé sur la valeur d’égalité, et qui est à la base du système de santé français depuis la fin de la Seconde Guerre mondiale avec la création de la Sécurité sociale.
Une éthique de l’IA inspirée par la bioéthique. — Si l’éthique appliquée au domaine du numérique et de l’informatique est largement contemporaine du devenir grand public du web dans les années 1990, force est de constater que l’intelligence artificielle, en tant que sous-domaine de l’informatique et du numérique, cristallise une grande partie des interrogations depuis le début des années 2010. Le moment symbolique de cette inflexion de l’éthique du numérique vers l’éthique de l’IA est marqué, selon Raja Chatila, par la publication, en décembre 2012, de l’article fondateur d’Alex Krizhevsky, Ilya Sutskever et Geoffrey E. Hinton : ImageNet Classification with Deep Convolutional Neural Networks . C’est cet article qui aurait permis à l’apprentissage profond (Deep Learning) de devenir, en quelque sorte, la norme en matière de classification d’images et de vision par ordinateur. Parmi les questions éthiques clés ouvertes par l’IA, et citées par Chatila, figurent "les biais dus à la qualité ou à la représentativité des données, la sécurité des données, l’absence de raisonnement causal, l’absence de sémantique, de compréhension du contexte du monde physique, le manque de robustesse à certaines attaques ou modifications des données. Le très grand nombre de paramètres et l’opacité du processus d’apprentissage posent des questions de transparence et d’explication des résultats."
Dans le même article, consacré précisément à l’influence qu’a jouée la bioéthique sur les réflexions en éthique des technologies en général, mais également en éthique des technologies du numérique et en éthique de l’IA, l’auteur cite, à titre d’illustration, le travail réalisé par le groupe d’experts de haut niveau en intelligence artificielle nommé par la Commission européenne en 2019, et auteur du livre blanc : Lignes directrices en matière d’éthique pour une IA digne de confiance. Il rappelle en effet que trois des quatre principes éthiques pour une IA de confiance énoncés par le groupe d’experts sont directement issus de l’éthique biomédicale, à savoir : respect de l’autonomie humaine ; prévention de toute atteinte ; équité (fairness). Seul le quatrième, l’explicabilité, est propre à l’éthique de l’IA, au regard notamment des limitations de cette dernière en termes de transparence et d’explication des résultats, notamment générés par ce que l’on appelle l’IA connexionniste, par opposition à l’IA symbolique.
En quoi, donc, une éthique du numérique en général, ou une éthique de l’IA en particulier, peut-elle se distinguer de la bioéthique, si elle emprunte à celle-ci la majorité de ses principes fondamentaux ?
Une technologie n’est pas conçue avec un objectif de bienfaisance : au cœur de la bioéthique ou de l’éthique médicale se trouvent les principes de bienfaisance et de non-malfaisance. En d’autres termes, la bioéthique énonce de façon explicite que l’objectif premier des pratiques médicales (médecine) et de recherche (biologie, génétique) est de faire le bien tout en veillant au respect des intérêts et de l’autonomie des personnes. Dans ce cadre, la délibération éthique prend le plus souvent la forme d’un calcul bénéfice-risque. La bioéthique est donc principalement conséquentialiste. Par opposition, la création d’une technologie répond principalement à des intérêts économiques et commerciaux. Il s’agit en tout premier lieu de répondre à des besoins concrets issus de l’observation de cas pratiques, dans le but de faciliter, d’optimiser ou de rendre plus productive une tâche ou un travail. Contrairement à la médecine ou à la biologie, une technologie n’est pas a priori conçue dans un objectif de bienfaisance ou de non-malfaisance.
Les impacts à long terme d’une technologie sont difficiles à évaluer : il est non seulement difficile d’évaluer les impacts qu’une technologie va avoir à long terme sur les individus et les sociétés, mais les aspects éthiques que pourrait soulever une technologie sont loin d’apparaître évidents au premier abord. Des usages et des conséquences néfastes imprévus au moment de la conception et du déploiement d’une technologie peuvent émerger au fil du temps. Peut-on, par exemple, prévoir les impacts à long terme des technologies et de l’IA et répondre de façon précise à des questions du type : le numérique et l’IA vont-ils à terme détruire ou créer des emplois ? Est-ce un bien ou un mal de troquer ses données personnelles et de recevoir en permanence des publicités ciblées pour pouvoir bénéficier gratuitement de l’utilisation d’un moteur de recherche ? Pourquoi et en quoi la manipulation de l’opinion par les médias traditionnels est-elle différente de celle qui a lieu sur les réseaux sociaux ? Faut-il accepter d’être surveillé au risque de perdre un peu de notre liberté, ou mettre la sécurité — et celle de nos proches — en danger ? Vaut-il mieux utiliser un système d’IA transparent et explicable plutôt qu’un système opaque mais plus efficace ? Jusqu’où devons-nous déléguer notre pouvoir de décision à des IA et prendre le risque de perdre une partie de notre autonomie ? Que faut-il entendre précisément par biais algorithmique et en quoi diffère-t-il d’un biais humain ? Faut-il déployer des armes létales autonomes ayant le pouvoir de sélectionner de façon autonome leur cible ? En quoi toutes ces questions contiennent-elles une dimension éthique ?
L’éthique du numérique et de l’IA est déontologique : par opposition à l’éthique biomédicale, l’éthique du numérique et l’éthique de l’intelligence artificielle sont principalement déontologiques. La première s’enracine le plus souvent au sein de processus de réflexion collective et individuelle visant à résoudre un dilemme moral ou une question de société, au travers d’une analyse de type risques-bénéfices. Il s’agit d’évaluer les conséquences possibles d’une décision, et de voir dans quelle mesure les risques potentiels envisagés sont contrebalancés par les bénéfices attendus. La seconde semble davantage adopter une démarche déontologique fondée notamment sur la protection des droits fondamentaux. Ce qu’illustrent les sept « exigences » — le terme renvoyant aux notions de devoir ou d’obligation propres aux éthiques déontologiques — du groupe d’experts dans les Lignes directrices en matière d’éthique pour une IA digne de confiance, à savoir : action humaine et contrôle humain ; robustesse technique et sécurité ; respect de la vie privée et gouvernance des données ; transparence ; diversité, non-discrimination et équité ; bien-être sociétal et environnement ; responsabilité.
De l’éthique au juridique (l’exemple de l’AI Act) : cette éthique déontologique, qui semble fonder l’éthique de l’IA, est accompagnée d’une éthique des vertus, puisque l’on cherche, à travers l’exigence de transparence et d’explicabilité, à instiller auprès des développeurs, des ingénieurs et des concepteurs de systèmes d’IA, des vertus devant guider leurs comportements et pratiques en l’absence de tout code déontologique qui s’imposerait à eux dans le cadre, par exemple, d’un programme de conformité. Le passage de la perspective éthique à la perspective juridique (AI Act) a pourtant donné lieu, de la part de la Commission européenne, à transformer la démarche déontologique et arétique (du grec arèté voulant dire "vertu") initiale en une approche de type conséquentialiste.

Commentaires