Les cinq grands principes de l'éthique de l'IA selon Floridi.
- francknegro1900
- 5 nov. 2024
- 5 min de lecture
Dernière mise à jour : 18 sept.
Philosophe italien reconnu pour ses travaux en éthique de l'information et en philosophie de la technologie, Luciano Floridi est également l'une des figures de proue de la réflexion éthique sur l'intelligence artificielle (IA). La deuxième partie de son ouvrage L’éthique de l’intelligence artificielle (paru en 2023 pour la version française), intitulée "Évaluer l’IA", comprend dix chapitres fournissant, selon les mots mêmes de l’auteur, "une analyse de certaines des questions les plus urgentes soulevées par l’éthique de l’intelligence artificielle". Le chapitre 4, qui ouvre la seconde partie, propose un cadre unifié de principes éthiques de l’IA. Il s’appuie pour cela sur une analyse comparative des textes, à ses yeux les plus importants, qui ont été publiés depuis 2017. C’est en effet à partir de cette année-là qu’ont paru les premiers travaux visant à établir des principes éthiques ayant pour but d’orienter, dans un sens bénéfique pour la société, le développement et le déploiement de systèmes d’intelligence artificielle, tout en minimisant les risques et les impacts négatifs. Les deux textes fondateurs qui font référence ici sont les principes d’Asilomar (2017) et la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (2018).
Floridi soutient ainsi deux thèses : 1) le volume de principes proposés, qui n’a cessé de proliférer depuis, menace non seulement de semer la confusion (plus de 160 en 2020, selon l’AI Ethics Guidelines Global Inventory d’AlgorithmWatch), mais surtout 2) ces principes entretiennent entre eux "un degré élevé de chevauchement" que Floridi se propose de mettre au jour. L’auteur de L’Éthique de l’intelligence artificielle pointe ainsi un risque de "marché des principes" dans lequel les parties prenantes seraient tentées de choisir les plus attrayants. Sur la base de l’analyse de six ensembles de principes, dont les deux cités précédemment, il conclut ainsi qu’il est possible de construire un cadre général de cinq principes fondamentaux pour une IA éthique, dont les quatre premiers, particulièrement bien adaptés "aux nouveaux défis éthiques posés par l’IA", sont empruntés à la bioéthique : 1) bienfaisance, 2) non-malfaisance, 3) autonomie, 4) justice et 5) explicabilité. Seul donc le principe d’explicabilité, compris à la fois dans son sens épistémologique d’intelligibilité (réponse à la question : "Comment cela fonctionne-t-il ? ") et dans son sens à proprement parler éthique de responsabilité (réponse à la question : "Qui est responsable de la façon dont cela fonctionne ?"), appartient de façon spécifique au domaine de l’IA. Ce cadre, constitué de six principes fondamentaux, peut non seulement "servir d’architecture au sein de laquelle des lois, des règles, des normes techniques et des meilleures pratiques sont élaborées pour des secteurs, des industries et des juridictions spécifiques", mais également servir de référence à un audit de systèmes d’IA fondé sur l’éthique.
Il est important de rappeler toutefois, comme le fait d’ailleurs Floridi, que tous les référentiels éthiques qui ont servi de base à l’édification des cinq principes fondamentaux ont été conçus au sein des sociétés démocratiques occidentales et, de ce fait, ne sont pas totalement applicables tels quels à des cultures et zones géographiques non représentées dans l’échantillon de textes choisis. Or, s’empresse de faire remarquer Floridi, "l’éthique n’est pas l’apanage d’un seul continent ou d’une seule culture". D’où la nécessité, pour les entreprises, agences gouvernementales ou autres institutions académiques concevant ou développant des IA, de le faire conformément à un cadre éthique élargi qui intègre un éventail de perspectives plus diversifiées sur les plans social, culturel et géographique.
La bienfaisance : soit « promouvoir le bien-être, préserver la dignité et assurer la pérennité de la planète ». Bien que formulé de façon parfois différente, c’est le principe le plus facilement observable des quatre principes traditionnels de la bioéthique. Il souligne l’importance centrale selon laquelle l’IA doit participer à la promotion du bien-être des individus et de la planète.
La non-malfaisance : comprenant « vie privée, sécurité et prudence en matière de capacité ». Bien que pouvant sembler, au premier abord, équivalente et donc redondante par rapport au premier principe, les six documents analysés encouragent non seulement la création d’une IA bénéfique pour l’humanité (bienfaisance), mais invitent également à prendre garde aux conséquences possiblement négatives qu’une utilisation excessive ou abusive des technologies d’intelligence artificielle pourrait entraîner, comme la prévention des atteintes à la vie privée, la course à l’armement de l’IA, ou encore la sécurité des systèmes.
Autonomie : comprise comme "le pouvoir de décider de décider". Floridi souligne ici la tentation que nous aurions à céder une partie de notre pouvoir de décision à des artefacts technologiques. Il pointe ainsi le risque fort que la croissance de ce qu’il nomme l’autonomie artificielle se fasse au détriment de l’épanouissement de l’autonomie humaine. Le principe d’autonomie signifie donc que les utilisateurs de systèmes d’IA soient en capacité de prendre des décisions libres et éclairées, sans être manipulés ou contraints par ces mêmes systèmes. Il introduit ainsi la notion de méta-décision, ou pouvoir de « décider de décider », qui indique que les êtres humains doivent conserver, en toutes circonstances, le pouvoir de décider ou non de déléguer — pour des raisons d’efficacité, par exemple — leur pouvoir de décision à une machine, tout en s’assurant que ce pouvoir de délégation soit à tout moment révocable.
Justice : c’est-à-dire « promouvoir la prospérité, préserver la solidarité et éviter l’injustice ». La capacité de prendre ou de déléguer des décisions n’est en effet pas répartie de manière égale dans la société. D’où l’importance du principe de justice, qui vise en quelque sorte à corriger cette disparité d’autonomie. Floridi pointe toutefois un manque de clarté dans les différentes façons de clarifier le concept de justice, lequel renvoie tour à tour à la lutte contre les discriminations injustes, à la nécessité d’une prospérité partagée et équitable de l’IA, à l’égal accès aux avantages qu’elle procurerait, à la correction des biais contenus dans les données pour entraîner les modèles, à la nécessité de préserver la solidarité des systèmes d’assurance sociale — notamment l’accès aux soins de santé —, etc.
Explicabilité : à savoir, « permettre les autres principes par l’intelligibilité et la responsabilité ». C’est le principe fondamental qui rend possible tous les autres. Il est, selon Floridi, "la pièce manquante cruciale du puzzle de l’éthique de l’IA" qui vient compléter les quatre autres principes. Comme indiqué plus haut, le concept "d’explicabilité" intègre deux sens et renvoie à deux notions complémentaires l’une de l’autre : le concept épistémologique d’intelligibilité, qui vise à pouvoir expliquer le processus décisionnel d’un système d’IA. Il répond à la question : "Comment cela fonctionne-t-il ?" et vient surtout rendre compte de l’un des aspects apparemment nouveaux de cette forme d’agir que constitue l’IA : son opacité ou inintelligibilité ; et le concept éthique de responsabilité, qui répond à la question : "Qui est responsable de la façon dont cela fonctionne ?" Le principe d’explicabilité est donc au fondement des quatre autres principes, puisque : 1) le respect des principes de bienfaisance et de non-malfaisance implique que nous soyons en capacité de comprendre (expliquer) le bien ou le mal que l’IA est susceptible de faire réellement à la société ; 2) le respect du principe d’autonomie, que l’IA est supposée favoriser et non limiter, implique que nous puissions éclairer (expliquer) la façon dont elle agirait à notre place, pour décider ou non de déléguer notre pouvoir de décider, ou encore améliorer ses performances ; 3) enfin, le principe de justice implique que nous soyons en capacité de savoir qui nous devons tenir éthiquement ou juridiquement responsable en cas de résultat négatif grave, et donc d’expliquer les raisons d’un résultat donné et la façon dont nous pouvons l’éviter à l’avenir.

Commentaires