top of page

La Déclaration de Montréal: méthode et modèle pour l’élaboration d’une charte éthique de l’IA.

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • il y a 24 heures
  • 26 min de lecture

Publiée le 4 décembre 2018, la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle est un texte fondateur en éthique de l’IA. Elle propose un cadre éthique structuré autour de dix grands principes visant à encadrer le développement et le déploiement des systèmes d’intelligence artificielle (IA). Elle est le fruit d’un travail collectif, à la fois pluridisciplinaire (juristes, philosophes, informaticiens) et réunissant des personnes issues de tous horizons, comme des chercheurs, des experts en IA, des responsables politiques, mais également des acteurs de la société civile et des citoyens. Parmi ses principaux contributeurs, on peut citer, entre autres : Yoshua Bengio, professeur d’informatique à l’Université de Montréal, lauréat du prix Turing en 2018 conjointement avec Geoffrey Hinton et Yann LeCun ; Marc-Antoine Dilhac, professeur de philosophie dans la même université ; ou encore Sébastien Gambs, professeur d’informatique à l’UQAM (Université du Québec) et spécialiste de la protection de la vie privée et de l’éthique de l’IA ; Catherine Régis, professeure de droit à l’Université de Montréal.

 

Dans ce qui suit, je propose une explication de la Déclaration de Montréal en concentrant l’analyse non pas sur les dix principes eux-mêmes, qui constituent le cœur de la Déclaration et que chacun peut lire comme un texte de nature déclarative non contraignant (soft law), énonçant des règles éthiques à prétention universelle, mais plutôt sur ce que les littéraires appellent, à la suite de Gérard Genette (1930-2018), le paratexte. Ce dernier, qui encadre à proprement parler le texte central — ce que dit le préfixe grec para, qui signifie "à côté" —, permet notamment de donner des clés de compréhension précieuses sur des aspects de méthode, le mode de fonctionnement du texte, ses conditions de production, ainsi que la tradition éthique qui le traverse. Dans une perspective plus pratique et moins théorique, cette lecture permet surtout de dégager des règles et des bonnes pratiques utiles à l’élaboration de chartes éthiques, ainsi que la culture éthique qu’une telle démarche suppose.

 

Objectifs et destinataires. – La Déclaration de Montréal poursuit trois objectifs principaux : "(1) Élaborer un cadre éthique pour le développement et le déploiement de l’IA ; (2) Orienter la transition numérique afin que tous puissent bénéficier de cette transition technologique ; (3) Ouvrir un espace de dialogue national et international pour réussir collectivement un développement inclusif, équitable et écologiquement soutenable de l’IA." On voit ainsi apparaître en filigrane, au travers de l’analyse de ces trois objectifs principaux, trois préoccupations majeures des auteurs de la Déclaration :

 

  • Protection des droits fondamentaux : Le premier concerne l’élaboration d’une éthique de l’IA reposant principalement sur les valeurs humaines fondamentales inscrites le plus souvent dans les grandes déclarations de droits fondamentaux, comme le respect de la dignité humaine, la vie privée, l’autonomie ou l’égalité. Ce premier objectif est donc avant tout centré sur le respect et la protection des droits de chaque individu en tant que personne humaine, indépendamment de son appartenance à une communauté donnée.

  • ·Justice et équité : Le deuxième met l’accent sur le partage équitable des gains et bénéfices susceptibles d’être apportés par le développement de systèmes d’intelligence artificielle. Ce point essentiel insiste, entre autres, sur la réduction de la fracture numérique ; le développement généralisé des compétences et l’accès aux technologies numériques ; l’automatisation de tâches à faible valeur ajoutée ; la création d’emplois accessibles au plus grand nombre, notamment via des politiques publiques d’accompagnement et de formation ; mais également, et surtout, la lutte contre la formation d’oligopoles afin d’éviter que les bénéfices de l’IA ne soient concentrés entre les mains d’un petit nombre d’acteurs ou de pays, tandis que les populations ou pays les plus défavorisés ne tireraient rien de ces avancées. En d’autres termes, il s’agit d’orienter la transition numérique de telle sorte que les innovations technologiques liées à l’IA soient inclusives (elles prennent en compte les différences comme l’âge, le genre, les situations socio-économiques, la provenance géographique, le niveau d’éducation, etc.), équitables (les bénéfices et opportunités de l’IA sont distribués de façon juste, avec un souci de réduction des écarts entre les personnes les plus défavorisées et les personnes les plus favorisées), et enfin centrées sur le bien-être collectif (elles améliorent la qualité de vie de chacun via le développement de technologies qui favorisent la santé, enrichissent l’éducation, réduisent les inégalités, protègent l’environnement…).

  • Gouvernance de l’IA : Le troisième objectif insiste sur un autre aspect central du développement équitable et responsable de l’IA : la gouvernance. Celle-ci prend deux dimensions indissociablement liées, à savoir 1) le niveau national et 2) le niveau international. En d’autres termes, les deux premiers objectifs ne valent pleinement que si le troisième est possible. En permettant d’assurer une vision partagée du développement de l’IA, qui tente d’articuler autour de valeurs et d’objectifs communs des ordres normatifs distincts (nationaux), ce troisième objectif, davantage centré sur la régulation et la gouvernance de l’IA à l’échelle mondiale, semble être la condition des deux autres. Il contient néanmoins déjà une vision stratégique du développement de l’IA, clairement explicitée dans la Déclaration, si bien que l’appel au dialogue qu’il contient est déjà largement circonscrit à l’intérieur du cadre qu’il propose.

 

Bien qu’adressée de façon très large « à toute personne, toute organisation de la société civile et toute compagnie désireuse de participer au développement de l’intelligence artificielle de manière responsable », la Déclaration de Montréal distingue trois grands types de destinataires. Tout d’abord, les scientifiques, les entreprises, les chercheurs ou autres ingénieurs qui créent des IA, avec le souci premier de développer des systèmes qui améliorent le bien-être des personnes tout en respectant les droits fondamentaux. C’est avant tout à eux que s’adresse la Déclaration. Dans ce cadre, la Déclaration de Montréal fournit un ensemble de principes éthiques et de valeurs fondamentales directement opérationnels qui visent à guider les comportements des créateurs et à intégrer les principes éthiques dès la conception d’un système d’IA (Ethics by Design).

 

La deuxième grande catégorie de destinataires, moins visible que la première dans la Déclaration, est constituée par les citoyens, ou encore la société civile. C’est-à-dire toute personne ou organisation susceptible d’interagir avec un système d’IA, voire d’utiliser un tel système dans le cadre de son travail, pour créer des contenus par exemple (IA générative). La Déclaration de Montréal peut servir ici de guide pour un usage éthique et informé de tels systèmes, mais aussi pour faire prendre conscience à la société civile des enjeux éthiques et sociétaux de l’IA, laquelle ne peut pas être considérée comme un simple outil dont les usages, en apparence neutres, n’auraient aucun effet néfaste sur les individus et les sociétés. Elle invite ainsi les citoyens à avoir un regard critique et à devenir, non plus seulement consommateurs, mais aussi acteurs de la révolution numérique.

 

La troisième grande catégorie de destinataires explicitement visée est constituée des responsables politiques, en tant qu’ils sont dépositaires de la voix des citoyens – puisqu’élus ou nommés –, et, en cela, directement responsables de la manière dont la transition numérique induite par le développement et le déploiement de systèmes d’IA va affecter le bien-être des individus et de la société. Ce sont, en quelque sorte, les élus qui doivent prendre le plus au sérieux les risques et les impacts que les SIA sont susceptibles de provoquer sur le travail, l’emploi, l’éducation, le creusement inégalités, la formation, la démocratie, l’environnement, voire l’existence de l’humanité (risque existentiel). D’où le rôle central de la régulation et de la gouvernance pour un développement contrôlé, sûr et responsable de systèmes dont on a peine encore à envisager, de façon lucide et éclairée, les impacts qu’ils vont avoir sur nos sociétés.

 

La méthode originale, inclusive et participative. – Une des originalités souvent admises de la Déclaration de Montréal est la méthode inclusive et participative mise en place dans le cadre de son processus d’élaboration. En effet, et contrairement aux 23 principes d’Asilomar qui la précèdent, la Déclaration de Montréal n’a pas été rédigée en trois jours par un comité d’experts réunis de façon exceptionnelle lors d’une conférence. Elle a fait l’objet d’un processus délibératif élargi, impliquant la mise en dialogue d’acteurs issus d’horizons représentatifs de toute la société : citoyens, experts scientifiques et techniques (chercheurs en IA, philosophes, juristes, spécialistes des sciences sociales), responsables publics et politiques, acteurs industriels et organisations professionnelles.


Un des intérêts principaux de cette méthode est de permettre la confrontation d’une pluralité de points de vue et d’éviter une conception partielle de l’éthique de l’IA qui serait dominées par une perspective strictement technique ou politique. En d’autres termes, la Déclaration de Montréal apparaît ainsi comme le résultat d’un processus progressif d’élaboration collective, nourri par des échanges organisés dans des espaces variés – lieux publics, réunions professionnelles, tables rondes, travaux de chercheurs, plateformes numériques – visant à recueillir et à articuler les contributions des différentes parties prenantes. Les auteurs mettent ainsi en évidence les trois avantages clés d’une telle démarche :

 

  • Arbitrer collectivement les dilemmes éthiques : Le premier apport, et non des moindres, consiste à soumettre à la délibération collective les dilemmes éthiques soulevés par le développement de systèmes d’intelligence artificielle (IA). Rappelons qu’un dilemme éthique est une situation caractérisée par trois traits fondamentaux : (1) elle met en demeure l’agent de devoir choisir entre plusieurs options qui sont moralement conflictuelles ; (2) chaque option comporte des conséquences éthiques plus ou moins importantes qu’il convient d’évaluer ; (3) aucune des solutions envisagées n’est moralement meilleure qu’une autre. En d’autres termes, elles sont toutes justifiables du point de vue éthique. Dans le domaine de l’IA, ces dilemmes peuvent, par exemple, prendre la forme de tensions entre protection de la vie privée et innovation, ou encore, entre progrès technologique et impact sur l’emploi. La méthode délibérative permet ici non seulement de confronter des perspectives hétérogènes, mais aussi d’approfondir la compréhension des enjeux et de parvenir à des arbitrages collectivement acceptables.

  • Améliorer la qualité de la réflexion sur l’IA responsable : Le second apport découle du premier. Le débat et la méthode délibérative, mobilisant un large éventail de participants issus d’horizons différents, permettent non seulement d’enrichir la réflexion, mais aussi d’identifier collectivement les angles morts que l’on n’aurait pu percevoir seul, ou avec des personnes partageant des perspectives similaires. En d’autres termes, elle enjoint chacun des participants à embrasser le point de vue des autres et à enrichir sa réflexion par des arguments complémentaires ou des contre-arguments, afin de se donner la vision la plus large possible des implications éthiques posées par un dilemme donné. Ce processus implique, de la part de tous les participants à l’interaction, le respect d’un ensemble de principes fondamentaux qui conditionnent la mise en place d’une éthique de la discussion, tels que le principe d’égalité (chaque personne doit avoir la même possibilité d’exprimer ses opinions) ; le principe de sincérité (chaque personne s’exprime en toute honnêteté, sans manipulation ni fausse information) ; le principe de rationalité (les arguments doivent être étayés par des raisons, des faits ou des preuves) ; l’absence de contraintes (chaque personne doit se sentir libre de s’exprimer) ; enfin, la recherche de l’entente (le but de la discussion n’est pas de convaincre à tout prix, mais d’aboutir à une compréhension mutuelle du problème et à un accord).

  • Renforcer la légitimité des propositions : Enfin, la méthode adoptée contribue à renforcer la légitimité des principes formulés. La participation d’acteurs issus de multiples horizons, ainsi que la publicité des échanges, confèrent en effet aux propositions une autorité accrue, dans la mesure où elles apparaissent comme le résultat d’un processus collectif et démocratique, reflétant une pluralité de points de vue plutôt qu’une position unilatérale.

 

Soulignons enfin un autre aspect original de la Déclaration de Montréal, qui est son caractère "révisable et adaptable en fonction de l’évolution des connaissances et des techniques, ainsi que des retours d’expérience sur l’utilisation de l’IA dans la société". Elle ne constitue ainsi « qu’un document d’orientation ouvert », en raison du caractère lui-même évolutif du concept d’intelligence artificielle, lequel est amené à se transformer au gré des progrès constants réalisés dans ce domaine. Les auteurs décrivent ainsi un processus d’élaboration et de révision continue des principes de régulation éthique et juridique de l’IA, rendu nécessaire par l’évolution des technologies, par leurs usages, par leur impact sur les individus et les sociétés, ainsi que par les risques existentiels pesant sur l’avenir de l’humanité.

 

Trois niveaux d’interrogation et cinq caractéristiques clés. – Une fois élucidée la question des objectifs de la Déclaration, de ses destinataires et de la méthode utilisée, reste à clarifier, au-delà des principes et des valeurs qui ont émergé au terme des discussions et du processus délibératif, ce qui caractérise la liste des principes et des valeurs à proprement parler. La Déclaration de Montréal a également ceci d’original qu’elle articule de façon exemplaire les trois niveaux de l’interrogation éthique traditionnelle que sont (1) l’éthique normative, (2) l’éthique appliquée et (3) la métaéthique.

 

L’éthique normative d’abord, puisqu’il s’agit de définir en tout premier lieu ce qui doit guider le comportement et les actions de l’ensemble des parties prenantes destinataires de la Déclaration, en fonction de leur position et du rapport qu’ils entretiennent avec ce qui fait l’objet de la Déclaration même, à savoir: les systèmes d’intelligence artificielle. Sont-ils créateurs? Chercheurs? Utilisateurs? Régulateurs? Quelle que soit la place qu’ils occupent, les questions centrales de chacun des acteurs, lesquelles constituent en même temps les questions fondamentales de l’éthique normative – peu importe ici la tradition éthique invoquée pour justifier une décision ou un comportement –, sont les suivantes: "Que dois-je faire?" "Comment dois-je me comporter?" "Quelles sont les raisons qui me poussent à agir de telle ou telle façon?" "Et comment justifier que les décisions prises sont moralement bonnes?"

 

L’éthique appliquée ensuite, puisque la détermination de ce qu’il faut faire intervient dans des contextes concrets donnés et par rapport à des pratiques sociales précises, devant non seulement tenir compte de la nature de l’objet sur lequel nous prenons position, mais également de ses interactions avec l’environnement socio-technique, culturel et naturel qu’il affecte. Dans ce cadre, la Déclaration de Montréal fournit un ensemble de principes et de valeurs collectivement élaborés, conçus pour s’appliquer tout particulièrement au domaine du numérique et de l’intelligence artificielle. La question : "Que dois-je faire ?", au premier abord trop générique et théorique, doit être en quelque sorte retraduite dans des situations concrètes qui prennent en considération la position de l’acteur (ingénieur, concepteur, régulateur, etc.), son rapport au système technique, déterminé notamment par son statut, sa place et son rôle, ainsi que le système normatif au sein duquel il évolue (lois, règlements, normes éthiques, valeurs culturelles), voire le contexte technique et les dynamiques de pouvoir. Ainsi, la question "Que dois-je faire ?" prendra, pour le créateur d’un système d’IA par exemple, la forme de questions concrètes du type : "En quoi le système que je conçois accroît-il le bien-être de ses utilisateurs potentiels ?" "Est-il respectueux du principe d’autonomie des personnes ?" "Respecte-t-il leur vie privée ?", etc.

 

Métaéthique enfin, puisque les auteurs ne se contentent pas de fournir des principes de base pour l’intelligence artificielle (éthique normative appliquée à l’IA), mais s’interrogent également sur la nature même de ces principes, en questionnant, par exemple, leur niveau de généralité, ou l’existence éventuelle d’un rapport hiérarchique entre eux. On voit ainsi que tout questionnement éthique, dans des domaines d’application précis, doit, pour être complet, articuler au sein d’une même démarche des interrogations relevant à la fois de l’éthique normative, de l’éthique appliquée et de la métaéthique.

 

Selon ses auteurs, les dix principes de la Déclaration de Montréal, appliqués au domaine du numérique et de l’IA, possèdent ainsi cinq caractéristiques qu’il convient de garder à l’esprit au moment de leur lecture. Elles forment le cadre logique à l’intérieur duquel ces principes s’inscrivent et qui permet de les penser comme un système organisé de valeurs et de normes ayant une consistance propre. Ces caractéristiques, qui relèvent en quelque sorte de la métaéthique, agissent comme des règles de fonctionnement interne de la Déclaration, rendant inadéquate une lecture isolée de ses différentes parties : 1) le principe de non-hiérarchisation relative ; 2) le principe de cohérence ; 3) le principe de contextualisation ; 4) le principe de consistance sémantique ; 5) le principe de traductibilité. Nous allons maintenant en proposer une lecture afin d’en saisir pleinement la signification ainsi que les implications qu’elles induisent du point de vue de la rédaction de lignes directrices et de l’élaboration d’une grille d’évaluation visant à vérifier si un système d’IA respecte des exigences éthiques.

 

Le principe de non-hiérarchisation relative : La première caractéristique insiste sur l’importance de confronter les principes aux situations d’usage dans lesquelles ils sont mis en jeu. En d’autres termes, la non-hiérarchisation absolue des principes, qui assure leur adaptation flexible au contexte, ne préjuge en aucun cas de leur hiérarchie relative lorsque ceux-ci sont invoqués pour justifier des choix éthiques donnés, selon des circonstances où certains principes de la Déclaration peuvent être plus pertinents que d’autres. Si chaque principe possède une valeur éthique propre et égale aux autres, sans qu’il soit possible, de façon a priori, d’en privilégier un plutôt qu’un autre, il est néanmoins possible, pour ne pas dire souhaitable, de pondérer leur importance en fonction de l’analyse de la situation éthique au sein de laquelle ils peuvent être invoqués.

 

Au moment du développement d’une application mobile, par exemple, il semble plus pertinent de faire appel aux principes de respect de l’autonomie et de protection de la vie privée, tandis que, dans le cadre de la mise en œuvre d’un algorithme de sélection dans un processus de recrutement, on privilégiera davantage le principe d’équité. Dans un contexte de développement et de déploiement d’une application d’IA, on prendra ainsi soin : 1) de considérer l’ensemble des principes de façon égale ; 2) de déterminer le degré de pertinence de chacun d’entre eux par rapport au cas d’usage envisagé ; 3) de s’assurer que l’application intègre, dès sa conception, le respect des principes éthiques selon les degrés de pertinence préalablement identifiés.

 

Le principe de cohérence : La deuxième grande caractéristique évoquée dans la Déclaration de Montréal insiste sur une double exigence, à savoir : (1) la nécessité de disposer d’un ensemble de principes suffisamment riches et diversifiés pour pouvoir rendre compte, de la façon la plus exhaustive possible et du point de vue du respect des valeurs éthiques les plus fondamentales, du plus grand nombre de cas d’application ; tout en assurant (2) leur cohabitation dans des domaines d’application où ils pourraient entrer en conflit. D’où la question centrale que pose cette deuxième caractéristique : selon quelle règle est-il possible de maintenir une forme de cohérence entre différents principes éthiques, alors même que certains d’entre eux sont susceptibles de se chevaucher, voire de se contredire dans des cas d’application donnés ?

 

Les auteurs rappellent ici l’un des principes fondamentaux de toute théorie éthique, ou de tout système normatif en général, à savoir sa logique interne et le respect du principe de non-contradiction. En d’autres termes, chaque règle et chaque valeur invoquée doivent pouvoir coexister de manière rationnelle avec les autres, sous peine de faire perdre au système sa cohérence et son applicabilité à des situations aussi diverses que possible. Or, dans la Déclaration de Montréal, l’interprétation cohérente de chacun des principes — autrement dit, la gestion de leurs conflits potentiels — est assurée par la règle générale suivante, qu’il convient d’expliciter : « les limites de l’application d’un principe sont tracées par le domaine d’application d’un autre principe ».

 

Qu’est-ce à dire exactement ? Que l’application d’un principe ne vaut que jusqu’au moment où il entre en tension avec un autre principe, autrement dit lorsque le respect du second principe est menacé. Toute la difficulté de la démarche éthique consiste ainsi, pour chaque situation donnée, à déterminer les frontières d’applicabilité de chacun des principes éthiques en jeu, avec un double objectif : (1) rendre effectif chacun des principes ; (2) les faire coexister en gérant au mieux les points où ils peuvent entrer en friction. Cela signifie que le domaine d’application d’un principe donné n’est pas absolu, mais relatif au domaine d’application d’un autre principe, jusqu’à rendre les deux compatibles. Prenons l’exemple d’un système d’IA devant respecter à la fois le principe de transparence des algorithmes et celui de protection de la vie privée des individus : divulguer trop d’informations sur le fonctionnement du système pour satisfaire au principe de transparence pourrait conduire à révéler des données dites "personnelles" et, ce faisant, compromettre le respect de la vie privée des personnes.

 

Le principe de contextualisation : La troisième caractéristique relative aux principes éthiques énoncés dans la Déclaration de Montréal fait implicitement référence à l’une des questions les plus controversées en métaéthique, à savoir le statut épistémologique des jugements moraux, et, par voie de conséquence, celui des principes moraux, puisque, in fine, les premiers sont sous-jacents aux seconds. Le jugement moral : "Ce que x a fait est injuste" invoque de façon tacite un principe éthique général, à savoir "l’équité", mais également la croyance selon laquelle cette valeur morale possède un contenu substantiel permettant de rendre compte de façon consistante d’une action ou d’un comportement donné, comme si nous rendions compte d’un fait objectif. De façon spontanée, il semblerait ainsi que, dès que nous émettons des jugements moraux, nous présupposons de manière intuitive que ce que nous invoquons n’est pas seulement une opinion subjective, mais une vérité que chacun de nous peut reconnaître. En d’autres termes, la conscience morale commune se comporte comme s’il existait des faits moraux réels et objectifs, au même titre que des faits naturels, comme la rondeur d’une orange ou la masse d’un objet.

 

Du point de vue de la métaéthique, toute la difficulté consiste ainsi à déterminer : (1) si nous pouvons attribuer une valeur de vérité ("vrai" ou "faux") à nos jugements moraux ; (2) si oui, sur quel fondement repose cette vérité ou cette fausseté ; et enfin (3) comment nous pouvons justifier nos croyances ou jugements moraux. Au-delà de leurs aspects techniques, qui ne sont pas explicitement abordés dans la Déclaration de Montréal, ces questions sont importantes en raison des enjeux qu’elles charrient dans le domaine concret d’une éthique appliquée à l’IA, puisqu’elles conditionnent, en quelque sorte, la possibilité de justifier des principes éthiques communs, contraignants et universels sur lesquels nous pourrions tous nous accorder.

 

Or, de ce point de vue, la Déclaration de Montréal adopte une position à la fois médiane et pragmatique. En insistant sur l’ancrage culturel des principes, elle semble en effet s’écarter d’une conception réaliste stricte, qui consisterait à affirmer l’existence de vérités morales universelles (valables pour tous et en tout lieu) et objectives (indépendantes de ce que les individus croient, pensent ou ressentent), sans pour autant adhérer à la thèse inverse de l’anti-réalisme radical, selon laquelle il n’existerait aucun fait ni aucune vérité morale objective. Pour ce dernier, en effet, nos énoncés moraux ne font qu’exprimer des émotions ou des prescriptions (non-cognitivisme), voire quelque chose qui prétend être vrai mais ne l’est pas (théorie de l’erreur), puisque les faits moraux n’existent pas.

 

Si les jugements et principes moraux « reflètent la culture morale et politique de la société dans laquelle ils ont été élaborés » (relativisme moral culturel), comme le souligne la Déclaration, ils contiennent néanmoins une forme d’objectivité relative aux croyances, attitudes, valeurs et normes culturelles d’une société donnée, tout en pouvant servir de base à un dialogue plus large dans un cadre interculturel et international. Si l’on peut y voir une dimension relativiste — les principes reflétant un contexte culturel donné — la Déclaration ouvre également une perspective constructiviste : à partir de principes situés, des agents rationnels, issus d’horizons culturels différents, peuvent délibérer et construire ensemble des normes communes. Dans ce cadre, l’universalité des principes éthiques et leur contenu sémantique ne reposent plus sur de supposés faits moraux indépendants (réalisme moral), mais sur la force rationnelle des procédures de justification et de délibération que des agents moraux, placés dans des conditions équitables, peuvent reconnaître et accepter (constructivisme moral).

 

Le principe de consistance sémantique : La quatrième caractéristique, qui fait écho aux deux précédentes, traite de la question de l’interprétation des principes éthiques énoncés dans la Déclaration. C’est une question fondamentale, car que vaudrait un cadre éthique à visée universelle, dont la vocation est de réguler des pratiques et des usages, si les principes dont il se réclame pouvaient être interprétés selon le bon vouloir et les intérêts de chacun ? Pourtant, force est de reconnaître que les notions de "bien-être", "autonomie", "solidarité" ou "équité", au-delà de leur caractère abstrait, ont non seulement été largement construites au cours de l’histoire dans des disciplines aussi diverses que la philosophie éthique, la philosophie politique, le droit ou les sciences sociales en général (sociologie, économie, science politique, etc.), mais sont également largement interprétables en fonction des contextes culturels et historiques. Les lexicographes le savent bien, lorsqu’ils tentent d’analyser l’usage effectif d’un mot afin d’en consigner les traits sémantiques fondamentaux, en s’efforçant de rendre compte de facteurs aussi importants que la diversité des contextes où il apparaît, les différentes communautés linguistiques qui l’utilisent, l’évolution historique de son sens, voire l’époque et le lieu où il est employé.

 

Or, même s’il est toujours possible de partir de la définition lexicale d’un terme — celle qui se trouve généralement dans les dictionnaires —, il est important de garder à l’esprit qu’elle ne fait que rendre compte d’une conformité d’usage dont la généralité la rend inopérante dans un contexte où il s’agit de pouvoir, à tout moment, opérer des choix concrets. Cela est d’autant plus vrai pour des catégories éthiques telles que "bien-être", "autonomie", "solidarité" ou "équité", qui non seulement charrient plusieurs significations qu’il est le plus souvent difficile de circonscrire, mais font de plus l’objet de débats passionnés en raison des enjeux importants qu’elles engagent.

 

Ces quelques remarques préliminaires permettent de mettre en évidence deux grandes difficultés auxquelles se heurte toute tentative de rédaction de principes éthiques appliqués à l’IA : (1) la nécessité de traduire des concepts abstraits et généraux en lignes directrices concrètes et applicables, prenant la forme de recommandations suffisamment précises et opérationnelles pour limiter les divergences d’interprétation ; (2) la recherche d’un équilibre entre une précision normative et une flexibilité minimale, afin de laisser place à une adaptation raisonnée selon les contextes et les situations.

 

Le principe de traductibilité : Avec le cinquième et dernier principe de traductibilité des dix principes éthiques établis dans la Déclaration, les auteurs appellent à la mise en œuvre d’une hiérarchisation et d’une mise en cohérence des normes, à la fois éthiques et juridiques, qui rappellent un autre principe bien connu des juristes, à savoir : la hiérarchie des normes. Au sommet de cette hiérarchie, la priorité serait donnée aux normes éthiques, qui viendraient en quelque sorte fonder l’ensemble du dispositif institutionnel et réglementaire de l’IA, si bien que chaque règle juridique visant à réguler le secteur de l’intelligence artificielle et à orienter l’action publique tirerait, in fine, sa légitimité de sa conformité aux principes éthiques édictés dans la Déclaration. Ce qui tend à ancrer la Déclaration de Montréal dans l’une des grandes traditions de l’histoire de l’éthique occidentale, précisément appelée "éthique des droits".

 

La notion de « droits de la personne » occupe en effet une place centrale dans l’histoire culturelle des sociétés occidentales. Elle a non seulement inspiré les grands penseurs des XVIIe et XVIIIe siècles — notamment Locke, Montesquieu et Rousseau —, mais se trouve aussi au cœur de deux grands textes fondateurs : la Déclaration d’indépendance des États-Unis de 1776, qui précède de quelques années la Déclaration des droits de l’homme et du citoyen de 1789. Un temps occultée durant le XIXe siècle et la première moitié du XXe siècle, elle a connu un regain d’importance à la suite de la découverte des atrocités perpétrées par le IIIe Reich durant la Seconde Guerre mondiale. C’est en effet en réaction aux actes de barbarie commis par le régime nazi qu’a été adoptée, le 10 décembre 1948, par l’Assemblée générale des Nations unies, la Déclaration universelle des droits de l’homme. Depuis lors, la notion de « droits et libertés de la personne » est devenue la base de ce que l’on nomme aujourd’hui une éthique des droits, laquelle prévaut dans les pays gouvernés par les principes du libéralisme politique.

 

Celle-ci repose sur l’idée centrale que chaque individu, quel que soit son genre, son héritage culturel ou son origine socio-économique, possède des droits fondamentaux devant être reconnus et protégés par la loi. Cette perspective, qui s’enracine dans l’individualisme libéral, fait notamment de la liberté, du droit au bien-être, à la sécurité, à l’équité, à l’autonomie et au respect de la vie privée des personnes des « droits naturels inaliénables et sacrés », inscrits dans la nature même de l’homme. Or, l’emploi du terme "Déclaration", ainsi que les dix principes énoncés, indiquent explicitement le rattachement de la Déclaration de Montréal à cette tradition politique et éthique, qui se trouve au fondement des systèmes juridiques de la grande majorité des démocraties occidentales.

 

En appelant à fonder le droit sur l’éthique, les auteurs de la Déclaration de Montréal affirment cependant que l’éthique seule, bien qu’absolument nécessaire pour guider les comportements individuels, ne suffit pas à réguler un marché avant tout régi par des intérêts économiques, politiques et géopolitiques. D’où l’appel à la nécessité d’un appui réciproque entre les règles de droit et les règles éthiques : les premières apportant le caractère contraignant et obligatoire que les secondes ne possèdent pas, tandis que les règles juridiques trouvent dans la réflexion éthique le fondement légitime dont elles ont besoin. Ce que rappellera un peu plus tard, de façon explicite, le considérant 7 du Règlement IA, faisant référence aux lignes directrices en matière d’éthique de l’IA issues des travaux du groupe d’experts indépendants de haut niveau sur l’intelligence artificielle constitué par la Commission européenne en juin 2018, lequel sert de fondement éthique aux règles juridiques élaborées dans l’AI Act :

 

"Ces règles devraient être conformes à la Charte, non discriminatoires et compatibles avec les engagements commerciaux internationaux de l’Union. Elles devraient également tenir compte de la Déclaration européenne sur les droits et principes numériques pour la décennie numérique et des lignes directrices en matière d’éthique pour une IA digne de confiance rédigées par le groupe d’experts de haut niveau sur l’intelligence artificielle (ci-après dénommé "GEHN IA")."

 

La Déclaration de Montréal cumule ainsi à la fois les ambitions d’une charte éthique — en ce qu’elle énonce de grands principes fondés sur des valeurs ultimes, largement héritées des grandes déclarations de droits fondamentaux —, mais également celles de lignes directrices à destination de l’ensemble des acteurs de la transition numérique — États, organisations internationales, entreprises, chercheurs et ingénieurs —, dont l’objectif est non seulement d’encadrer les pratiques de développement, mais aussi, et surtout, d’appeler à la mise en œuvre de règles juridiques et d’un cadre de gouvernance fondés sur des principes éthiques communs. Elle possède ainsi une portée à la fois éthique et politique. Elle peut, à ce titre, constituer un document de référence pour l’élaboration d’une charte éthique d’entreprise, dont les principes généraux, après avoir fait l’objet d’une clarification opérationnelle, peuvent être traduits dans un code de conduite.

 

Dans ce cadre, la Déclaration de Montréal suggère un processus en cinq étapes clés, qui va de la définition des objectifs à la traduction opérationnelle des principes dans le contexte sectoriel de l’IA. Une sixième étape pourrait inclure la définition de règles de conduite à partir de l’explicitation des principes. Elle procède donc d’un mouvement de traduction opérationnelle progressif, qui va des finalités à la définition et à la mise en œuvre concrète de la charte. Il convient toutefois de distinguer l’ordre logique de présentation du texte, qui propose une reconstruction rationnelle a posteriori des éléments essentiels constitutifs de la charte, de son ordre de production effectif, qu’il est possible, cette fois-ci, de reconstruire à partir de la démarche délibérative et inclusive dont elle se réclame.

 

Compte tenu, en effet, de son caractère délibératif, et contrairement à ce que pourrait laisser apparaître le document final de la charte, la Déclaration de Montréal ne procède pas selon une logique déductive qui consisterait à partir de valeurs fondamentales ou de principes éthiques généraux pour aboutir à des règles concrètes propres aux systèmes d’IA. En d’autres termes, les valeurs et les principes n’ont pas été donnés d’emblée, mais ont émergé progressivement du processus de discussion et de délibération préalablement organisé. Ce qui apparaît, dans la charte, comme une explicitation de principes abstraits et généraux — et qui leur confère une signification concrète et circonstanciée propre au domaine de l’IA — est en réalité ce qui vient synthétiser l’analyse des situations débattues, ainsi que la formulation de ce qu’il convient de faire. Ces explicitations participent ainsi à la construction même des principes, dont elles constituent en quelque sorte le point d’émergence. Les principes, ainsi que les valeurs sous-jacentes qu’ils véhiculent, viennent alors clore les débats en formalisant ce qui ressort de l’ensemble des discussions. Ces quelques éléments de méthode une fois explicités, il est possible de mettre en évidence cinq étapes clés qui président à l’élaboration d’une charte éthique :

 

  • Définition des objectifs : si l’on suit la Déclaration de Montréal, le point de départ de l’écriture d’une charte éthique dans le domaine de l’IA consiste à préciser très exactement, et de la façon la plus claire possible, ses finalités. En d’autres termes, il s’agira de répondre aux deux questions fondamentales suivantes : (1) Pourquoi rédigeons-nous une charte éthique ? (2) Que cherche-t-on exactement à faire ? Il va de soi que cette étape, absolument cruciale — puisqu’elle détermine toutes les autres —, doit prendre en considération les caractéristiques de fonctionnement propres à tout système d’IA. Comment, en effet, déterminer de façon pertinente une liste d’objectifs si nous ne disposons pas, au préalable, d’une connaissance appropriée de ce qu’il s’agit précisément de réguler ? D’où la diversité des compétences qu’il est absolument nécessaire de réunir au moment du choix de la méthode et des parties prenantes. S’agit-il de prévenir des risques ? De renforcer la confiance des utilisateurs ? Etc.

  • Identification des destinataires : la seconde étape consiste à identifier, de la façon la plus exhaustive possible, les grandes catégories d’acteurs concernés, directement ou indirectement, par la charte. Autrement dit : à qui s’adresse la charte ? Dans le cadre du développement d’un système d’IA, on peut penser aux équipes de développement et d’ingénierie ; aux équipes produit et marketing ; aux équipes juridiques et conformité ; aux partenaires et fournisseurs ; à l’équipe de direction ; aux utilisateurs finaux (entreprises ou particuliers), etc. Toute la difficulté consiste à s’assurer que les principes et valeurs édictés dans la charte éthique satisfassent l’ensemble des exigences spécifiques de chacune de ces catégories, même si ces dernières n’entretiennent pas des rapports identiques avec un SIA.

  • Méthode inclusive et délibérative : la troisième étape, la plus originale dans la Déclaration de Montréal, consiste à déterminer la manière dont on va élaborer la charte. Ce qui, dans le cadre de la mise en place d’une méthode dite « inclusive et délibérative », revient à préciser : (1) le choix des parties prenantes ; (2) les modalités de leur participation et la façon dont seront organisés les débats ; (3) les procédures de délibération mises en place pour aboutir au résultat final.

  • Choix des valeurs fondamentales : dans l’ordre logique de construction d’une charte éthique, cette quatrième partie marque l’entrée dans le cœur même de ce qu’il s’agit désormais de concevoir : la charte à proprement parler. Pourquoi distinguer, du moins du point de vue de la méthode, les valeurs fondamentales des principes ? Parce que ce sont précisément les valeurs auxquelles on accorde le plus d’importance qui fondent les principes. Comment en effet définir des principes éthiques sans avoir à l’esprit les valeurs qu’ils sont censés incarner ? Au sens le plus fondamental du terme (nous laisserons ici de côté son sens économique), et a fortiori au sens éthique — puisqu’il existe d’autres types de valeurs, comme le "beau" dans le domaine de l’esthétique —, une valeur morale consiste en une norme de pensée et d’action que nous poursuivons du simple fait que nous la jugeons préférable à d’autres. En conséquence, les valeurs morales, comme la justice, l’équité, la solidarité ou la bienveillance, marquent des préférences, et ne valent qu’à proportion de l’estime — on peut parler de désir — qu’un individu ou une communauté leur porte dans un contexte donné, sans qu’il soit nécessaire, à ce stade, d’en interroger l’origine. Elles sont, à proprement parler, à la fois : (1) ce à quoi nous accordons de l’importance ; (2) ce qui doit guider nos comportements. Ce qui n’implique toutefois pas, du point de vue de l’ordre de production d’une charte — et conformément à l’approche délibérative adoptée par la Déclaration de Montréal —, de poser d’abord les valeurs, puis d’élaborer sur cette base les principes. Celles-ci émergent et peuvent être reconstruites à partir de l’analyse des principes, eux-mêmes issus de la délibération.

  • Formulation et explicitation des principes : toujours dans l’ordre logique, la cinquième étape consiste à traduire les valeurs fondamentales en exigences normatives abstraites et générales — ce que sont les principes —, puis à en préciser le contenu dans des contextes d’application déterminés, ici : le développement et le déploiement de systèmes d’intelligence artificielle. Le terme « principe » indique, conformément à son étymologie, un "commencement", un "point de départ", ou encore, ce qui est premier et commande l’action. Il est donc synonyme de règle ou de norme. Concevoir une charte éthique revient ainsi à édicter un ensemble de règles fondamentales — en tant qu’elles sont premières — qui ont pour but d’orienter nos pensées et nos actions dans des situations déterminées. Mais ces principes ne sont eux-mêmes justifiés et ne tirent leur légitimité que du système de valeurs qu’ils incarnent implicitement. Là encore, ce qui paraît suivre l’ordre logique de présentation de la Déclaration est en réalité inversé du point de vue de l’ordre de sa production. La formalisation des principes intervient au terme du processus de délibération et vient, en quelque sorte, en synthétiser et formaliser les résultats, selon une logique inductive propre à la méthode délibérative.

  • Définition des règles de conduite : la dernière étape, enfin, qui n’apparaît pas dans la Déclaration de Montréal, pourrait consister à formaliser, sur la base des principes édictés dans la charte éthique, des règles de conduite métier consignées dans un ou plusieurs codes de conduite. Cette étape a pour vocation de pallier le caractère, par essence, trop général d’une charte éthique, en déclinant les principes dans le cadre de règles précises et concrètes, davantage orientées vers des pratiques professionnelles et des tâches métier, et d’assurer une compréhension homogène et non ambiguë des principes généraux énoncés dans la charte, lesquels ont vocation à servir de référentiel commun à l’ensemble des départements et des membres d’une organisation.

 

Si la Déclaration reconnaît explicitement refléter la culture morale et politique de la société dans laquelle ses principes ont été élaborés, elle n’indique toutefois pas clairement de quelle tradition culturelle précise elle procède, tout en formulant pourtant une prétention à l’universalité. En outre, bien que chacun des dix principes de base fasse l’objet d’une explicitation relativement claire, ils mériteraient d’être davantage justifiés. Ce second point rejoint en réalité le premier : les principes apparaissent moins comme des normes philosophiquement légitimés et motivés, que comme l’expression de préférences culturellement situées, dont la valeur n’est pas véritablement interrogée. Cette limite tient en partie à la méthode employée, de nature empirique, dans la mesure où les principes résultent d’un processus délibératif impliquant des acteurs appartenant à un espace culturel relativement homogène.

 

Sa principale valeur argumentative réside donc moins dans l’originalité des principes généraux eux-mêmes — lesquels trouvent majoritairement leurs sources dans les grandes déclarations de droits et la bioéthique — que dans la tentative de signifier concrètement ce qu’ils veulent dire d’un point de vue pratique. Mais si cette explicitation d’exigences normatives, par nature abstraites et de premier niveau, est absolument essentielle pour définir les conditions d’application de ces dernières, elle ne suffit pas pour autant à justifier la validité des principes eux-mêmes. D’aucuns invoqueront, à juste titre, l’évidence de ces principes ainsi que le caractère avant tout opérationnel de ce type d’exercice. Mais cette prétendue évidence ne fait en réalité que refléter des croyances et des représentations culturellement situées, dont il est également nécessaire de débattre. Elle met surtout en exergue deux façons de pratiquer l’éthique :

 

  • L’éthique philosophique : l’éthique en tant que questionnement philosophique et démarche fondamentalement réflexive visant à interroger l’origine et le bien-fondé de nos valeurs et de nos actions. En d’autres termes, elle ne se réduit pas à l’apprentissage et à l’application mécanique d’un ensemble d’interdictions, de prescriptions et d’obligations inscrites dans des codes, des chartes ou des lignes directrices, qu’il suffirait de suivre scrupuleusement. Elle consiste au contraire en un effort de discernement dont la spécificité est de questionner et de justifier en permanence l’origine de nos croyances et de nos valeurs, même si cet effort a pour objectif pratique de déboucher sur un cadre stable de règles et de principes visant à faciliter la résolution de dilemmes et à encadrer des comportements dans des contextes sectoriels donnés.

  • L’éthique procédurale : l’éthique comme dispositif de régulation des pratiques sociales se présentant sous la forme d’une "liste à cocher". Cette éthique, généralement pratiquée par les ingénieurs et les informaticiens, et en quelque sorte amputée de ses fondements philosophiques ainsi que de la démarche réflexive et critique que cette dernière implique, est principalement centrée sur la prévention des risques et la conformité à des normes, lesquelles peuvent être techniques, juridiques ou éthiques. Loin de s’opposer, les deux ont un besoin impératif de coexister, pour que la première ne reste pas au simple niveau conceptuel, et que la seconde ne soit pas vidée des justifications dont elle a besoin pour être solidement fondée.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page