L'IA, stéréotypes, état de droit et inégalités...
- francknegro1900
- 4 févr.
- 3 min de lecture
À l’occasion du Sommet mondial sur l’IA qui se tiendra à Paris les 10 et 11 février, un collectif, au sein duquel figurent Amnesty International et la Ligue des droits de l’homme, s’inquiète des effets négatifs et de l’emphase exclusivement mise sur les intérêts économiques du développement de l’intelligence artificielle, et invite les dirigeants à réfléchir également à ses enjeux humains, sociaux et environnementaux. Plutôt que de se concentrer sur les risques existentiels futurs et potentiels que pourrait faire courir cette technologie, les auteurs souhaitent, au travers de cette tribune, recentrer les débats sur les effets présents et très concrets que fait peser l’IA sur les populations les plus vulnérables et les plus discriminées, et plaident en faveur de l’idée de replacer les droits humains et la justice environnementale au cœur de la régulation de l’IA. « L’IA telle qu’elle est développée perpétue cependant les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global. » Selon eux, en effet, le règlement européen sur l’IA récemment entré en vigueur, bien que présenté comme un instrument de protection des droits et libertés, ne traite pas suffisamment la question de la surveillance et de la police prédictive, et a le défaut de ne s’appliquer qu’à l’intérieur des frontières de l’Union européenne, alors que les problèmes soulevés par l’IA sont globaux. Parmi les inquiétudes et effets négatifs de l’intelligence artificielle, les auteurs mentionnent :
L’IA perpétue les stéréotypes : En s’appuyant sur des données biaisées reflétant les rapports sociaux et les inégalités existantes, l’IA et la généralisation des processus d’automatisation qu’elle rend possible perpétuent, voire renforcent, les stéréotypes, les inégalités sociales, ainsi que les structures discriminatoires. Les auteurs citent notamment, à titre d’exemple, les secteurs sensibles les plus exposés comme l’accès à la santé, à l’emploi, aux services publics et aux prestations sociales. Preuve à l’appui : un agent conversationnel du Pôle emploi autrichien, basé sur le modèle de fondation de ChatGPT et visant à orienter les chômeurs et les étudiants, « affichait » des biais ouvertement sexistes en proposant à des candidats masculins de postuler dans le domaine de l’informatique, tandis que les candidates ayant pourtant un CV identique étaient orientées vers des études de genre ou la restauration. Ou encore, le profilage et la discrimination des usagers de la Caisse nationale des allocations familiales en France, au Danemark ou aux Pays-Bas ; la justice ou la police prédictive qui risquent d’amplifier le racisme systémique, comme ce cas aux États-Unis où une IA prédisait deux fois plus de risques de récidive chez les populations noires que chez les populations blanches.
Menaces pour l’État de droit : L’IA est également utilisée à des fins de surveillance et d’identification dans le cadre du contrôle des frontières ou des conflits, comme ce programme d’IA de l’armée israélienne nommé Lavender, qui aurait été conçu pour identifier, à partir d’informations visuelles, cellulaires, photos, contacts téléphoniques ou connexions aux médias sociaux, tout militant ou combattant du Hamas ou du Jihad islamique, quel que soit le rôle qu’il joue dans le conflit israélo-palestinien. Ainsi, des personnes et leurs familles auraient été ciblées par des bombardements aériens alors que le taux de fiabilité du système est évalué à 90 %. Ce type d’outil est également utilisé par la Chine pour surveiller la population ouïghoure. Sans mentionner l’usage de l’IA générative à des fins de désinformation et de déstabilisation par des régimes répressifs et des acteurs privés (deepfakes audio et vidéo), ou encore le risque écologique qu’elle représente. Selon un article du New York Times d’octobre 2023, l’IA générative nécessitera une alimentation en électricité équivalente à celle d’un pays comme l’Argentine ou les Pays-Bas, tandis que les géants de la Tech ont augmenté leurs émissions de CO2 de 30 à 50 % en 2024. Le développement de l’IA et du numérique en général nécessite de plus l’extraction massive de minerais et autres terres rares, qui deviennent un enjeu géopolitique certain et une source de conflit potentiel entre les grandes puissances.
L’aggravation des inégalités : Les systèmes d’IA sont majoritairement entraînés par des travailleurs et travailleuses situés au Sud du globe, lesquels sont exploités et sous-payés. Selon le Times, OpenAI aurait ainsi rémunéré des Kényans moins de deux dollars de l’heure afin de labelliser des contenus jugés toxiques. L’IA tend également à aggraver les inégalités non seulement économiques mais également culturelles, en allouant plus de moyens à certains pays du Nord et en privilégiant certaines langues.

Commentaires