top of page
Rechercher

L'IA, stéréotypes, état de droit et inégalités...

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • 4 févr. 2025
  • 3 min de lecture

Dernière mise à jour : 18 janv.

À l’occasion du Sommet mondial sur l’IA qui se tiendra à Paris les 10 et 11 février, un collectif — au sein duquel figurent Amnesty International et la Ligue des droits de l’homme — s’inquiète des effets négatifs et de l’accent mis de manière quasi exclusive sur les intérêts économiques du développement de l’intelligence artificielle. Il invite les dirigeants à réfléchir également à ses enjeux humains, sociaux et environnementaux. Plutôt que de se concentrer sur des risques existentiels futurs et potentiels, les auteurs souhaitent, à travers cette tribune, recentrer le débat sur les effets présents et très concrets que l’IA fait déjà peser sur les populations les plus vulnérables et les plus discriminées, et plaident pour replacer les droits humains et la justice environnementale au cœur de la régulation de l’IA. "L’IA telle qu’elle est développée perpétue cependant les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global." Selon eux, le règlement européen sur l’IA récemment entré en vigueur, bien que présenté comme un instrument de protection des droits et libertés, traite insuffisamment la question de la surveillance et de la police prédictive, et présente en outre la limite de ne s’appliquer qu’à l’intérieur des frontières de l’Union européenne, alors même que les problèmes soulevés par l’IA sont de nature globale. Parmi les inquiétudes et effets négatifs de l’intelligence artificielle, les auteurs mentionnent :

  • L’IA perpétue les stéréotypes : En s’appuyant sur des données biaisées, qui reflètent les rapports sociaux et les inégalités existantes, l’IA — et la généralisation des processus d’automatisation qu’elle rend possible — tend à perpétuer, voire à renforcer, les stéréotypes, les inégalités sociales et les structures discriminatoires. Les auteurs citent notamment, à titre d’exemples, des secteurs sensibles particulièrement exposés, tels que l’accès à la santé, à l’emploi, aux services publics ou aux prestations sociales. À l’appui de cette thèse, ils évoquent le cas d’un agent conversationnel du service public de l’emploi autrichien, fondé sur un modèle de type ChatGPT et destiné à orienter chômeurs et étudiants, qui « affichait » des biais ouvertement sexistes : il proposait à des candidats masculins de s’orienter vers des métiers de l’informatique, tandis que des candidates disposant d’un CV identique étaient dirigées vers des études de genre ou la restauration. Sont également mentionnés le profilage et la discrimination d’usagers des caisses d’allocations familiales en France, au Danemark ou aux Pays-Bas, ainsi que les dispositifs de justice ou de police prédictive, susceptibles d’amplifier le racisme systémique, comme ce cas aux États-Unis où une IA évaluait comme deux fois plus élevé le risque de récidive chez des personnes noires que chez des personnes blanches.

  • Menaces pour l’État de droit : L’IA est également mobilisée à des fins de surveillance et d’identification dans le cadre du contrôle des frontières ou des conflits armés. Les auteurs citent à ce titre le programme d’IA de l’armée israélienne baptisé Lavender, conçu pour identifier, à partir de données visuelles, cellulaires, photographiques, de contacts téléphoniques ou de connexions aux réseaux sociaux, des militants ou combattants du Hamas ou du Jihad islamique, quel que soit leur rôle effectif dans le conflit israélo-palestinien. Des personnes et leurs familles auraient ainsi été ciblées par des bombardements aériens, alors même que le taux de fiabilité du système serait évalué à 90 %. Ce type d’outil est également utilisé par la Chine pour surveiller la population ouïghoure. À cela s’ajoutent l’usage de l’IA générative à des fins de désinformation et de déstabilisation par des régimes autoritaires ou des acteurs privés — notamment via des deepfakes audio et vidéo —, ainsi que les risques écologiques associés. Selon un article du New York Times d’octobre 2023, l’IA générative pourrait nécessiter une quantité d’électricité équivalente à celle consommée par un pays comme l’Argentine ou les Pays-Bas, tandis que les géants de la Tech auraient accru leurs émissions de CO₂ de 30 à 50 % en 2024. Le développement de l’IA et du numérique implique en outre l’extraction massive de minerais et de terres rares, devenus un enjeu géopolitique majeur et une source potentielle de conflits entre grandes puissances.

  • L’aggravation des inégalités : Les systèmes d’IA sont en grande partie entraînés grâce au travail de personnes situées dans les pays du Sud, souvent exploitées et faiblement rémunérées. Selon le Times, OpenAI aurait ainsi payé des travailleurs kényans moins de deux dollars de l’heure pour labelliser des contenus jugés toxiques. Plus largement, l’IA tend à accentuer les inégalités, non seulement économiques mais aussi culturelles, en concentrant les investissements et les bénéfices dans certains pays du Nord et en privilégiant un nombre restreint de langues au détriment des autres.

 

 

 

 

 

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page