top of page
Rechercher

Les trois types de risques associés à l'IA selon le IA Safety Report.

  • francknegro1900
  • 11 févr.
  • 2 min de lecture

Dernière mise à jour : 18 sept.

Le 29 janvier 2025 a été publié le rapport international sur la sécurité des systèmes d’intelligence artificielle, rédigé par une équipe de 96 experts issus de 30 pays et de diverses institutions, dont l’ONU, l’Union européenne et l’OCDE. Ce rapport, dirigé par le professeur Yoshua Bengio de l’Université de Montréal, a pour objectif de fournir une synthèse des connaissances scientifiques actuelles concernant les capacités et les risques associés à l’IA générale, afin d’éclairer les décisions publiques. Centré sur les systèmes dits "généraux", capables d’exécuter une pluralité de tâches, il évalue les risques potentiels liés à ces technologies et propose des pistes de gestion et d’atténuation, dans la perspective de construire une compréhension internationale partagée des enjeux de sécurité.

 

Yoshua Bengio, figure mondiale de l’apprentissage profond (Deep Learning), s’était déjà illustré en 2023 comme l’un des signataires de deux textes majeurs alertant sur les dangers de l’IA : d’une part, une lettre ouverte réclamant un moratoire sur son développement, signée également par Steve Wozniak, Elon Musk et Stuart Russell ; d’autre part, une pétition cosignée par des experts et personnalités publiques affirmant que l’IA représente un risque d’extinction comparable à ceux des pandémies ou de l’arme nucléaire. Les signataires y rappelaient que "l’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire" (parmi eux Sam Altman, Bill Gates, Geoffrey Hinton, Peter Norvig, Stuart Russell, Peter Singer et Ray Kurzweil). Le rapport distingue trois grandes catégories de risques :

 

  • Les utilisations malveillantes, incluant la désinformation, le cyberharcèlement, la manipulation de l’opinion publique, mais aussi l’usage de l’IA dans le développement d’armes biologiques ou chimiques à des fins terroristes. Les auteurs évoquent à ce sujet le caractère "dual" de la technologie, pouvant être utilisée à la fois de manière bénéfique et néfaste.

  • Les dysfonctionnements, tels que les erreurs, les hallucinations, les biais discriminatoires ou les pertes de contrôle. Les auteurs s’inquiètent tout particulièrement des agents autonomes capables de lancer des programmes et d’initier des actions non désirées, même si certains chercheurs jugent ce scénario improbable.

  • Les risques systémiques, parmi lesquels figurent les coûts environnementaux, les pertes d’emplois, les atteintes aux droits d’auteur et à la vie privée, ainsi que l’accroissement des inégalités entre les pays disposant ou non des moyens d’exploiter l’IA.

 

Enfin, le rapport note une augmentation significative des inquiétudes depuis sa version provisoire de mai 2024, du fait des avancées rapides observées entre-temps, telles que la prolifération des agents autonomes et l’apparition de modèles de raisonnement comme o1 et o3 d’OpenAI. Il souligne également les désaccords persistants au sein de la communauté scientifique quant aux systèmes "Open Source" : si l’ouverture du code peut stimuler l’innovation, elle peut tout autant faciliter des usages malveillants.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page