top of page
Rechercher

Yoshua Bengio : pour une éthique de l’IA fondée sur le principe de précaution.

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • 27 avr. 2023
  • 3 min de lecture

Dernière mise à jour : 18 janv.

Chercheur canadien et précurseur des réseaux de neurones, Yoshua Bengio a signé, aux côtés d’autres chercheurs et entrepreneurs de la tech, l’appel à un moratoire sur le développement des systèmes d’intelligence artificielle. Contrairement à ses deux confrères Geoffrey Hinton (Google) et Yann Le Cun, également lauréats du prix Turing en 2018, Bengio n’a jamais cédé aux sirènes des GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et demeure un fervent défenseur de la recherche publique. Rappelons qu’il est un ami de longue date de Yann Le Cun, avec lequel il collabore dès la fin des années 1980. Les deux chercheurs portent cependant des regards très différents sur les avancées actuelles et sur l’avenir de l’IA. Le Monde a d’ailleurs eu l’idée de confronter ces deux visions dans deux entretiens successifs publiés le même jour. Dans un entretien daté du 28 avril 2023, Yoshua Bengio explique les raisons de ses inquiétudes concernant le développement de l’IA et celles qui l’ont conduit à réclamer une pause de six mois.


  • Pourquoi demander un moratoire: La sortie de la nouvelle version de GPT-4 a constitué un véritable choc pour Yoshua Bengio. Selon lui, ce système franchit "haut la main" le test de Turing et brouille ainsi la distinction entre l’homme et la machine, au point de rendre cette distinction problématique et potentiellement génératrice de "catastrophes". Le chercheur estime que le rythme de développement de l’intelligence artificielle se fait au détriment d’un principe éthique fondamental : le principe de précaution.

  • Le risque de désinformation: Bengio place en tête de ses préoccupations le risque de désinformation, qu’il considère comme une menace directe pour la qualité du débat public et, par conséquent, pour la démocratie elle-même. Il identifie deux écueils majeurs : la polarisation politique et la manipulation des opinions via les réseaux sociaux. Les systèmes d’IA sont désormais capables de produire massivement des contenus variés — textes, images, vidéos — susceptibles d’orienter les opinions vers des idées fausses. Bengio alerte également sur les risques liés à l’emploi, qui imposent selon lui une révision profonde de nos systèmes de protection sociale et de formation, ainsi que sur les usages militaires potentiellement déstabilisateurs de ces technologies.

  • Des boîtes noires imprévisibles: Avec l’avènement des réseaux de neurones, nous assistons à un changement de paradigme majeur : ces systèmes ne sont plus explicitement programmés, comme l’étaient les logiciels classiques, mais apprennent par eux-mêmes à partir de vastes ensembles de données. Les résultats qu’ils produisent sont, par nature, difficiles à prévoir, et leur processus décisionnel demeure largement opaque. Cela pose des problèmes majeurs en matière de sécurité, de transparence et de fiabilité. Plus encore, ces systèmes peuvent adopter des comportements non anticipés par leurs concepteurs, ce qui renforce les inquiétudes quant à leur déploiement à grande échelle.

  • La question de l’IA forte et de la superintelligence: Bengio affirme que nous sommes encore loin de produire des systèmes équivalents à l’intelligence humaine. Il envisage toutefois la possibilité qu’un jour des IA puissent intégrer des mécanismes analogues à ce que l’on nomme communément une forme de "conscience". C’est notamment pour cette raison qu’il plaide en faveur d’un moratoire, afin de se donner le temps de réfléchir collectivement aux usages que nous souhaitons faire de l’IA. Il mentionne également des recherches en cours visant à concevoir des systèmes capables non seulement d’imiter certains aspects du raisonnement humain, mais aussi de justifier leurs décisions.

  • Une éthique fondée sur le principe de précaution: "Peut-on risquer l’avenir de l’humanité sous prétexte des bénéfices économiques ?", interroge Bengio. Selon lui, l’enjeu consiste à "trouver les moyens de profiter des bénéfices tout en réduisant les risques". Il déplore l’absence de régulation spécifique : "Aujourd’hui, l’IA, c’est le Far West. Le développement de ces outils n’est pas régulé, ou alors seulement par des lois très générales et peu protectrices. Cette absence de réglementation avantage les équipes qui prennent le moins de précautions et se soucient peu d’éthique." Précisons qu’au moment de cet entretien, le règlement européen sur l’intelligence artificielle (AI Act) était encore en discussion. Bengio considère que, bien qu’utiles, les recommandations éthiques émanant de l’UNESCO, de l’OCDE ou de l’Union européenne restent insuffisantes, précisément parce qu’elles ne sont pas juridiquement contraignantes. Il appelle ainsi à une réappropriation collective de l’avenir de l’IA et à une réflexion démocratique sur ses usages, plutôt que de laisser aux seules entreprises privées, guidées avant tout par des intérêts économiques, le soin de décider pour l’ensemble de la société.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page