top of page
Rechercher

Yoshua Bengio : pour une éthique de l’IA fondée sur le principe de précaution.

  • francknegro1900
  • 27 avr. 2023
  • 3 min de lecture

Dernière mise à jour : 18 sept.

Chercheur canadien et précurseur des réseaux de neurones, Yoshua Bengio a signé, aux côtés d’autres chercheurs et entrepreneurs de la tech, l’appel à un moratoire sur le développement des systèmes d’intelligence artificielle. Contrairement à ses deux confrères Geoffrey Hinton (Google) et Yann Le Cun, également lauréats du prix Turing en 2018, Bengio n’a jamais cédé aux sirènes des GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et demeure un fervent défenseur de la recherche publique. Rappelons qu’il est un ami de longue date de Yann Le Cun, puisqu’ils ont collaboré dès la fin des années 1980. Les deux chercheurs portent cependant des regards très différents sur les avancées actuelles et sur l’avenir de l’IA. Le Monde a d’ailleurs eu la bonne idée de confronter ces deux visions dans deux entretiens successifs publiés le même jour. Dans un entretien daté du 28 avril 2023, Yoshua Bengio explique les raisons de ses inquiétudes concernant le développement de l’IA et celles qui l’ont amené à réclamer une pause de six mois.

 

  • Pourquoi demander un moratoire. La sortie de la nouvelle version de ChatGPT-4 a constitué un véritable choc pour Yoshua Bengio. Selon lui, ce système franchit « haut la main » le test de Turing et brouille ainsi la distinction homme-machine, au point de rendre cette distinction problématique et potentiellement génératrice de "catastrophes". Le chercheur estime que le rythme de développement de l’intelligence artificielle se fait au détriment d’un principe éthique essentiel : le principe de précaution.

  • Le risque de désinformation. Bengio place en tête de ses préoccupations le risque de désinformation, qui menace directement la qualité du débat public et, par conséquent, la démocratie. Il identifie deux écueils majeurs : la polarisation politique et la manipulation via les réseaux sociaux. Les systèmes d’IA sont désormais capables de produire massivement des contenus variés (textes, images, vidéos), susceptibles d’orienter les opinions vers des idées fausses. Bengio alerte également sur les risques liés à l’emploi — qui imposent, selon lui, une révision de nos systèmes de protection sociale et de formation — ainsi que sur les usages militaires potentiellement déstabilisateurs.

  • Des boîtes noires imprévisibles. Avec l’avènement des réseaux de neurones, nous assistons à un changement de paradigme : ces systèmes ne sont plus explicitement programmés, comme c’était le cas pour les logiciels classiques, mais apprennent par eux-mêmes à partir de vastes ensembles de données. Les résultats qu’ils produisent restent imprévisibles, et leur processus décisionnel demeure opaque. Cela pose des questions de sécurité, de transparence et de fiabilité. Plus encore, les systèmes d’IA peuvent parfois adopter des comportements non anticipés par leurs concepteurs.

  • La question de l’IA forte et de la superintelligence. Bengio affirme que nous sommes encore loin de produire des systèmes équivalents à l’intelligence humaine. Toutefois, il envisage la possibilité qu’un jour des IA puissent intégrer des mécanismes analogues à ce que l’on nomme communément « conscience ». C’est, entre autres, pour cette raison qu’il plaide pour un moratoire, afin de réfléchir collectivement aux usages que nous voulons faire de l’IA. Il mentionne également des recherches en cours visant à concevoir des systèmes capables non seulement d’imiter le raisonnement humain, mais aussi de justifier leurs décisions.

  • Une éthique fondée sur le principe de précaution. "Peut-on risquer l’avenir de l’humanité sous prétexte des bénéfices économiques ?", interroge Bengio. Selon lui, il s’agit de « trouver les moyens de profiter des bénéfices en réduisant les risques ». Il déplore l’absence de régulation spécifique : "Aujourd’hui, l’IA, c’est le Far West ! Le développement de ces outils n’est pas régulé, ou alors seulement par des lois très générales et peu protectrices. Cette absence de réglementation avantage les équipes qui prennent le moins de précautions et se soucient peu d’éthique." Précisons qu’au moment de cet entretien, le règlement européen sur l’intelligence artificielle (AI Act) était encore en discussion. Bengio considère que, bien qu’utiles, les recommandations éthiques émanant de l’UNESCO, de l’OCDE ou de l’Union européenne restent insuffisantes, car elles ne sont pas contraignantes. Il appelle ainsi à une réappropriation collective de l’avenir de l’IA et à une réflexion sur ses usages possibles, plutôt que de laisser aux seules entreprises privées, guidées par des intérêts économiques, le soin de décider pour l’ensemble de la société.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page