L'éthique de l'IA selon Yann Le Cun (et Meta).
- Franck Negro

- 27 avr. 2023
- 4 min de lecture
Dernière mise à jour : 10 févr.
Figure majeure de l’intelligence artificielle et directeur scientifique de Meta, Yann Le Cun incarne une conception de l’éthique de l’IA étroitement articulée à la vision stratégique du fondateur de Facebook, Mark Zuckerberg. Dans un entretien accordé au journal Le Monde, il dénonce ce qu’il qualifie de "nouvel obscurantisme". Cette expression désigne, selon lui, l’attitude de certains chercheurs, entrepreneurs et intellectuels préoccupés par les développements récents de l’intelligence artificielle, et favorables à une suspension temporaire de la recherche afin de mieux anticiper les risques potentiels et d’encadrer plus strictement le déploiement de cette technologie. La position de Le Cun contraste ainsi avec celle de son confrère et ami Yoshua Bengio, également lauréat du prix Turing en 2018, qui défend l’instauration d’un moratoire sur l’IA générative. Là où Bengio considère qu’une suspension provisoire des recherches constitue une mesure de précaution nécessaire, Le Cun estime, au contraire, qu’un outil tel que ChatGPT ne représente pas une véritable rupture technologique et appelle à intensifier l’effort d’innovation.
ChatGPT n’est pas une révolution: Qualifié par Le Cun de "bon produit", ChatGPT ne constituerait en rien une avancée radicale. Il ne ferait qu’exploiter des technologies existantes depuis de nombreuses années, telles que les modèles de langage de grande taille et les réseaux de neurones. À ses yeux, il s’agit avant tout d’un outil de prédiction statistique des mots les plus probables à partir d’un corpus d’entraînement, très éloigné de ce que l’on peut appeler une intelligence comparable à l’intelligence humaine.
Des outils utiles mais limités: Malgré leurs défauts — fiabilité incertaine, hallucinations, références inventées — les modèles de langage sont jugés « très utiles » pour accroître la productivité de nombreux professionnels, notamment les programmeurs ou les médecins. Le Cun souligne toutefois qu’ils ne doivent ni être assimilés à des moteurs de recherche, ni faire l’objet d’une confiance aveugle dans des contextes sensibles.
La désinformation, un faux problème: Pour Le Cun, le cœur du problème ne réside pas dans le volume de contenus produits par l’IA, mais dans leurs modes de diffusion. Il estime que la désinformation ne constitue pas une menace majeure en tant que telle, invoquant à la fois la capacité du public à distinguer le vrai du faux et le développement de technologies de traçabilité. Il cite l’exemple de Meta, où l’IA utilisée comme outil de modération sur Facebook permettrait aujourd’hui de supprimer environ 80 % des discours haineux, contre 38 % en 2018. "En matière de désinformation, l’IA n’est pas le problème mais la solution", affirme-t-il.
IA forte et superintelligence: Convaincu qu’un jour l’intelligence artificielle surpassera l’intelligence humaine dans tous les domaines, Le Cun rejette néanmoins les scénarios qu’il qualifie "d’apocalyptiques", qu’il juge fondés sur des suppositions erronées. Selon lui, intelligence ne signifie pas nécessairement malveillance : ce n’est pas parce qu’une machine devient plus intelligente qu’elle cherchera à dominer l’humanité. Au contraire, il considère que le développement de l’intelligence favorise le progrès scientifique et social, et évoque l’avènement possible d’un "nouveau siècle des Lumières", dans lequel l’IA amplifierait l’intelligence et la créativité humaines.
Contre une pause, pour une accélération: C’est dans ce cadre qu’il critique les appels à un moratoire de six mois sur la recherche en IA, assimilant cette position à un "nouvel obscurantisme". Par analogie historique, il rappelle que l’Église catholique avait tenté d’interdire l’imprimerie afin de conserver le monopole de l’interprétation de la Bible. Or, c’est précisément l’imprimerie qui a permis l’essor du rationalisme, des Lumières et, à terme, de la démocratie.
La régulation nécessaire: Le Cun n’exclut pas pour autant la nécessité d’une régulation. Il estime indispensable de garantir que les applications d’IA ne présentent pas de danger pour le public, notamment dans des domaines tels que le diagnostic médical ou les véhicules autonomes. Il esquisse ainsi une éthique de la recherche visant à rendre les systèmes « pilotables », structurée en trois étapes : concevoir des IA incapables d’échapper aux contraintes fixées ; spécifier des contraintes alignées sur des objectifs humains, analogues à celles imposées par le droit aux entreprises et aux citoyens ; tester rigoureusement les systèmes avant leur diffusion, à l’instar de ce qui se pratique dans l’aéronautique ou l’industrie pharmaceutique.
Le contrôle du marché: L’accès aux données et aux capacités de calcul constitue un facteur décisif de compétitivité, favorisant une concentration du marché de l’IA entre les mains de quelques grandes entreprises américaines disposant d’avantages structurels hérités de la révolution numérique. Si cette concentration lui semble en partie inévitable, Le Cun insiste néanmoins sur la nécessité de partager les bénéfices du déploiement de l’IA, notamment par l’ouverture des résultats de recherche. Il observe toutefois que cette logique de partage, longtemps adoptée par des entreprises comme Meta, Google ou Microsoft, est aujourd’hui remise en cause par OpenAI, qui ne publie plus l’intégralité de ses travaux.
Gouvernance et ouverture: Enfin, Le Cun plaide pour une gouvernance de l’IA fondée sur des plateformes ouvertes, à l’image de Linux pour les serveurs internet. Selon lui, les gouvernements devraient soutenir l’émergence de tels écosystèmes ouverts et mettre en place des organismes de contrôle indépendants chargés de garantir leur fiabilité et leur sécurité.
Commentaires