L'éthique de l'IA selon Yann Le Cun (et Meta).
- francknegro1900
- 27 avr. 2023
- 3 min de lecture
Dernière mise à jour : 18 sept.
Figure majeure de l’intelligence artificielle et directeur scientifique de Meta, Yann Le Cun incarne une conception de l’éthique de l’IA qui paraît étroitement articulée à la vision stratégique du fondateur de Facebook, Mark Zuckerberg. Dans un entretien accordé au journal Le Monde, il dénonce ce qu’il qualifie de “nouvel obscurantisme”. L’expression désigne l’attitude de certains chercheurs, entrepreneurs et intellectuels, préoccupés par les développements récents de l’intelligence artificielle, qui seraient favorables à une suspension temporaire de la recherche dans l’objectif de mieux anticiper les risques potentiels, et encadrer davantage le déploiement de cette technologie. La position de Le Cun contraste ainsi avec celle de son confrère et ami Yoshua Bengio, également lauréat du prix Turing en 2018, qui défend l’instauration d’un moratoire sur l’IA générative. Là où Bengio considère qu’une suspension provisoire des recherches constitue une mesure de précaution nécessaire, Le Cun estime, au contraire, qu’un outil tel que ChatGPT ne représente pas une véritable rupture technologique et appelle à intensifier l’effort d’innovation.
ChatGPT n’est pas une révolution. Qualifié par Le Cun de « bon produit », ChatGPT ne serait en rien une avancée radicale. Il ne ferait qu’exploiter des technologies existantes depuis de nombreuses années, telles que les modèles de langage de grande taille et les réseaux de neurones. À ses yeux, il ne s’agit que d’un outil de prédiction des mots les plus probables en fonction d’un corpus d’entraînement, très éloigné de l’intelligence humaine.
Des outils utiles mais limités. Malgré leurs défauts — fiabilité incertaine, hallucinations, références inventées — les modèles de langage sont considérés comme « très utiles » pour accroître la productivité de nombreux professionnels (programmeurs, médecins). Le Cun souligne toutefois qu’ils ne doivent pas être utilisés comme moteurs de recherche ni faire l’objet d’une confiance aveugle.
La désinformation : un faux problème. Pour Le Cun, le problème ne réside pas dans le volume de contenus produits, mais dans leur diffusion. Il estime que la désinformation ne constitue pas une menace majeure, arguant de la capacité du public à distinguer le vrai du faux, ainsi que du développement de technologies de traçabilité. Il cite l’exemple de Meta, où l’IA utilisée comme outil de modération sur Facebook permet de supprimer aujourd’hui 80% des discours haineux, contre seulement 38% en 2018. « En matière de désinformation, l’IA n’est pas le problème mais la solution », affirme-t-il.
IA forte et superintelligence. Convaincu qu’un jour l’IA surpassera l’intelligence humaine dans tous les domaines, Le Cun rejette néanmoins les scénarios "apocalyptiques", fondés selon lui sur des "suppositions erronées". Intelligence ne signifie pas nécessairement malveillance : ce n’est pas parce qu’une machine devient intelligente qu’elle cherchera à dominer l’humanité. Au contraire, Le Cun considère que le développement de l’intelligence favorise le progrès scientifique et social, et évoque l’idée d’un "nouveau siècle des Lumières", où l’IA amplifierait l’intelligence et la créativité humaines.
Contre une pause, pour une accélération. C’est dans ce cadre qu’il critique ceux qui demandent un moratoire de six mois, assimilant cette idée à un « nouvel obscurantisme ». Par analogie historique, il rappelle que l’Église catholique avait tenté d’interdire l’imprimerie pour conserver le monopole de l’interprétation de la Bible. Or, c’est précisément l’imprimerie qui a permis l’essor du rationalisme, des Lumières et de la démocratie.
La régulation nécessaire. Le Cun n’exclut pas pour autant la régulation. Il estime nécessaire de garantir que les applications d’IA ne présentent pas de danger pour le public, citant les diagnostics médicaux et les véhicules autonomes. Il esquisse ainsi une éthique de la recherche visant à rendre les systèmes « pilotables », en trois étapes : (1) concevoir des IA incapables d’échapper aux contraintes fixées ; (2) spécifier des contraintes alignées sur des objectifs humains, analogues à ce que fait la loi pour encadrer entreprises et citoyens ; (3) tester rigoureusement les systèmes avant leur diffusion, à l’instar de l’aéronautique ou de l’industrie pharmaceutique.
Le contrôle du marché. L’accès aux données et aux capacités de calcul est un facteur décisif de compétitivité. Cela favorise une concentration du marché de l’IA entre les mains de quelques grandes entreprises américaines, dotées d’avantages structurels issus de la révolution numérique. Si cette concentration semble inévitable, Le Cun insiste sur la nécessité de partager les bénéfices du déploiement de l’IA, notamment en favorisant l’ouverture des résultats de recherche. Or, constate-t-il, cette logique de partage, longtemps adoptée par des entreprises comme Meta, Google ou Microsoft, est remise en cause par OpenAI, qui ne publie plus l’intégralité de ses résultats.
Gouvernance et ouverture. Le Cun plaide enfin pour une gouvernance de l’IA fondée sur des plateformes ouvertes, à l’image de Linux pour les serveurs internet. Les gouvernements devraient soutenir l’émergence de ces systèmes ouverts et mettre en place des organismes de contrôle chargés de garantir leur fiabilité.

Commentaires