top of page
Rechercher

L'IA, nouveau moteur de la recherche scientifique.

  • francknegro1900
  • 24 oct. 2022
  • 2 min de lecture

Dans une enquête publiée dans Le Monde le 25 octobre 2022, le journaliste David Larousserie analyse l’usage croissant de l’intelligence artificielle (IA) et de l’apprentissage par les données dans le domaine scientifique. Il soulève la question suivante : après avoir assimilé des volumes de savoirs inaccessibles à tout être humain, une intelligence artificielle pourrait-elle devenir, à terme, lauréate du prix Nobel ? Pour étayer cette hypothèse, il rapporte plusieurs exemples de réalisations remarquables attribuées à des systèmes d’IA dans des disciplines diverses, comme la biologie, les mathématiques, ou encore, la physique. Il souligne également l’augmentation continue des publications scientifiques consacrées aux applications de l’IA dans ces domaines.

 

Plus remarquable encore est la manière dont les grands groupes technologiques eux-mêmes entérinent et accompagnent ces évolutions. Google, par l’intermédiaire de sa filiale spécialisée dans l’intelligence artificielle, aurait ainsi modifié l’énoncé de sa mission, passant de “Résoudre la question de l’intelligence” à “Résoudre la question de l’intelligence pour faire avancer la science et en faire bénéficier l’humanité.” Microsoft, de son côté, aurait créé une division intitulée “Intelligence artificielle pour la science”, dotée de plusieurs laboratoires répartis en Allemagne, aux Pays-Bas, en Chine et au Royaume-Uni.

 

Selon cette dernière, l’usage massif de l’IA conduirait à un changement de paradigme dans la recherche scientifique. Le modèle classique de découverte, hérité de la révolution scientifique des XVIIe et XVIIIe siècles — fondé sur l’observation, l’expérimentation et l’élaboration de modèles mathématiques destinés à expliquer les relations causales entre phénomènes — céderait progressivement la place à une approche reposant sur l’identification de structures et de corrélations cachées dans les données. Ces dernières sont mises au jour par des programmes d’IA exploitant des capacités de calcul toujours plus importantes. Dès lors, une question se pose : dans quelle mesure est-il encore nécessaire de connaître la réalité physique sous-jacente si les motifs abstraits détectés par les réseaux de neurones permettent déjà de diagnostiquer des pathologies ou de classer des images avec une efficacité supérieure à celle des experts humains ?

 

L’intelligence artificielle et l’apprentissage par les données semblent ainsi pénétrer l’ensemble des disciplines scientifiques, de la biologie à la physique, en passant par la cosmologie, les mathématiques ou encore la chimie. Toutefois, cette dynamique soulève un problème majeur : l’opacité des grands systèmes d’intelligence artificielle. Leur fonctionnement interne demeure en grande partie inaccessible, rendant difficile l’évaluation de la pertinence des résultats qu’ils produisent. Cette opacité entre en contradiction avec l’exigence de la démarche scientifique, qui suppose que toute découverte puisse être expliquée, démontrée et répliquée. Comment garantir que les traitements opérés par une IA sont fiables et qu’ils ne dégradent pas les données initiales ?

 

Ces interrogations ont conduit au développement de travaux complémentaires en intelligence artificielle, visant à certifier la qualité et la robustesse des résultats générés par les systèmes eux-mêmes. À défaut de permettre une transparence totale de leurs mécanismes internes, ces recherches offrent aux scientifiques de nouvelles garanties, tout en les incitant à repenser leurs pratiques et à aborder les phénomènes étudiés sous un angle inédit.

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page