IA, Big Data et démon de Laplace.
- Franck Negro

- 12 juin 2025
- 3 min de lecture
Dernière mise à jour : 18 janv.
Selon une étude réalisée par l’Université de Stanford, l’intelligence artificielle serait plus performante que 93 % des gérants de fonds communs de placement en actions américaines. D’où les investissements importants consentis dans le domaine de l’IA par l’industrie de la gestion d’actifs, comme le souligne Isabelle Chaperon, journaliste économique au journal Le Monde. Dans un article publié le 9 juin sur le site de la célèbre université, les chercheurs indiquent avoir entraîné un modèle prédictif d’investissement sur des données de marché couvrant la période 1980-1990, avant de demander à ce même modèle de recomposer les portefeuilles de 3 300 fonds communs de placement en actions américaines entre 1990 et 2020. Le résultat est sans appel : l’IA aurait surclassé 93 % des gérants, avec des performances en moyenne six fois supérieures. Les systèmes d’IA sont en effet capables non seulement de traiter en continu des quantités considérables de données, qu’elles soient structurées ou non structurées (notes de recherche, rapports d’analystes financiers, documents évaluant la santé financière des entreprises, recommandations d’achat ou de vente d’actions, etc.), mais aussi d’effectuer sans relâche des analyses fines de perspectives de croissance et d’identifier ainsi des opportunités qu’un gérant humain aurait le plus souvent manquées.
D’où la question tout à fait légitime que pose la journaliste — et qui vaudrait d’ailleurs pour tout métier susceptible d’être dépassé par l’IA : ces outils constituent-ils avant tout des aides à la décision, ou sont-ils appelés, à terme, à remplacer purement et simplement les analystes ou les gérants ? Et que se passe-t-il lorsque des algorithmes formulent des recommandations d’investissement qui entrent en contradiction avec celles produites par des équipes chevronnées et expérimentées ?
Une autre interrogation, que la journaliste met particulièrement bien en évidence, concerne la manière dont les modèles sont entraînés et la nature des données mobilisées lors de la phase d’apprentissage. La plupart du temps, en effet, ces modèles établissent des corrélations statistiques à partir de masses considérables de données décrivant avant tout des phénomènes passés, afin d’extrapoler des évolutions futures. Autrement dit, ils prédisent des événements à venir à partir d’événements antérieurs. C’est d’ailleurs ce que fait également, la plupart du temps, un cerveau humain, mais avec une quantité de données bien moindre et des capacités de mise en relation infiniment plus limitées. Qu’advient-il, dès lors, lorsque des événements présents, par nature imprévisibles, viennent perturber le cours apparemment régulier des choses ? À moins de considérer que la notion même d’« imprévisibilité » relève essentiellement de nos limites cognitives et qu’elle ne fasse, dans le cas des phénomènes économiques, que révéler l’insuffisance de notre capacité à intégrer toutes les variables pertinentes. Après tout, il paraît presque logique d’affirmer que, in fine, tout événement futur, quel que soit son degré de complexité, est déjà potentiellement inscrit dans le passé, et que le caractère jugé imprévisible d’un événement nous renseigne à la fois sur notre incapacité à disposer de toutes les données nécessaires à son anticipation et sur le niveau de complexité du phénomène en question.
Or, si l’on admet que tout événement, même difficilement prévisible, est déterminé par des événements antérieurs, on peut alors soutenir que les algorithmes d’intelligence artificielle possèdent un pouvoir considérable, sinon d’expliquer intégralement des phénomènes complexes, du moins d’élargir sensiblement nos capacités d’anticipation du futur. Cela tient à leur aptitude à analyser d’immenses volumes de données, à établir un grand nombre de relations entre elles et à détecter des signaux faibles qu’un cerveau humain est, pour l’essentiel, incapable de percevoir.
En ce sens, le monde façonné par les données massives et l’IA prolonge, sous une forme renouvelée, l’hypothèse du « démon de Laplace », formulée par le mathématicien Pierre-Simon de Laplace (1749-1827). Celui-ci soutenait qu’une intelligence connaissant parfaitement l’ensemble des lois de la nature et la position de toutes les particules de l’univers à un instant donné serait capable de reconstituer le passé et de prédire l’avenir. À ceci près que nous avons substitué aux causes des corrélations, et aux lois nécessaires des modèles statistiques aptes à approximer des régularités. Là où Laplace postulait une connaissance totale et déterministe du réel, nous nous satisfaisons aujourd’hui d’un calcul probabiliste qui, sans saisir les raisons profondes des phénomènes, permet d’en anticiper les manifestations. En d’autres termes, nous avons renoncé à l’idéal de vérité au profit d’un pragmatisme prédictif.
Commentaires