IA, Big Data et démon de Laplace.
- francknegro1900
- 12 juin
- 3 min de lecture
Dernière mise à jour : 18 sept.
Selon une étude réalisée par l’Université de Stanford, l’intelligence artificielle serait meilleure que 93 % des géants de fonds communs de placement en actions américaines. D’où les investissements importants dans le domaine de l’IA réalisés dans l’industrie de la gestion d’actifs, remarque Isabelle Chaperon, journaliste économique au journal Le Monde. Dans un article paru le 9 juin sur le site de la célèbre université, les chercheurs indiquent avoir entraîné un modèle prédictif d’investissement sur des données de marchés allant de 1980 à 1990, puis avoir ensuite demandé à ce même modèle de recomposer les portefeuilles de 3 300 fonds communs de placement en actions américaines entre 1990 et 2020. Résultats : l’IA aurait littéralement écrasé 93 % des gérants, avec des performances en moyenne six fois supérieures. Les IA sont en effet non seulement capables de brasser en continu des quantités astronomiques de données structurées ou non structurées (notes de recherche, rapports d’analystes financiers, documents évaluant la santé financière des entreprises, recommandations d’achat ou de vente d’actions, etc.), mais également d’effectuer sans relâche des analyses détaillées de perspectives de croissance, et ainsi d’identifier des opportunités qu’un gérant lambda aurait le plus souvent manquées.
D’où la question tout à fait légitime que pose la journaliste, laquelle serait d’ailleurs tout aussi valable pour n’importe quel métier qui se verrait dépassé par l’IA : les outils d’IA constituent-ils dans ce cadre des aides à la décision, ou ne vont-ils pas tout simplement, à terme, remplacer les analystes ou les gérants ? Et qu’en est-il lorsque des algorithmes formulent des recommandations d’investissement qui vont à l’encontre de celles réalisées par des équipes chevronnées et expérimentées ?
Une autre interrogation, que notre journaliste met parfaitement en exergue, concerne la façon dont sont entraînés les modèles et les données utilisées lors de la phase d’apprentissage. La plupart du temps, en effet, ces derniers établissent des corrélations statistiques détectées dans de très grandes masses de données qui caractérisent avant tout des phénomènes passés, afin de pouvoir ensuite extrapoler des phénomènes futurs. En d’autres termes, les modèles prédisent des évènements futurs à partir d’évènements passés. Ce que fait également, la plupart du temps, un cerveau humain, avec néanmoins beaucoup moins de données à sa disposition, et beaucoup moins de capacités à les relier entre elles. Qu’en est-il ainsi lorsque des évènements présents, pour le moins imprévisibles, viennent perturber le cours apparemment normal des choses ? Même s’il est toujours possible de penser que la notion "d’imprévisibilité" est une notion typiquement humaine, et qu’elle ne reflète, dans le cas de la prédiction d’évènements économiques futurs, que les limites de notre cerveau. Après tout, il paraît presque logique d’affirmer que, in fine, tout évènement futur, quel que soit son niveau de complexité, est déjà potentiellement inscrit dans le passé. Et que le caractère jugé imprévisible d’un évènement nous renseigne à la fois sur notre incapacité à disposer de toutes les variables nécessaires à son anticipation, et sur son niveau de complexité.
Or, si l’on admet que tout évènement, même difficilement prévisible, est forcément déterminé par des évènements passés, alors on peut penser que les algorithmes d’intelligence artificielle auraient le formidable pouvoir, si ce n’est de tout expliquer du fait de la complexité de certains phénomènes, du moins, d’étendre nos capacités d’anticipation du futur, grâce à la capacité qu’ils ont : 1) d’analyser d’énormes masses de données, 2) d’établir quantité de relations entre elles, 3) de détecter des signaux qu’un cerveau humain est incapable de percevoir.
En ce sens, le monde de l’ère des données massives et de l’IA prolonge l’hypothèse du "démon de Laplace" (du mathématicien Pierre-Simon de Laplace, 1749-1827), qui indiquait déjà qu’une intelligence connaissant parfaitement toutes les lois de la nature et toutes les positions des particules de l’univers à un instant donné pourrait non seulement reconstituer le passé, mais également prédire le futur. À ceci près que nous avons remplacé les causes par des corrélations, et les lois par des modèles statistiques capables d’approximer des régularités. Là où Laplace rêvait d’une connaissance totale et nécessaire du réel, nous nous contentons d’un calcul probabiliste qui, sans saisir les raisons profondes des phénomènes, en anticipe les manifestations. Nous avons délaissé l’idéal de vérité au profit du pragmatisme.

Commentaires