top of page
Rechercher

La chaîne de valeur de l’IA générative: acteurs spécialisés. (3)

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • il y a 12 heures
  • 20 min de lecture

Les développeurs de modèles d’IA générative. – Aux côtés des grands acteurs historiques du numérique – Google, Microsoft, Amazon, Meta, Nvidia, Apple –, dont ils dépendent en partie du triple point de vue infrastructurel, financier et commercial — au sens où ces derniers sont détenteurs de technologies critiques (infrastructures et puissance de calcul), apporteurs de capitaux et canaux de distribution —, le secteur de l’IA générative comprend un ensemble de développeurs spécialisés dont l’activité principale consiste à concevoir, entraîner et faire évoluer des modèles d’IA générative. Ces acteurs occupent une position pivot dans la chaîne de valeur, dans la mesure où ils sont à l’origine des modèles de fondation sur lesquels reposent une grande partie des usages et des services d’IA générative. D’où quelques clarifications conceptuelles et sémantiques qu’il est important d’avoir à l’esprit pour comprendre précisément leur rôle dans la chaîne de valeur de l’IA générative.

 

Un collectif de chercheurs affiliés à l’université de Stanford définit un modèle de fondation comme : "(…) tout modèle qui est entraîné sur des données larges (généralement en utilisant de l'auto-supervision à grande échelle) et qui peut être adapté (par exemple, affiné) à une large gamme de tâches en aval ; des exemples actuels incluent BERT." (Source : On the Opportunities and Risks of Foundation Models, publié sur arXiv en août 2022). Un modèle de fondation est donc un type de modèle d’IA — ce qui veut dire que tous les modèles d’IA ne sont pas des modèles de fondation —, défini par trois caractéristiques principales :

 

  • ·Volume de données hétérogènes : Ils sont entraînés sur des volumes massifs de données hétérogènes (textes, images, vidéos, sons, codes informatiques) issues généralement d’une part très significative de ce qui est accessible sur le Web. Le terme « hétérogène » ne fait pas seulement référence au caractère multimodal des données sur la base desquelles les modèles sont entraînés, mais également à des contextes culturels différents, des personnes différentes (enseignants, chercheurs, militants politiques, journalistes, écrivains, artistes, grand public, complotistes, etc.), des langues et des styles différents, des époques différentes, mais également des intentions différentes, comme informer, expliquer, divertir, enseigner, tromper, manipuler, persuader, etc.

  • Apprentissage auto-supervisé : Ils sont entraînés grâce à une approche appelée "apprentissage auto-supervisé", par opposition à un apprentissage "supervisé". Autrement dit, ils apprennent par eux-mêmes, sans qu’aucune règle explicite ne leur soit préalablement communiquée. Il est important de noter que les modèles de fondation n’ont aucune compréhension sémantique des symboles linguistiques et non linguistiques qu’ils manipulent, mais qu’ils construisent, au cours de la phase d’entraînement, une représentation mathématique et statistique du fonctionnement des contenus multimodaux qu’ils ont ingérés.

  • Adapté à une grande variété de tâches : Enfin, ils sont capables de réaliser une très grande variété de tâches qui dépassent le cadre strict de cette branche de l’IA que l’on appelle le Traitement Automatique du Langage Naturel (NLP en anglais, pour Natural Language Processing), puisque des modèles de fondation peuvent être utilisés dans des applications capables de traiter aussi bien des textes, des images, des vidéos, des sons, mais aussi, du code informatique.

 

Il est important de noter ici que lorsque l’on parle de LLM (Large Language Model), on ne fait ainsi référence qu’à une sous-catégorie de modèles de fondation centrée sur le traitement du langage et parfaitement adaptée à des tâches comme la génération, le commentaire ou l’explication de texte, la traduction multilingue, ou encore la réponse à des questions formulées en langage naturel. On ne confondra pas les Large Language Models (LLM) avec la catégorie plus générique de modèles de fondation, comme GPT (OpenAI), Claude (Anthropic) et Gemini (Google), lesquels peuvent être entraînés et affinés — d’où le terme "fondation" qui est utilisé ici — pour générer non seulement du texte, mais également des images, des vidéos, du code, des sons, en fonction des types de contenus sur lesquels ils ont été entraînés et des tâches sur lesquelles ils ont été spécialisés. En d’autres termes, un modèle de fondation est avant tout défini par son caractère polyvalent et potentiellement multi-applicatif, tandis qu’un LLM est spécialisé. Dans les deux cas, ils appartiennent à ce type de modèles algorithmiques spécifiques que l’on appelle IA générative, au sens où ils ont la capacité de créer des contenus originaux multimodaux.

 

Or, les modèles de fondation n’introduisent pas seulement « un changement de paradigme » dans la construction de systèmes d’intelligence artificielle (SIA), pour reprendre les termes mêmes du document déjà cité ; ils font émerger en même temps de nouveaux acteurs — OpenAI, Anthropic, Mistral AI, Cohere, Hugging Face, Aleph Alpha, Perplexity, etc. — qui participent à une reconfiguration profonde et quasi inédite de l’environnement numérique global (logiciels, hardware, terminaux, interfaces, plateformes, infrastructures, services numériques, systèmes d’information, etc.). Cette reconfiguration se manifeste en premier lieu au niveau de l’univers applicatif, à travers l’intégration croissante de modèles d’IA générative au sein d’applications historiques existantes — suites bureautiques, logiciels de création graphique, solutions de gestion de la relation client (CRM), automatisation robotisée des processus (RPA), progiciels de gestion intégrée (ERP), moteurs de recherche, plateformes de développement logiciel, etc. —, mais également par l’émergence de nouveaux acteurs proposant des applications nativement fondées sur des modèles de langage de grande taille (LLM).

 

Ces nouveaux entrants dans le secteur de la tech prennent généralement la forme de laboratoires de recherche en intelligence artificielle réunissant des compétences scientifiques de très haut niveau, issues aussi bien de la recherche académique (Stanford, MIT, Berkeley, Harvard, Columbia, etc.) que des grandes écoles d’ingénieurs (Polytechnique, CentraleSupélec, Télécom Paris, etc.), ainsi que du monde de la recherche privée (Google Brain, DeepMind, FAIR Meta, Microsoft, etc.). Leur spécificité principale réside dans leur capacité à faire le lien entre recherche fondamentale et développement industriel, à mobiliser des ressources financières significatives, des équipes hautement qualifiées et d’importantes capacités de calcul, ainsi qu’à collecter et traiter des volumes de données massifs nécessaires à l’entraînement des modèles. Ces derniers se distinguent selon trois modalités principales de mise à disposition et de distribution qui reflètent à la fois des philosophies de développement et des logiques économiques sous-jacentes différentes :

 

  • Modèles « open source » : Les modèles dits "open source" d’abord, dont le code, les paramètres (poids) et les données d’entraînement sont publiquement accessibles à la communauté des développeurs. Ces derniers peuvent ainsi librement examiner le code source — architecture du modèle, couches, logique d’entraînement, etc. —, le modifier si nécessaire, entraîner à nouveau le modèle sur de nouvelles données et ainsi affiner (fine-tuning) ce dernier dans le but de lui faire exécuter des tâches spécifiques sans devoir repartir de zéro. Inspirée de la tradition du logiciel libre née sous l’impulsion de Richard Stallman et de la Free Software Foundation (1985), la philosophie open source favorise un idéal de transparence, de partage des connaissances et de collaboration au sein de la communauté scientifique, ainsi que la démocratisation des usages au bénéfice du plus grand nombre. L’Open Source Initiative (OSI), organisation à but non lucratif californienne fondée en 1998, définit une IA open source en reprenant les quatre libertés associées au logiciel libre, à savoir : 1) la liberté d’utiliser le système à quelque fin que ce soit et sans avoir à demander d’autorisation ; 2) la liberté d’en étudier le fonctionnement et d’en inspecter les composants ; 3) la liberté de le modifier à n’importe quelle fin, y compris pour modifier sa sortie ; 4) la liberté de le partager pour que d’autres puissent l’utiliser avec ou sans modifications, à quelque fin que ce soit. Aujourd’hui, des sociétés françaises comme Hugging Face et Mistral AI proposent des modèles de fondation qui respectent les quatre libertés énoncées par l’Open Source Initiative (OSI).

  • Modèles « closed source » : Les modèles dits "closed source", ou modèles fermés, dont ni le code source, ni les poids, ni les données qui ont servi à l’entraînement du modèle ne sont rendus publics. L’entreprise ou l’organisation éditrice du modèle manifeste ainsi la volonté de contrôler dans sa totalité la conception, le développement, la distribution, l’évolution et la monétisation du modèle à des fins commerciales, dans une logique visant à fidéliser une clientèle captive en proposant des performances de haut niveau. Des acteurs comme OpenAI, Anthropic et Google, avec respectivement GPT, Claude et Gemini, privilégient le modèle "closed source".

  • Modèles « open weights » : Les modèles dits "open weights" enfin, qui se situent en quelque sorte à l’intersection des modèles "open source" et des modèles fermés. Ici en effet, seuls les paramètres finaux (poids) du modèle — d’où l’expression « open weights », que l’on traduit par "poids ouverts" — sont rendus publics. La mise à disposition des seuls poids, et non du code source ou des données ayant servi à l’entraînement du modèle, permet ainsi aux chercheurs, aux développeurs et aux entreprises de télécharger le modèle, d’ajuster ses poids en affinant son entraînement sur d’autres données — qui peuvent être des données propriétaires, par exemple —, puis de l’exécuter pour la réalisation de tâches spécifiques, voire de l’intégrer dans une autre application, comme un CMS (Content Management System) ou un CRM (Customer Relationship Management). Si cette approche hybride donne aux développeurs une certaine flexibilité, puisqu’ils ont la possibilité d’adapter le modèle à des contraintes métiers et fonctionnelles, c’est l’entreprise éditrice qui en contrôle l’évolution globale — c’est-à-dire les mises à jour, les améliorations et la feuille de route du modèle —, en invoquant généralement des raisons de sécurité et de propriété intellectuelle. L’acteur qui privilégie aujourd’hui cette approche est Meta, avec son modèle de fondation Llama.

 

Les modes de monétisation des produits et des services distribués par les éditeurs de modèles de fondation sont calés sur les modèles économiques (Business Model) pratiqués par la plupart des éditeurs de plateformes SaaS (Software as a Service) depuis plus d’une vingtaine d’années maintenant. En d’autres termes, ils s’appuient sur des approches largement éprouvées et bien rodées, pratiquées par les grandes sociétés de l’industrie du logiciel depuis plus de deux décennies. Sans prétendre à l’exhaustivité, et sans tenir compte des spécificités propres à chacun des acteurs en présence — lesquelles sont largement dépendantes des segments de marché qu’ils adressent en priorité, ainsi que des positionnements qu’ils adoptent —, il est possible de recenser six grandes stratégies de tarification, dont les deux premières sont les plus dominantes à l’heure actuelle :

 

  • Abonnement SaaS : Le premier canal de monétisation, le plus visible, est constitué de la vente, sous la forme d’un abonnement mensuel, d’un accès à un agent conversationnel — ChatGPT d’OpenAI, Claude d’Anthropic, Gemini de Google, Le Chat de Mistral AI, Copilot de Microsoft, Grok de SpaceX, Perplexity, etc. —, via une application SaaS prête à l’emploi et personnalisable à la marge. Ce type d’offre, ciblant majoritairement les particuliers, peut aussi être déployé au sein d’une entreprise sous la forme de contrats de licences, et mis à la disposition des collaborateurs pour améliorer leur productivité ou leur permettre de se former de manière autonome, par exemple.

  • API et facturation à l’usage : Le second canal, ciblant en priorité les entreprises et les développeurs désireux de construire des applications ad hoc ou d’intégrer les fonctionnalités d’un modèle d’IA générative — GPT, Claude, Gemini, Mistral, etc. — dans des applications existantes, consiste à facturer des appels API à chaque fois qu’une requête est envoyée au modèle pour obtenir une réponse. Les tarifs peuvent être fixés au nombre de tokens — soit le nombre de mots traités —, ou par tranche de requêtes en fonction des volumes. On parle également de facturation à l’usage ou Pay-as-you-go.

  • Licences d’entreprise et intégrations privées : Le troisième grand canal consiste en des contrats de licences dédiés aux entreprises opérant notamment dans des secteurs sensibles hautement régulés — banques, sociétés d’assurance, administrations, etc. —, qui n’acceptent pas que leurs données transitent vers des serveurs publics, mais qui souhaitent également héberger, sur des serveurs internes, des modèles qu’elles auront préalablement personnalisés en fonction de cas d’usage et d’applications métiers spécifiques (fine-tuning). Exemple : une banque qui souhaiterait créer une application d’analyse de documents sensibles internes sans qu’aucune de ses données ne sorte de son propre système d’information.

  • Intégration dans des plateformes tierces : Le cas le plus typique d’intégration dans des plateformes ou applications tierces — quatrième grand canal de monétisation — est celui du modèle Microsoft Copilot — qui est GPT d’OpenAI en réalité —, intégré et accessible directement depuis la suite Microsoft 365 (Word, Excel, PowerPoint, Outlook, Teams), dans le but d’automatiser des tâches de rédaction ou de notes de synthèse dans Word, d’analyse de données dans Excel, ou encore de génération de présentations PowerPoint à partir d’un texte écrit dans Word, par exemple. Dans ce cadre, la génération de contenus dans les applications de la suite Microsoft repose sur des appels API de façon complètement transparente pour l’utilisateur. Indépendamment de l’accord d’intégration entre OpenAI et Microsoft, le modèle de génération de revenu repose essentiellement sur une facturation à l’usage.

  • Marketplace et modèles de plateformes : Un cinquième mode de monétisation est celui des places de marché, dont OpenRouter constitue l’exemple le plus évident. La société américaine, fondée par Alex Atallah et Louis Vichy en 2023, fournit en effet une plateforme d’agrégation d’API de modèles d’IA et sert d’intermédiaire entre, d’un côté, des développeurs qui souhaitent accéder à de nombreux modèles différents, et de l’autre, des fournisseurs de modèles de fondation comme OpenAI, Anthropic, Google ou Mistral, mais aussi des acteurs de l’open source. En d’autres termes, OpenRouter standardise, via un hub unique, l’accès technique à un nombre très important de modèles et prélève une marge sur chaque requête API envoyée, qu’OpenRouter se charge de rediriger vers le modèle choisi.

  • Publicité et monétisation de l’attention : Enfin, sixième et dernier canal de monétisation — qui n’est pas, à ce jour, encore déployé et dont certains acteurs, dont OpenAI, commencent à explorer la possibilité —, celui de la publicité, ou ce que d’aucuns appellent des recommandations sponsorisées. C’est le modèle bien connu des liens sponsorisés dans les moteurs de recherche de type Google ou Microsoft Bing, qu’OpenAI aurait officiellement commencé à tester aux États-Unis pour les utilisateurs de la version gratuite de ChatGPT. L’objectif étant non seulement de financer l’accès gratuit à l’application, de diversifier les sources de revenus, mais aussi d’encourager les utilisateurs à s’abonner à la version payante. Reste à déterminer selon quelles règles une publicité va-t-elle s’afficher, à l’occasion de quel type de prompt, à quel endroit de l’interface utilisateur, selon quel modèle de facturation, et qu’en est-il de la protection de la vie privée des utilisateurs. Certains acteurs concurrents comme Anthropic ont ouvertement critiqué les propositions d’Altman, arguant que cela minerait la confiance des utilisateurs et détournerait la fonction première des assistants IA, dont le rôle est avant tout d’être au service des utilisateurs, et non des annonceurs.

 

Dans un contexte marqué par la diversification des modèles économiques et des meilleures stratégies de développement, OpenAI occupe une place particulière parmi les développeurs de modèles d’IA générative. Fondée en 2015 par Elon Musk, Sam Altman, Greg Brockman et d’autres personnalités du monde de la tech, avec l’objectif principal de développer une intelligence artificielle bénéfique pour l’humanité, la société a largement contribué à démocratiser à très grande échelle l’usage d’un agent conversationnel (chatbot) grand public à partir de novembre 2022. D’abord créée en tant qu’organisation à but non lucratif supposée empêcher la formation de monopoles et garantir un accès équitable à la technologie, la société a adopté, à partir de 2019, un modèle hybride, avec la création d’une entité à but lucratif plafonnée, destinée à lui permettre de lever les fonds nécessaires à son développement.

 

Le premier modèle GPT-1, publié en 2018, a été principalement diffusé sous la forme d’une publication de recherche. Il posait les fondations d’une approche développée par OpenAI, basée sur un pré-entraînement du modèle à partir de très larges corpus de textes, suivi d’une phase de fine-tuning (affinage) supervisée pour des tâches spécifiques. GPT-1 s’appuyait sur une architecture de type Transformer, introduite peu auparavant par une équipe de recherche de Google dans un article publié en 2017 intitulé Attention Is All You Need. L’objectif des équipes d’OpenAI était alors de démontrer qu’un modèle de langage fondé sur cette architecture spécifique de réseaux de neurones était capable de comprendre le contexte d’une phrase, et de générer du texte de manière cohérente.

 

Publiée et mise à disposition des développeurs et des chercheurs en open source — code et poids — via la plateforme GitHub en novembre 2019, la version 2 (GPT-2) allait largement confirmer les espoirs suscités par la version 1, avec un modèle bien plus puissant, contenant près de 1,5 milliard de paramètres, contre environ 100 millions pour GPT-1. Toutefois, c’est seulement à partir de la version 3, dévoilée en mai 2020 et intégrant plus de 175 milliards de paramètres, qu’OpenAI a ouvert la voie à une première forme de commercialisation, en exposant son API (Application Programming Interface) aux développeurs, qui disposaient désormais de la possibilité de créer des applications tirant parti de la capacité exceptionnelle du modèle à traiter des textes formulés en langage naturel.

 

Cette évolution a naturellement conduit, en novembre 2022, au lancement d’une version optimisée de GPT-3, appelée GPT-3.5, qui allait définitivement démocratiser l’usage de l’IA générative, en permettant à n’importe quel utilisateur, ne disposant d’aucune compétence technique particulière, d’interagir avec le modèle via une interface conviviale accessible à tous, soit par l’intermédiaire d’un simple navigateur web, soit au moyen d’une application mobile. En d’autres termes, d’un modèle d’IA générative utilisable principalement par des développeurs au travers de connexions API, GPT-3 est devenu ChatGPT-3.5, transformant un modèle de langage en un assistant conversationnel capable de répondre de manière naturelle à des questions de toute nature, ou encore de générer des textes dans plus de 80 langues et selon des styles variés.

 

Depuis, OpenAI n’a cessé d’accélérer le rythme de sortie de ses nouveaux modèles, avec, en mars 2023, l’annonce de GPT-4, intégrant des capacités multimodales de traitement combiné de textes, d’images, de vidéos ou de fichiers audio ; puis GPT-4.5, en février 2025, mettant l’accent sur la réduction des hallucinations ainsi que sur des interactions plus fluides et naturelles ; enfin, en août 2025, la sortie de GPT-5, décrit comme plus robuste et plus performant, mais surtout capable de réaliser un large éventail de tâches de très haut niveau, telles que le raisonnement avancé (logique et compréhension de problèmes abstraits), la résolution de problèmes mathématiques complexes, l’écriture, la correction et l’optimisation de code dans plusieurs langages de programmation, ou encore des capacités multimodales, introduites avec la version 4, encore renforcées.

 

Début 2026, l’agent conversationnel compterait environ 800 à 900 millions d’utilisateurs actifs par semaine, ce qui en ferait l’une des applications numériques les plus utilisées au monde. À titre de comparaison, seules quelques plateformes sociales le surpassent en audience, telles que Facebook (3 milliards), YouTube (2,5 milliards), Instagram (2 milliards), WhatsApp (2 milliards) ou TikTok (1,6 milliard). Cette base d’utilisateurs aurait pratiquement doublé en un an, traduisant une adoption à la fois massive et rapide. Les estimations du nombre d’abonnés payants varient selon les sources, mais convergent autour de 30 à 35 millions d’utilisateurs, soit environ 3,5 % de la base active hebdomadaire.

 

À la fin de l’année 2025, le chiffre d’affaires estimé d’OpenAI atteindrait environ 13 milliards de dollars, contre 2,7 milliards en 2024, soit une multiplication par près de cinq en l’espace d’un an. La société ne publiant pas de ventilation officielle détaillée de ces revenus, il demeure difficile d’évaluer la part respective provenant du segment "consumer" et du segment « enterprise ». À l’horizon 2030, les projections font état d’environ 2,6 milliards d’utilisateurs actifs, soit un triplement par rapport à 2026, avec 220 millions d’abonnés payants attendus, ce qui représenterait environ 8,5 % de la base des utilisateurs actifs, contre 3,5 % en 2026. Selon certaines estimations non officielles, les revenus prévisionnels pour l’exercice 2026 pourraient se situer entre 26 et 29 milliards de dollars, soit environ le double de ceux estimés pour 2025. Il convient enfin de rappeler qu’OpenAI, n’étant pas une société cotée en bourse, n’est pas soumise aux mêmes obligations de transparence financière que les entreprises publiques.

 

Avec Google, Anthropic est aujourd’hui le concurrent le plus sérieux d’OpenAI. La société a été créée en janvier 2021 par Dario Amodai et sa sœur Daniela, tous deux anciens employés d’OpenAI. Leur départ a été motivé par de profonds désaccords marqués avec l’orientation prise sous la direction de Sam Altman. S’inscrivant dans le contexte de l’exceptionnel engouement que provoque, à l’intérieur de la communauté des ingénieurs et des chercheurs, les performances très prometteuses des premiers modèles d’IA générative – comme les développements de GPT-2 ou GPT-3 auxquels ils ont participé –, mais aussi conscient des risques associés, les fondateurs ont donné à Anthropic la mission centrale de concevoir des modèles d’IA fiables et alignés sur les valeurs humaines.

 

La vision fondatrice des deux co-fondateurs, rapidement rejoints par d’autres chercheurs et ingénieurs d’OpenAI dès la création de l’organisation, repose sur trois principes clés : 1) concevoir des systèmes d’IA générative visant à minimiser les risques de comportements indésirables, ce qui se traduit notamment par la mise en place de garde-fous destinés à empêcher la génération de contenus préjudiciables, tels que des instructions relatives à la fabrication de substances dangereuses ; 2) œuvrer à la conception et au déploiement de systèmes d’IA compréhensibles et contrôlables, permettant aux utilisateurs de comprendre, au moins partiellement, la manière dont une décision automatisée est produite, dans une perspective d’IA explicable ; et enfin, 3) s’assurer que les réponses produites par les modèles soient alignées avec des normes éthiques et sociales largement partagées — selon une logique d’éthique by design — telles que la bienveillance, le respect de l’autonomie des individus et la justice sociale.

 

C’est dans ce cadre qu’Anthropic a mis au point une nouvelle méthode d’alignement appelée "Constitutional AI", destinée à remédier aux limites de la méthode de référence jusqu’alors dominante, "l’apprentissage par renforcement à partir du retour humain" (Reinforcement Learning from Human Feedback, ou RLHF), mais surtout à garantir que des modèles d’IA toujours plus complexes et performants demeurent utiles, sûrs et alignés sur des principes jugés acceptables par les humains.

 

Pour les chercheurs d’Anthropic en effet, la méthode RLHF (voir mon article : L’éthique à l’épreuve de l’IA : les limites de l’éthique des machines) souffre d’au moins cinq défauts majeurs (source : Constitutional AI : Harmlessness from AI Feedback) : 1) dans le compromis entre utilité et innocuité (helpfulness and harmlessness), les annotateurs humains tendent mécaniquement à privilégier les réponses les plus sûres, au détriment de l’utilité réelle du modèle ; autrement dit, à favoriser, dans le doute, des réponses de type « je ne peux pas répondre » plutôt que de risquer une réponse potentiellement nuisible ; 2) l’approche RLHF mobilise des milliers, voire des dizaines de milliers d’annotateurs, ce qui introduit des disparités d’évaluation (différences culturelles, fatigue, variabilité des jugements) tout en générant des coûts logistiques et financiers élevés ; 3) elle entraîne une forme de flottement normatif, les décisions reposant davantage sur des préférences individuelles agrégées que sur un référentiel explicite de principes clairement formulés ; 4) elle soulève des enjeux éthiques liés aux conditions de travail, les annotateurs étant exposés à des contenus potentiellement offensants ou dangereux. Enfin, 5) elle peine à passer à l’échelle dans un contexte où les modèles deviennent toujours plus puissants et autonomes, ce qui rend nécessaire l’instauration d’un cadre normatif plus systématique, explicite et homogène.

 

Par opposition, l’approche "Constitutional AI" proposée par Anthropic, qui constitue le cadre de développement et de déploiement des modèles de la famille Claude, vise à intégrer dans les paramètres (poids) du modèle un ensemble de comportements appris durant la phase d’entraînement, lesquels doivent refléter au mieux les valeurs, les objectifs et le cadre éthique explicitement décrits dans un document fondateur – que l’on peut consulter sur le site d’Anthropic –, dénommé "Claude’s Constitution". Au même titre qu’une constitution, au sens juridique du terme, indique un ensemble de principes situés au sommet de la hiérarchie des normes, la « Constitution de Claude » fait référence à une sorte de charte éthique fondatrice destinée à guider l’entraînement des modèles, afin d’encadrer et d’orienter leurs comportements dans des contextes sensibles. L’auteur principal du document, Amanda Askell (ex OpenAI), docteur en philosophie de l’Université de New York et spécialiste de philosophie morale, fait ici explicitement référence à la notion de "constitutionnalisme", soit l’idée, à la fois juridique, politique et philosophique, que la meilleure protection contre l’arbitraire du pouvoir consiste à en encadrer l’exercice par un texte fondamental. L’idée de "Constitutional AI" chez Anthropic transpose ainsi, dans le domaine de l’ingénierie et de l’intelligence artificielle, des concepts jusqu’ici associés à la pensée juridique, politique et philosophique.

 

Si j’ai pris la peine d’expliciter dans le détail cette notion de « Constitutional AI », c’est qu’elle est au cœur du projet scientifique et entrepreneurial des cofondateurs d’Anthropic, notamment défendu publiquement par Dario Amodei – en particulier sur son blog personnel –, qui insiste de façon régulière sur les risques associés aux systèmes d’intelligence artificielle et sur la nécessité de déployer une philosophie de développement qui garantisse un usage sûr, éthique, transparent et responsable de l’IA. Cette approche pluridisciplinaire originale mobilise à la fois l’ingénierie à proprement parler, mais également la philosophie éthique, les sciences sociales (économie, science politique, droit, sociologie) et la gouvernance technologique, afin de s’écarter délibérément d’une vision exclusivement technicienne de l’IA, qu’il convient toutefois de toujours relier au positionnement et à la stratégie de développement d’Anthropic.

 

La société de Dario Amodai développe en effet toute une série de grands modèles de langage (LLM) conçus pour répondre à des besoins et à des profils d’utilisateurs différenciés – dont les séries Claude Opus, orientées vers la résolution de problèmes complexes et les usages agentiques, Claude Sonnet, particulièrement adaptées au développement logiciel et à l’analyse documentaire, ou encore Claude Haiku, privilégiées pour les applications rapides, l’assistance personnelle et la génération de contenu –, avec pour cœur de cible, et comme priorité stratégique de croissance, le monde de l’entreprise (B2B), et plus particulièrement celui des grandes organisations publiques ou privées, sans pour autant exclure le marché "consumer" (B2C).

 

Selon plusieurs estimations et projections financières relayées par la presse spécialisée, le chiffre d’affaires de l’entreprise aurait ainsi atteint environ 9 milliards de dollars en 2025, soit une multiplication par neuf par rapport à l’exercice 2024, tandis qu’Anthropic viserait un doublement de ses revenus en 2026, avec une prévision révisée à la hausse d’environ 18 milliards de dollars. Cette croissance exceptionnelle serait principalement portée par deux sources de revenus : 1) l’adoption de la famille de modèles Claude en entreprise via des abonnements API ; 2) l’essor d’offres dédiées au développement logiciel, dont le produit Claude Code, qui aurait généré à lui seul plus d’un milliard de dollars de revenus selon certaines sources.

 

Des documents internes et des projections financières évoquées par plusieurs médias avancent par ailleurs des scénarios de revenus pouvant atteindre respectivement 55 milliards, 70 milliards et 148 milliards de dollars à l’horizon 2027, 2028 et 2029, avec un cash-flow positif envisagé avant 2028. L’entreprise ne communique toutefois aucune prévision officielle quant à un objectif précis de rentabilité, invoquant notamment l’ampleur des investissements en infrastructures nécessaires à l’entraînement et à l’exploitation de ses modèles d’IA.

 

Si OpenAI et Anthropic, que l’on pourrait qualifier de « pure players », semblent représenter, à l’heure actuelle, les deux principaux développeurs spécialisés de modèles de fondation — à l’exclusion d’entreprises historiques plus intégrées ou diversifiées comme Google, Microsoft, Amazon ou Meta —, d’autres acteurs, notamment européens, que l’on peut considérer comme des « challengers très sérieux » du fait de leur taille plus modeste, doivent également être évoqués, au premier rang desquels Mistral AI. Fondée en avril 2023 par trois chercheurs français de DeepMind et Meta, Arthur Mensch, Guillaume Lample et Timothée, la société est spécialisée dans la conception de modèles de fondation regroupés sous le nom de Mistral, ainsi que dans le développement d’un agent conversationnel dénommé Le Chat, destiné à un usage tant professionnel que grand public.

 

Mistral AI se positionne comme un acteur alternatif très sérieux, capable de concurrencer, sur certains segments de marché, les modèles développés par les grands acteurs américains, notamment OpenAI et Anthropic. Contrairement à ces deux concurrents, l’intention initiale des trois fondateurs, qui se sont rencontrés lors de leurs études à École Polytechnique, est de construire des modèles de langage performants et accessibles au plus grand nombre en privilégiant une approche dite « open source », visant à promouvoir et favoriser l’innovation collaborative. Il s’agit également de faire émerger des acteurs européens afin de contrebalancer l’hégémonie américaine et de garantir, à terme, l’indépendance technologique de l’Europe (enjeu de souveraineté technologique). Le plan de développement de Mistral AI est majoritairement centré sur les entreprises, les institutions publiques et la communauté des développeurs, avec une volonté affichée, dès le début, d’étendre sa présence à l’international. Début 2026, l’entreprise aurait atteint un revenu récurrent annualisé (ARR, pour Annual Recurring Revenue) estimé à 400-450 milliards de dollars, avec un objectif de revenus proche du milliard de dollars à horizon 2026 selon certaines projections.

 

À l’instar de Mistral AI, qui revendique une approche ouverte comme alternative crédible aux modèles fermés, la société Hugging Face occupe également une place singulière dans la chaîne de valeur de l’IA générative. Fondée en 2016 par trois entrepreneurs français – Clément Delangue, Julien Chaumond et Thomas Wolf –, l’entreprise franco-américaine fournit une plateforme d’hébergement et de distribution de modèles open source ou open-weights – le Hugging Face Hub – à destination de la communauté des chercheurs, des développeurs, des ingénieurs, des universitaires, des start-ups et des entreprises souhaitant publier, créer, fine-tuner, partager et déployer des modèles d’IA générative. À ce jour, Hugging Face propose plus de deux millions de modèles open source ou open-weights, ce qui en fait de loin le plus grand dépôt public de modèles d’intelligence artificielle au monde, librement accessibles, téléchargeables et réutilisables. Son modèle économique ne repose pas sur la vente de licences d’utilisation de modèles propriétaires (modèles fermés), mais sur des abonnements et des services d’infrastructure, ainsi que sur des offres de support et de services professionnels (Professional Services) permettant à des entreprises de développer, déployer et maintenir des applications basées sur des modèles open source ou open weight. Entre 2021 et 2022, la société a également été à l’initiative du projet BigScience, rassemblant plus de mille chercheurs et chercheuses issus de plus de soixante pays. Celui-ci a donné lieu, en juillet 2022, au lancement d’un modèle distribué sous licence open source de 176 milliards de paramètres, dénommé BLOOM, entraîné sur le supercalculateur Jean Zay, situé à Saclay, près de Paris.

 

Enfin, au-delà des acteurs les plus médiatisés déjà évoqués, il existe une multitude d’autres entreprises qui participent, chacune à leur manière, à la dynamique d’un secteur en pleine expansion. Certaines, situées en amont de la chaîne de valeur au même titre qu’OpenAI, Anthropic ou Mistral AI, développent leurs propres modèles d’IA générative, comme la société canadienne Cohere (développement de modèles spécialisés dans le traitement du langage naturel – NLP), l’allemande Aleph Alpha (développement de modèles de langage souverains), la britannique Stability AI (éditeur de Stable Diffusion pour la génération d’images photoréalistes), ou encore l’américain Midjourney (génération d’images artistiques). D’autres, situées davantage au niveau applicatif, proposent des outils multimodaux accessibles via des interfaces web grand public, à l’image de Runway (création audiovisuelle), HeyGen (génération de vidéos avec avatars numériques) ou ElevenLabs (synthèse vocale par IA). Enfin, une nouvelle génération d’entreprises se concentre sur l’automatisation des tâches et l’orchestration de flux de travail grâce à des approches fondées sur les agents IA, comme Dust, Make ou n8n. Ces dernières sont symptomatiques d’un mouvement de déplacement progressif du marché et de la valeur, de la simple génération automatisée de contenus vers l’automatisation de tâches automatiquement coordonnées, qui constitue en même temps un mouvement d’expansion du travail automatisé sur le travail humain.

 

Cet écosystème en rapide mutation illustre ainsi l’émergence d’une vague d’innovations associant modèles multimodaux, interfaces conversationnelles et nouvelles pratiques d’ingénierie logicielle, souvent désignées par des termes annonçant une nouvelle phase du développement de l’IA générative, comme l’agentique — approche combinant modèles de langage et API afin de construire des systèmes capables d’agir de façon autonome ou semi-autonome — ou le vibe coding, nouvelle pratique de développement d’applications logicielles à partir d’instructions formulées en langage naturel qu’une IA générative traduit en code informatique.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page