top of page
Rechercher

La chaîne de valeur de l’IA générative: acteurs historiques du numérique (2).

  • francknegro1900
  • il y a 1 jour
  • 20 min de lecture

Dernière mise à jour : il y a 16 heures

Les grands acteurs historiques du numérique. – À l’exception de la société Nvidia, relativement peu connue du grand public avant l’essor spectaculaire de l’intelligence artificielle générative, les principaux acteurs aujourd’hui dominants dans ce secteur sont les grandes entreprises historiques issues de la révolution numérique des années 1990 et 2000. Leur point commun réside dans une présence ancienne et structurante sur plusieurs marchés numériques clés, ainsi que dans leur capacité à mobiliser des ressources considérables en matière d’infrastructures, de données, de compétences et de capital. Autrement dit, la position hégémonique qu’ils ont construite au cours des cinquante dernières années, à la faveur des révolutions successives du transistor, des microprocesseurs, de l’ordinateur personnel, des logiciels, du web, des navigateurs, des moteurs de recherche, du commerce en ligne, des réseaux sociaux, du Software as a Service (SaaS), du cloud computing, du mobile, etc., a fait de ces géants de l’informatique et du numérique les candidats naturels au développement et à la diffusion des technologies d’intelligence artificielle.

 

La centralité des acteurs historiques du numérique dans l’écosystème de l’IA générative apparaît de manière particulièrement nette dans le cas de Google, qui figure sans doute parmi les entreprises ayant le plus bénéficié de la dynamique actuelle, si l’on prend pour indicateur l’évolution de sa capitalisation boursière au cours des deux dernières années. Fondée en 1998 à l’occasion du lancement de son moteur de recherche, la société est devenue en 2015 une composante centrale du groupe Alphabet, holding créée afin de regrouper et de structurer l’ensemble des activités stratégiques du groupe. Celles-ci couvrent un spectre particulièrement large, allant du système d’exploitation Android à la régie publicitaire Google Ads, en passant par les services d’informatique en nuage proposés via Google Cloud Platform.

 

Dans le prolongement de cette stratégie d’intégration verticale, Alphabet a également développé ses propres processeurs spécialisés — les Tensor Processing Units (TPU) — et conclu, le 23 octobre 2025, un partenariat stratégique avec Anthropic, visant le déploiement de près d’un million de ces puces afin d’accélérer le développement de ses modèles d’intelligence artificielle. Initialement conçus pour un usage interne au sein de ses centres de données à partir de 2015, ces processeurs sont commercialisés depuis 2018 et sont désormais utilisés aussi bien pour l’inférence que pour l’entraînement du modèle de fondation de Google, Gemini, dont la version 3 a été officiellement lancée le 18 novembre 2025.

Grâce à son moteur de recherche et à sa plateforme de streaming vidéo YouTube, Alphabet dispose ainsi du plus vaste index web et de l’une des plus grandes bases de données vidéo au monde, constituant un avantage considérable en matière d’accès aux données de toute nature (textuelles, vidéos, images, audio, métadonnées, etc.). Par ailleurs, le groupe s’appuie sur un pôle de recherche en intelligence artificielle de premier plan, notamment grâce au rachat de la société DeepMind en 2014. La société fondée par Demis Hassabis, prix Nobel de chimie 2024, est notamment connue pour avoir développé les programmes AlphaGo (2016) et AlphaFold (2018). En 2023, DeepMind a fusionné avec Google Brain — à l’origine du framework TensorFlow, une des bibliothèques open source pour créer et entraîner des modèles de machine learning les plus utilisée au monde, avec la bibliothèque PyTorch développée par Meta —, contribuant à renforcer, sous la direction de Hassabis, l’intégration des capacités de recherche et de développement du groupe Alphabet.

 

Google est également l’éditeur de l’agent conversationnel Gemini — initialement lancé sous le nom de Bard en mars 2023 —, lequel est désormais intégré à une grande partie de son écosystème applicatif, qu’il s’agisse de son moteur de recherche — via la fonctionnalité "AI Overviews", permettant l’affichage de réponses synthétisées en haut des résultats de recherche —, des outils bureautiques de la suite Google Workspace (Gmail, Google Docs, Google Sheets, Google Slides, etc.), de son navigateur Chrome, ou encore de son système d’exploitation Android. Cette logique de plateforme et d’intégration native au sein d’un écosystème d’applications déjà fortement déployé à l’échelle mondiale permet à Google de s’appuyer sur une base d’utilisateurs actifs importante afin de favoriser l’adoption rapide et à grande échelle de son modèle d’IA générative.

 

Il faut enfin rappeler le rôle central de Google dans le développement des modèles d’IA générative et l’engouement que ces derniers connaissent depuis le lancement de la version 3.5 de l’agent conversationnel ChatGPT d’OpenAI. À la base de la révolution de l’IA générative se trouve en effet un article de recherche majeur, publié en 2017 par des chercheurs de Google : Attention Is All You Need. Cet article introduit les Transformers, une architecture de réseaux de neurones révolutionnaire, capable de capter le sens des mots et des phrases en se focalisant sur les parties les plus pertinentes, tout en tenant compte de la position de chaque mot dans des séquences de plus en plus longues. C’est en effet cette architecture technique qui a permis la révolution des Large Language Models (LLM) et la démocratisation de l’usage de l’IA à grande échelle, du fait de la capacité de ces systèmes à produire des contenus multimodaux — textes, images, vidéos — d’une qualité jusqu’alors inégalée. Le "T" de l’acronyme GPT fait précisément référence à l’architecture Transformer, puisqu’il signifie Generative Pre-trained Transformer.

 

Amazon constitue un autre acteur majeur de la chaîne de valeur de l’IA générative, moins généraliste que des acteurs comme Google ou Microsoft, car davantage centré sur la fourniture de services cloud aux entreprises. Fondée en 1994 par Jeff Bezos, et dirigée par Andy Jassy depuis 2021, l’entreprise s’est d’abord développée autour du commerce en ligne, avant de se diversifier massivement dans les services de cloud computing avec Amazon Web Services (AWS). Depuis 2018, AWS met à disposition de ses clients des puces spécialisées destinées à l’entraînement des modèles de machine learning et de deep learning (Trainium), ainsi qu’à l’inférence de ces derniers au moment de leur déploiement (Inferentia). Amazon est également le fournisseur d’une gamme complète d’outils et de services dénommée Amazon SageMaker — complémentaire de solutions comme TensorFlow et PyTorch —, directement intégrée à l’offre Amazon Web Services, permettant d’accompagner l’ensemble du cycle de vie de création des modèles, de la conception au déploiement, en passant par les phases d’entraînement.

 

En parallèle, le groupe se positionne également comme développeur de modèles d’IA avec sa gamme Titan, accessible via la plateforme Amazon Bedrock, aux côtés d’autres modèles conçus par des développeurs tiers. Sa place de marché de données, Amazon Data Exchange (ADX), permet aux entreprises clientes d’AWS d’accéder à des jeux de données tiers, publics ou commerciaux, intégrant notamment des données sectorielles destinées à l’entraînement de modèles d’IA. Enfin, Amazon intègre des systèmes d’IA générative dans plusieurs de ses produits et services, tels qu’Alexa (assistant vocal), Rufus (assistant d’achat intégré au site et application d’Amazon, qui permet de rendre la recherche de produits plus simple et interactive sous une forme conversationnelle), ou encore Amazon Q (assistant d’IA permettant aux développeurs de rechercher des informations dans des bases documentaires et d’obtenir des réponses précises et directes formulées en langage naturel).

 

Apple, principalement connue pour la conception et la commercialisation de produits électroniques grand public tels que l’iPhone, l’iPad ou le Mac, apparaît plus en retrait que les autres grands acteurs sur le terrain de l’IA générative, ce qui est généralement interprété comme un aveu de faiblesse et perçu comme un point négatif par la majorité des analystes financiers. Cela n’a toutefois pas empêché la firme à la pomme de franchir la barre des 4 000 milliards de dollars de capitalisation boursière le 28 octobre 2025, tout en ayant perdu sa place d’entreprise la plus chère de la planète au profit de Nvidia et de Google, dont les cours de bourse ont été multipliés par plus de deux au cours des deux dernières années.

 

L’entreprise avait pourtant annoncé, au premier semestre 2024, ses premiers modèles d’IA propriétaires de type "multimodaux" — capables de traiter et de combiner du texte et des images — sous le nom de MM1, ainsi qu’une gamme de modèles open source nommée OpenELM, principalement conçus pour fonctionner directement sur des appareils mobiles et accomplir des tâches de génération de texte. Lors de sa conférence annuelle des développeurs, le 10 juin 2024, Apple avait annoncé le lancement de nouvelles fonctionnalités fondées sur l’IA générative, réunies sous le nom "d’Apple Intelligence", destinées à être intégrées directement dans ses produits, ainsi que la conclusion d’un partenariat stratégique "non exclusif" avec OpenAI. C’est pourtant avec Google que la firme, dirigée par Tim Cook depuis août 2011, a décidé de s’associer pour proposer, à terme, un assistant IA au sein de son écosystème d’appareils, incluant l’assistant vocal Siri (source : Le Monde, 12 janvier 2026).

 

Malgré ses avancées notables, force est de constater qu’Apple demeure un acteur de second plan dans le domaine de l’IA générative, comparé aux autres acteurs historiques de la révolution numérique que sont Microsoft, Google ou encore Amazon. Son principal apport consiste à offrir une plateforme de diffusion de choix aux technologies d’IA développées par d’autres entreprises, qui souhaitent intégrer leurs modèles de façon native dans l’écosystème matériel et logiciel de la firme fondée par Steve Jobs, et bénéficier ainsi de l’importante base installée d’appareils Apple à travers le monde. C’est d’ailleurs dans ce cadre qu’un acteur comme Google a signé un accord historique de 20 milliards de dollars par an avec Apple afin de faire de son moteur de recherche, le moteur par défaut des iPhone.

 

Fondée en 2004 par Mark Zuckerberg sous le nom de Facebook, l’entreprise est devenue Meta en octobre 2021, marquant son orientation vers le métavers. Aujourd’hui, Meta gère plusieurs plateformes sociales majeures : sa plateforme historique Facebook, lancée en 2004, Instagram, créé en 2010 et acquis en 2012, et WhatsApp, créé en 2009 et racheté en 2014. Cette position confère à l’entreprise de Mark Zuckerberg un accès privilégié à d’immenses volumes de données, notamment d’images et de vidéos.

 

Si Meta dispose par ailleurs de larges infrastructures informatiques et de centres de données dédiés à l’exploitation de ses services, propices au développement de modèles d’IA performants, son recentrage stratégique tardif vers l’IA générative constitue un cas révélateur du caractère changeant et difficilement prévisible du marché de la tech aujourd’hui. Lors de la conférence Facebook Connect — aujourd’hui Meta Connect — du 28 octobre 2021, soit à peine un an avant le lancement de ChatGPT 3.5, l’entreprise avait en effet décidé d’orienter ses investissements massifs vers le métavers. Cette orientation, bien qu’a priori cohérente au regard de son plan de transformation initial, a dû rapidement, sinon être remise en cause, à tout le moins être retardée, à la suite de l’engouement soudain et des espoirs de gains suscités par le développement de l’IA générative. Cette stratégie initiale, perturbée par une disruption technologique que peu d’acteurs avaient anticipée, a entraîné un retard significatif par rapport à des compétiteurs encore largement inconnus du grand public, tels qu’OpenAI (ChatGPT) et Anthropic (Claude), mais également par rapport à des entreprises historiques comme Microsoft (Copilot, dont le modèle sous-jacent est GPT) et, surtout, Google (Gemini).

 

Pourtant, le Facebook AI Research (FAIR), qui regroupait les laboratoires de recherche fondamentale en intelligence artificielle du groupe, a contribué au développement de modèles de langage tels que LLaMA, dont la première version a été publiée en février 2023. Ces modèles ont été diffusés selon une approche dite open-weights — modèles de fondation dont les poids, c’est-à-dire les paramètres internes d’un réseau de neurones, sont rendus accessibles —, assortie d’une licence autorisant leur réutilisation commerciale. En avril 2024, Meta a également lancé Meta AI, un agent conversationnel fondé sur la gamme de modèles LLaMA, et intégré des outils d’IA générative au sein de ses principales plateformes. Si cette stratégie d’ouverture a été saluée par la communauté open source, elle n’a toutefois jamais rencontré le même écho commercial et médiatique que celles de ses concurrents directs, OpenAI, Anthropic ou Google.

 

C’est dans ce contexte de forte concurrence que Meta a finalisé, le 13 juin 2025, son entrée au capital de la start-up Scale AI avec une prise de participation de 49%, soit un montant d’environ 14,3 milliards de dollars ; créé officiellement, le 30 juin 2025, le Meta Superintelligence Lab (MSL), regroupant plusieurs équipes travaillant sur des modèles fondamentaux, incluant les projets issus de la division FAIR ; nommé à la tête de ce laboratoire l’ancien fondateur de Scale AI, Alexandr Wang ; et enfin accéléré ses investissements dans le domaine de l’IA afin de devenir la première entreprise à développer et déployer une superintelligence, c’est-à-dire, selon la définition donnée par Zuckerberg, une IA "qui surpasserait l’intelligence humaine en tous points". Le groupe a également annoncé, le 30 décembre 2025, l’acquisition, pour un montant estimé à 2 milliards de dollars, de la société Manus, une start-up développant des agents d’IA capables d’exécuter des tâches complexes de manière autonome. Ce qui vient renforcer les capacités de Meta dans le domaine de l’IA agentique.

 

Si l’ensemble de ces initiatives interviennent dans un contexte marqué par le départ de figures historiques majeures telles que Yann Le Cun, qui avait rejoint Facebook (Meta) en 2013 afin de fonder et diriger le laboratoire FAIR (Facebook Artificial Intelligence Research), elles traduisent néanmoins l’ambition affirmée de Meta de combler son retard par rapport aux autres acteurs de l’IA générative.

 

Parmi les grands pionniers de la révolution micro-informatique et numérique, Microsoft occupe une position singulière, à la croisée de plusieurs segments clés de la chaîne de valeur de l’IA générative. Acteur historique des systèmes d’exploitation Microsoft Windows et des logiciels bureautiques de la suite Microsoft 365, incluant des applications standards comme Word, Excel, PowerPoint ou Outlook, l’entreprise fondée par Gates et Allen en 1975 exploite également le moteur de recherche Bing et figure parmi les principaux fournisseurs mondiaux de services cloud. Cette plateforme, connue sous le nom de Microsoft Azure, propose un catalogue de modèles d’intelligence artificielle — Azure AI Model Catalog — et s’appuie sur des puces optimisées pour ses propres infrastructures, dénommées Maia et Cobalt.

 

Microsoft est également l’éditeur du navigateur Microsoft Edge, qui a officiellement remplacé Internet Explorer en juin 2022, et a intégré des fonctionnalités d’IA générative via la technologie Bing Chat. Dès février 2023, l’éditeur de Windows a opéré une transformation majeure de son moteur de recherche Microsoft Bing en enrichissant la recherche classique par l’adjonction de fonctionnalités d’agent conversationnel, permettant aux utilisateurs de poser des questions en langage naturel, plutôt que de saisir de simples mots-clés. Sans oublier le lancement, en 2021, de GitHub Copilot, un assistant de programmation fondé sur des modèles de type GPT, conçu pour assister les développeurs dans l’écriture et la complétion de code informatique, et prenant en charge de nombreux langages de programmation, tels que Python ou JavaScript.

En complément de son partenariat stratégique et de sa prise de participation dans OpenAI — 13 milliards de dollars investis dans la start-up de Sam Altman depuis 2019 —, la firme de Redmond a ainsi engagé une intégration progressive et systématique des outils d’IA générative dans ses produits et services historiques — suite bureautique, navigateur web, moteur de recherche, etc. —, notamment via son assistant Copilot, qui s’appuie sur l’architecture GPT d’OpenAI. Cette diversité applicative, intégrant aussi bien des applications dites de "front-office" (Word, Excel, PowerPoint, etc.) que de « back-office » (Enterprise Resource Planning — ERP — et Customer Relationship Management — CRM), associée à une immense base installée, constitue un environnement particulièrement propice à l’intégration et au déploiement quasi instantanés de fonctionnalités d’IA générative dans une large gamme de cas d’usage relatifs à des tâches bureautiques et opérationnelles.

 

Enfin, Nvidia occupe une place centrale à l’amont de la chaîne de valeur. Fondée en 1993, l’entreprise apparaît aux yeux des analystes comme le principal bénéficiaire de l’engouement que connaît le développement du deep learning depuis le début des années 2010, et surtout de l’IA générative depuis le lancement de ChatGPT-3 le 30 novembre 2022. Au départ, pourtant, rien ne prédestinait cette ascension fulgurante, puisqu’au moment de sa création, l’objectif de l’entreprise, créée par Jensen Huang, Chris Malachowsky et Curtis Priem, était de concevoir et vendre des puces capables de calculer en temps réel des environnements 3D dans un contexte où les jeux vidéo et les applications graphiques commençaient à évoluer d’images plates vers des univers plus réalistes et immersifs. Le premier grand moment de l’histoire de Nvidia est constitué par le lancement, en 1999, du premier GPU véritablement programmable, la GeForce 256. C’est en effet sur cette base technologique que Nvidia va construire, presque malgré lui, son entrée remarquée dans le domaine de l’IA à partir de l’année 2012.  

 

Le deuxième moment clé de l’histoire de Nvidia est le lancement, au début de l’année 2007, de l’environnement de développement d’applications CUDA – standard pour la programmation sur GPU aujourd’hui –, qui permettait d’étendre les capacités des GPU existantes vers d’autres cas d’usage nécessitant des calculs intensifs, comme les simulations scientifiques, la modélisation climatique, ou encore, les calculs de risques dans le monde de la finance. Mais ce n’est qu’en 2012, avec des percées significatives dans le domaines des réseaux neuronaux profonds, que les GPU de Nvidia, grâce notamment au logiciel CUDA, vont d’un seul coup rencontrer le marché de l’intelligence artificielle. Le réseau de neurones AlexNet, conçu par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton, qui a remporté haut la main le concours ImageNet en 2012, avait été en effet entraîné sur deux cartes GPU Nvidia GTX 580 en utilisant CUDA. Ce moment clé, qui démontrait que l’association des réseaux de neurones profonds avec une grande quantité de données et une importante puissance de calcul étaient capables de transformer littéralement le développement de l’intelligence artificielle. En d’autres termes, le succès d’AlexNet ouvrait la voie au deep learning et à l’essor de l’IA, et propulsait du même coup Nvidia au cœur de l’infrastructure de l’IA.

 

Portée par la dynamique de l’IA générative, Nvidia est devenue, en juin 2024, la première société au monde à atteindre une capitalisation boursière de 4 000 milliards de dollars. Fin novembre 2022, soit au moment du lancement de ChatGPT 3.5, sa valorisation n’était que de 420 milliards de dollars, pour un chiffres d’affaires de 26,91 milliards de dollars. Trois ans plus tard, ce chiffre avait été multiplié par 4,8 – soit 130,5 milliards de dollars sur l’exercice 2025 –, tandis que sa valorisation dépassait les 4 500 milliards. La croissance fulgurante des revenus et du résultat net de la société – 73 milliards de dollars – est principalement due au segment Data Center et aux investissements massifs réalisés par les trois grands fournisseurs d’infrastructures cloud (hyperscalers) que sont Microsoft, Amazon et Google, elles-mêmes stimulées par la vague d’IA générative et les investissements croissants nécessaires à l’entraînement des modèles opérées par les développeurs de modèle d’IA générative comme OpenAI, Anthropic, xAI ou Mistral AI en France.

 

Dans ce cadre, la vente massive des GPU clés, A100 puis H100, ont largement confirmées la position dominante de Nvidia sur le marché des processeurs graphiques dédiés au calcul intensif, notamment dans le domaine de l’IA générative. Selon TrendForce – société taïwanaise de recherche et d’analyse de marché spécialisée sur le marché de la Tech –, la société de Jensen Huang capterait environ 70% du marché "AI chip market" en 2025, dont 95% de parts de marché sur le segment GPU. L’expression "AI chip market" fait ici référence au marché des puces dédiées à l’intelligence artificielle, incluant les processeurs, les GPU ou unités de traitement graphique qui constitue le cœur de métier de Nvidia, mais également ce que l’on appelle les ASIC (circuits intégrés spécifiques à un type d’application), et d’autres types conçues pour l’entraînement et l’inférence des modèles d’IA. 

 

L’entreprise fait toutefois face à un environnement concurrentiel de plus en plus accrue, de la part notamment de deux grandes catégories d’acteurs : 1) les concurrents directs sur des offres similaires à Nvidia, concepteurs de GPU, au premier rang desquels on trouve la société AMD, mais aussi, dans une moindre mesure Intel ; 2) et une concurrence de nature plus structurelle qui tente de réduire sa dépendance à Nvidia et améliorer l’attractivité de son offre infrastructurelle via le développement d’unités de calculs plus spécialisées comme les accélérateurs d’IA, TPU ou ASIC, que sont également Google, Amazon et Microsoft. Sans compter l’arrivée de « startups IA hardware » positionnées sur des marchés de niche, comme Cerebras ou Graphcore.

 

Pour bien comprendre en effet l’environnement concurrentiel d’un Nvidia, il est essentiel d’avoir à l’esprit la physionomie globale du marché des semi-conducteurs, qu’il est possible de structurer autour de quatre grands types de puces – processeurs, circuits intégrés, unités de calcul –, lesquelles incarnent à elles-seules un pan tout entier de l’histoire de l’informatique sur ces soixante dernières années, avec ces moments clés, ces cas d’usage, ses appareils, et ses principaux fournisseurs :

 

  • ·CPU (Central Processing Unit) : Ce sont les processeurs les plus anciens apparu dès le début des années 1970 avec le développement des premiers micro-ordinateurs. Situés au cœur de tous nos systèmes informatiques, ils équipent encore la plupart des ordinateurs portables ou de bureau, mais également les serveurs d’entreprise ou les stations de travail. Les deux principaux fournisseurs historiques sont Intel et AMD, auxquels on peut ajouter des acteurs comme Apple, Qualcomm ou Samsung, qui fabriquent des puces basées sur des architectures Arm, très répandues dans le mobile, les systèmes embarqués (voitures, console de jeux, appareils médicaux, objets connectés, etc.), et qui progressent fortement sur le marché des ordinateurs portables.  

  • GPU (Graphics Processing Unit) : Apparu à la fin des années 1990 pour résoudre des problèmes de rendu graphique de jeux vidéo 3D, ils permettent – contrairement aux CPU –, d’opérer des milliards de calculs en parallèle, ce qui en fait des clients privilégiés pour le développement d’applications nécessitant des calculs intensifs sur de très grandes quantités de données. Ils ont littéralement trouvé leur pleine vocation avec l’émergence de l’IA dans les années 2000, puis surtout du Deep Learning au début des années 2010. Ils peuvent aussi bien être intégrés dans des stations de travail graphiques, que dans des centres de données dédiés à l’IA en très grande quantité. Le leader incontesté de ce marché est aujourd’hui Nvidia, challengé aujourd’hui par la société AMD, et dans une certaine mesure, Intel. 

  • Accélérateurs IA : L’expression "Accélérateurs IA" désigne un ensemble large de puces davantage spécialisées que les GPU, conçues notamment pour booster – d’où le terme "accélérateur" –, les calculs nécessaires aux applications de Machine Learning et de Deep Learning, que ce soit durant les phases d’entrainement ou d’inférence des modèles d’IA. Apparus au milieu des années 2010 dans un contexte de développement des applications basés sur des réseaux de neurones profonds, ils sont aujourd’hui au cœur des architecture de calcul pour l’IA (architectures cloud). Les TPU (Tensor Processing Unit) conçues par Google pour la réalisation de calculs spécifiques utilisés en Deep Learning, sont un cas particulier d’accélérateur IA. Parmi les principaux fournisseurs, on trouve Nvidia, AMD, Intel, les gros fournisseurs d’infrastructures cloud (Google, Microsoft, Amazon), mais également des startups IA, comme Graphcore, Groq, ou Cerebras.

  • ASIC (Application-Specific Integrated Circuit) : Enfin, les ASIC, que l’on aurait pu ranger dans la catégorie des accélérateurs IA du fait du caractère fortement spécialisé de leurs circuits, conçues pour accomplir des tâches très précises, comme des traitements d’IA très spécifiques. Les ASIC les plus souvent cités sont donc les TPU de Google, pour l’optimisation des réseaux de neurones. Si ce type de puce est apparue dans les années 1970-1980, ce n’est que récemment, avec la demande en calculs intensifs nécessitées par l’IA, qu’ils ont pris une part de plus en plus importante dans les infrastructures cloud. Les principaux fournisseurs sont donc Google, Amazon, voire des startups IA.

 

Si tous les types de puces que nous venons de présenter sont nécessaires au développement de l’IA – un serveur IA type les combine toutes ensemble pour gérer des tâches différentes et complémentaires –, ce sont en particulier les GPU, et dans une moindre mesure les puces ultra-spécialisées – Accélérateurs IA, TPU, ASIC –, qui ont trouvées grâce aux yeux du marché ces dernières années, du fait du rôle pilier qu’elles jouent dans l’évolution des architectures matérielles et la demande exponentielle en puissance de calcul pour l’entraînement et l’inférence des modèles d’IA. Ce qui explique en grande partie, les résultats financiers exceptionnelles des sociétés Nvidia, mais aussi, AMD.

 

Avec sa gamme IA data center AMD Instinct, qui regroupe les GPU haute performance spécifiquement conçus pour l’intelligence artificielle, les serveurs et les centres de données, la société américaine AMD (Advanced Micro Devices) en effet, est aujourd’hui considérée comme le rival le plus sérieux de NVIDIA. Rival historique de l’autre géant américain – Intel –, sur le segment des CPU (Central Processing Unit) dès les années 1980, dans un marché principalement porté par l’essor de la micro-informatique, AMD va progressivement intégrer l’IA comme priorité stratégique sous la houlette de sa CEO actuelle, Lisa Su.

 

Celle-ci prend ses fonctions en octobre 2014, à un moment où l’entreprise connaît des difficultés à la fois commerciales (perte de terrain sur le marché des CPU), financières (résultats négatifs, faible capitalisation boursière) et stratégiques (absence de cap clair). Ce géant des semi-conducteurs, fondé en 1969 dans la Silicon Valley par d’anciens ingénieurs de Fairchild Semiconductor – comme Intel –, va ainsi voir sa capitalisation boursière passer de 2,1 milliards de dollars à près de 400 milliards en une décennie.

 

Le premier virage important intervient en 2017, avec le lancement de sa gamme de GPU pour centres de données, baptisée Instinct. Ce n’est toutefois qu’à partir de 2022 qu’AMD positionne l’intelligence artificielle comme un axe central de sa feuille de route, entrant alors dans une phase active de concurrence avec NVIDIA. Sa promesse : proposer des solutions intégrées comparables à celles de son rival, à un prix plus compétitif, dans un contexte de croissance exponentielle de la demande en calcul intensif, liée à l’essor des modèles d’IA générative.

 

La société Intel, quant à elle, également fondée par deux anciens ingénieurs de Fairchild Semiconductor en 1968, longtemps leader incontesté du marché des CPU, dont elle est le pionnier avec le lancement du tout premier microprocesseur commercial de l’histoire en 1971 — l’Intel 4004 —, n’a jamais véritablement réussi, jusqu’à ce jour, à s’imposer comme un acteur important du marché des GPU. La société californienne, dont le nom a pourtant longtemps symbolisé à lui seul l’excellence et l’innovation dans le domaine des processeurs et des semi-conducteurs, se trouve aujourd’hui prise en tenaille entre la domination quasi monopolistique de Nvidia sur le segment prometteur des GPU, et la concurrence de son rival historique AMD, à la fois sur les CPU et sur le marché des GPU dédiés au calcul intensif et à l’IA.

 

Dans un article publié dans le journal Le Monde du 23 septembre 2024, l’éditorialiste économique Philippe Escande évoquait ainsi les "trois virages manqués d’Intel" et les raisons de son déclin : 1) celui du mobile, qui a vu émerger un concurrent majeur, Qualcomm, et son modèle sans usine (fabless) ; 2) le choix d’un modèle intégré, de la conception à la fabrication interne des microprocesseurs, plutôt que celui de la spécialisation, à l’instar des acteurs dominants de la chaîne de valeur du marché des puces et des semi-conducteurs ; et enfin 3) le virage manqué de l’intelligence artificielle avec l’essor des GPU, indispensables à l’augmentation des capacités de calcul des centres de données (data centers), laissant la place à son concurrent et compatriote Nvidia, qui a su, lui, anticiper les évolutions en cours.

 

Les efforts récents du géant du microprocesseur montrent pourtant une réelle volonté de se positionner sur le marché du calcul intensif et de l’accélération de l’IA, aux côtés d’acteurs comme Nvidia et AMD, avec l’annonce et le lancement de la gamme Intel Arc en 2022 — principalement destinée au marché grand public et au gaming —, mais aussi, et surtout, de projets davantage orientés vers l’IA pour les centres de données (data centers), avec un accélérateur d’intelligence artificielle dénommé "Gaudi 3", dédié à l’entraînement et à l’inférence de grands modèles d’IA. Le développement et l’adoption d’un certain nombre d’initiatives visant à rattraper son retard sur le marché des GPU et des plateformes d’IA sont plutôt salués par les analystes et les marchés financiers. Après une forte chute de sa capitalisation boursière et de ses revenus depuis 2022, lesquels se sont stabilisés autour de 53 milliards de dollars depuis 2023, la valorisation d’Intel a rebondi autour de 240 milliards de dollars début 2026, contre 105 milliards de dollars à la fin de l’année 2022.

 

Cette présentation du marché des puces et de leur rôle central dans la chaîne de valeur de l’IA générative resterait toutefois incomplète si l’on ne mentionnait pas, aux côtés des acteurs déjà cités, une autre catégorie déterminante d’acteurs, non plus chargés de la conception des puces, mais de leur fabrication. Des entreprises telles que NVIDIA ou AMD, contrairement à un acteur faisant figure d’exception comme Intel, qui a historiquement fait le choix d’internaliser la fabrication de ses propres puces selon un modèle dit Integrated Device Manufacturer (IDM), opèrent en effet selon un modèle dit fabless (« sans usine »). Ce modèle repose sur la sous-traitance de la fabrication des puces à des fondeurs spécialisés, dits fondeurs purs, au premier rang desquels figure la société taïwanaise TSMC (Taiwan Semiconductor Manufacturing Company).

Au sein de l’industrie des semi-conducteurs, on distingue ainsi classiquement deux grandes étapes complémentaires :

 

  • L’étape de conception, principalement assurée par des acteurs comme Nvidia ou AMD, qui définissent et conçoivent, dans le contexte de l’IA, des architectures matérielles spécialisées — circuits électroniques et processeurs massivement parallèles — optimisées pour l’exécution de charges de calcul intensives liées au deep learning et aux réseaux de neurones.

  • L’étape de fabrication, qui repose sur l’exploitation d’usines de gravure (fabs) extrêmement capitalistiques. Les équipements nécessaires à la production de puces avancées sont en effet particulièrement coûteux et requièrent des investissements pouvant atteindre plusieurs dizaines de milliards de dollars. Cette étape consiste à transformer des tranches de silicium en circuits intégrés grâce à des procédés de photolithographie, technique permettant de graver des motifs électroniques d’une extrême finesse — de l’ordre de quelques nanomètres (un nanomètre correspondant à 10⁻⁹ mètre) — à l’aide de sources lumineuses de très haute précision.

 

Dans ce contexte, deux entreprises relativement peu connues du grand public occupent une position absolument centrale dans la chaîne de fabrication des puces. La première est TSMC, aujourd’hui premier fondeur mondial de semi-conducteurs, très largement devant des concurrents tels que Samsung Foundry, GlobalFoundries ou UMC, avec des parts de marché avoisinant 70 % sur les segments les plus avancés. La seconde est le groupe néerlandais ASML (Advanced Semiconductor Materials Lithography), spécialisé dans la conception et la fabrication d’équipements de photolithographie pour l’industrie des semi-conducteurs. Les principaux clients d’ASML sont précisément l’ensemble des grands fondeurs de puces avancées, au premier rang desquels TSMC et Samsung Foundry.

 

ASML occupe aujourd’hui une position quasi monopolistique sur le marché mondial des équipements de lithographie avancée, en particulier sur les systèmes EUV (Extreme Ultraviolet), indispensables à la fabrication des puces de nouvelle génération, notamment celles destinées aux applications d’intelligence artificielle. Ces technologies permettent de graver sur une même puce un nombre toujours plus élevé de transistors, ce qui se traduit à la fois par des gains significatifs en efficacité énergétique et par une augmentation substantielle de la puissance de calcul.

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page