S'inscrire à la Newsletter

Intelligence artificielle : le combat du David AMD contre le Goliath Nvidia 2/2

23/11/2023

Par Abdoullah Sardi, gérant du fonds Amplegest Digital Leaders chez Amplegest

Malgré l’attrait des investisseurs pour l’intelligence artificielle (IA), le potentiel de croissance significatif d’AMD n’est pas encore valorisé par le marché. Pourtant, le challenger sur le marché stratégique des GPU*, au cœur de l’IA, semble en mesure de prendre des parts de marché au leader Nvidia au cours des prochaines années.

Rupture technologique de premier ordre, l’intelligence artificielle (IA) offre des opportunités d’investissement considérables comme nous le mentionnions dans la lettre précédente. En effet, le marché de l’IA ne se résume pas à OpenAI et son produit star ChatGPT !  Le succès boursier incontestable de Nvidia, témoigne de l’emballement des investisseurs pour ce spécialiste américain des cartes graphiques devenu incontournable dans l’écosystème de l’IA. Grâce aux investissements colossaux dans sa suite logiciel CUDA* ainsi que ses cartes graphiques, Nvidia a su s’ériger, avant tout le monde, comme leader dans le marché de l’entrainement et l’exécution des IA. Pour autant, le marché semble sous-estimer son concurrent direct sur le marché des GPUs, considérant l’entreprise américaine AMD (Advanced Micro Devices) incapable de fournir un produit compétitif. Ce faisant le marché valorise la situation en l’état sans prendre en considération ses possibles évolutions à venir.

A l’instar de la bataille opposant David à Goliath, AMD (dans le rôle de David) a déjà réussi un coup de maître dans l’univers des CPU* en 2017 en sortant le processeur Ryzen. En effet, avec une dépense de R&D d’un milliard de dollars en 2016 contre 12 milliards pour Intel, AMD avait réussi à redistribuer les cartes du marché CPU monopolisé à l’époque par Intel. Aujourd’hui, AMD détient près de 30 % des parts de marché des CPU à destination des consommateurs et grignote même du terrain dans les CPU serveurs, un marché encore détenu à 90 % par Intel.

Pourrions-nous voir AMD rééditer cet exploit et bousculer Nvidia sur le terrain de l’IA ? Nous pensons effectivement qu’AMD est capable de le faire pour trois raisons :

  • les Hyperscalers (fournisseurs d’infrastructures ou plateformes cloud capables d'augmenter rapidement en capacité, pour répondre à la demande élevée de ressources de calcul, de stockage ou de réseautage) ne souhaitent pas dépendre d’un seul acteur pour fournir l’un des composants clé de leurs serveurs ;
  • l’émergence de nouveaux outils de développement/déploiement facilitant la migration vers des cartes graphiques non Nvidia ;
  • lancement de produits compétitifs par AMD, les MI300/400, dépassant ou se rapprochant de la performance de leur concurrent.

Réitérer cet exploit face à Nvidia ne sera évidemment pas simple quand on sait le rythme effréné d’innovation et leur souhait de conserver leur avance technologique. Néanmoins, AMD offre de vrais avantages compétitifs : une large gamme de produits et de technologies (CPU, GPU, FGPA…), une connaissance aboutie des clients leurs permettant de développer des solutions adaptées à leurs besoins. Grâce à ce portefeuille de produits élargis, AMD est aujourd’hui le seul acteur capable, grâce à des solutions internes, de proposer une puce comprenant un processeur de calcul, un processeur graphique et des mémoires, le tout intégré dans un seul et même format. Cette spécificité technique pourrait représenter un avantage significatif dans un avenir proche.

Enfin et surtout, aucun des acteurs majeurs du cloud (GAFAM), ne souhaitent dépendre d’un seul et unique fournisseur pour un matériel technologique clé et ce, notamment lorsque ce dernier est connu pour ne pas négocier ses prix. Cette contrainte a poussé les fournisseurs cloud à développer de nouveaux outils afin de contourner le monopole de la plateforme CUDA qui les oblige à utiliser les cartes graphiques Nvidia pour exécuter les algorithmes d’IA. Parmi les différents outils, on notera Titron, développé par OpenAI/Microsoft, ou PyTorch, une bibliothèque logicielle accessible en libre-service et supportée par tous les acteurs majeurs du cloud.

La dynamique du marché de l’IA et des GPUs est aujourd’hui favorable à l’entrée d’un nouvel acteur ce qui explique l’investissement conséquent d’AMD sur sa division IA : plusieurs acquisitions de sociétés d’outils de développements et le lancement des nouveaux GPU cloud MI300. Le MI300 fait partie des développements d'AMD pour combler l'écart de performances avec Nvidia et offrir une alternative compétitive pour les charges de travail liées à l’IA. Les spécifications techniques de ce processeur graphique sont surprenantes, à la fois pour les tâches d'entraînement et d’exécution. Ce dernier deviendra potentiellement le GPU le plus puissant avant la sortie des prochaines architectures Nvidia ! Si le lancement est jugé réussi, AMD pourrait prendre des parts de marché, qui même faibles, entraineraient une hausse significative du chiffre d’affaires du groupe, actuellement non anticipée par le marché.

 

Avec 10 % de part de marché, AMD pourrait doubler de taille d’ici 2025

Selon un rapport d'Allied Market Research, le marché mondial des puces d'intelligence artificielle, évalué à 15 milliards de dollars en 2022, devrait être multiplié par 25 d’ici 2032, marquant un taux de croissance annuel composé (TCAC) de 38%. Cela signifierait que le marché des GPU Cloud en 2025 serait évalué entre $120 et $160 mds. Si AMD parvenait à obtenir seulement 10% de part de marché (scénario prudent), cela représenterait un chiffre d'affaires supplémentaire de $14 mds pour l'entreprise rien que sur la division GPU. AMD pourrait alors atteindre environ $40 mds de dollars de chiffre d'affaires en 2025e tout en augmentant considérablement ses marges grâce au GPU Cloud. En effet, celles-ci s’avèrent en théorie bien meilleures sur cette typologie de produit avec une marge brute supérieure à 75%. Si la pénurie de GPU perdure et qu'AMD fournit un produit concurrentiel viable, l'entreprise pourrait alors doubler de taille en deux ans et probablement tripler son EBIT tout en atteignant une marge brute de 6 %.

Dans ce contexte, l'accent mis sur Nvidia par le marché représente incontestablement une opportunité pour se positionner sur AMD. En effet, les perspectives de croissances des divisions CPU et GPU couplées à une valorisation encore faible comparée à celle de son concurrent direct (VE/CA d’AMD est de 6x contre 14x pour Nvidia) en font un bon investissement à moyen long terme.

Cette nouvelle bataille entre David et Goliath promet d’être longue, mais chaque victoire, chaque part de marché gagnée, impactera significativement les revenus d’AMD. Si notre scénario se réalise, cela pourrait porter le bénéfice par action (BPA) à plus de 7,6 dollars. Avec un PE cible de 30, inférieur au multiple moyen des années précédentes (35), l'action atteindrait alors 228 dollars (vs. 95 dollars le 27 octobre 2023).

L'expansion considérable du marché de l'intelligence artificielle et de ses perspectives s'avère être un terrain d'investissement prometteur pour les prochaines années. Cette conviction se reflète actuellement dans la composition de nos fonds : les entreprises propulsées par l'IA représentent 32% des actifs du fonds Amplegest Digital Leaders, avec AMD comme figure de proue (représentant plus de 6% des actifs) et 16% au sein du fonds Amplegest Pricing Power US. Nous explorerons dans nos prochaines communications les divers éléments clés du déploiement de cette technologie et les solutions logicielles nécessaires pour épauler cet écosystème en plein essor.

Lexique 

Entrainement et Inference : dans le paysage compétitif de l'Intelligence Artificielle (IA), les termes Entraînement et Inférence apparaissent souvent comme des thèmes centraux. L'entraînement fait référence au processus d'enseignement des modèles IA en utilisant de vastes ensembles de données, leur permettant d'apprendre et d'affiner leur précision au fil du temps. D'un autre côté, l'inférence consiste en l'utilisation de ces modèles entrainés pour faire des prédictions ou des décisions. La distinction entre l'entraînement et l'inférence est cruciale car ils représentent différentes phases dans le cycle de vie d'un modèle IA et ont des exigences computationnelles et matérielles variées.

 

CPU (Central Processing Unit) : unité centrale de traitement en français, le CPU est le cerveau d'un ordinateur. Il effectue toutes les tâches importantes qui permettent à l'ordinateur de fonctionner. Chaque fois que vous lancez un programme, jouez à un jeu, ou même lorsque vous naviguez sur Internet, le CPU travaille pour traiter les informations et exécuter les commandes. Il effectue des calculs, gère les données et exécute des instructions pour que les autres parties de l'ordinateur puissent fonctionner ensemble de manière harmonieuse. En bref, sans le CPU, l'ordinateur ne pourrait pas fonctionner.

 

GPU (Graphic Processing Unit) : le GPU, ou carte graphique, est un composant d'ordinateur spécialisé dans l'affichage des images, des vidéos et des animations. Contrairement au CPU qui est un généraliste traitant de nombreuses tâches différentes, le GPU est un expert en traitement graphique. Il est très efficace pour gérer les graphiques 3D complexes et les effets visuels, ce qui le rend essentiel pour les jeux vidéo, la conception graphique, et le rendu de vidéos. En somme, le GPU s'occupe de tout ce qui est visuel sur votre écran, rendant les images plus fluides et plus détaillées. Depuis Nvidia a développé un langage propriétaires (CUDA) afin d’exécuter des taches de calculs basiques non graphique sur les cartes graphiques. Aujourd’hui les cartes graphiques représentent le matériel de choix pour entrainer les IA.

 

CUDA : CUDA, qui signifie "Compute Unified Device Architecture", est une technologie développée par NVIDIA. En termes simples, CUDA permet aux développeurs de logiciels d'utiliser la puissance de traitement des cartes graphiques NVIDIA pour des calculs intensifs, pas seulement pour le graphisme. Cela est particulièrement utile pour les tâches qui nécessitent beaucoup de calculs parallèles, comme le traitement d'images, la simulation physique, et l'apprentissage automatique. CUDA transforme essentiellement le GPU en un processeur très puissant capable de gérer des tâches complexes plus rapidement qu'un CPU traditionnel.

 

* Hyperscalers : les hyperscalers sont des entreprises de services informatiques cloud pouvant gérer et déployer des infrastructures réseaux à grande échelle. Ces derniers opèrent des data centers à travers le monde, ce qui leur permet d'offrir des services de stockage et de calcul considérables. Les hyperscalers sont capables de monter en charge très rapidement pour répondre aux besoins croissants de ressources informatiques, souvent bien au-delà de ce que les petits opérateurs peuvent offrir

TÉLÉCHARGER L'ARTICLE



Zoom Invest est la plateforme dédiée aux conseillers en investissements financiers. Ils y retrouvent l’actualité des marchés financiers, des produits, du patrimoine et des acteurs de la Finance. Les informations disponibles sur le site ont un caractère exclusivement indicatif. Elles ne constituent pas une incitation à investir et ne peuvent pas être considérées comme des conseils d’investissements. Elles ne représentent pas non plus des offres de produits ou de services pouvant être assimilés à un appel public à l’épargne, ni à des sollicitations à l’achat ou à la vente d’OPCVM ou de tout autre produit d’investissement. Zoom Invest ne saurait être tenu responsable de toute décision d’investissement fondée sur une information mentionnée sur le site.