Actions
1Obligations
1Flexibles
1Perf. absolue
1L'essentiel de l'actualité patrimoniale et financière pour les CIF, chaque matin dans votre boîte mail.
OpenAI veut devenir la nouvelle interface du web, et l’annonce d’Atlas met Google sous pression. Une guerre totale s’engage entre géants de l’IA et du cloud.
OpenAI veut devenir la nouvelle interface du web, et l’annonce d’Atlas met Google sous pression. Une guerre totale s’engage entre géants de l’IA et du cloud.
Par Abdoullah Sardi, Gérant Actions – Amplegest Digital Leaders
1️⃣ Atlas signe l’entrée d’OpenAI dans la navigation web : ChatGPT devient une interface intégrée directement au navigateur.
2️⃣ Une menace existentielle pour Google : le modèle économique de la recherche et du e-commerce est remis en cause.
3️⃣ La guerre de la puissance de calcul est lancée : le futur d’Internet dépendra des infrastructures GPU et de la sécurité des agents IA.
Mardi 21 octobre, OpenAI a dévoilé ChatGPT Atlas, un navigateur web propulsé par l'intelligence artificielle. Pour Amplegest Digital Leaders, cette annonce confirme une thèse que nous défendons depuis le lancement des LLMs : OpenAI ne cherche pas simplement à créer un chatbot performant, mais à devenir la nouvelle interface d'Internet.
L'impact a été immédiat. Les actions d'Alphabet, la maison-mère de Google, ont chuté de 2 à 4% dans la journée suivant l'annonce. Un signal clair que les investisseurs prennent très au sérieux cette nouvelle menace sur le cœur de métier de Google : la recherche en ligne et la navigation web.
Car Atlas n'est pas juste un navigateur de plus. Basé sur Chromium (comme Chrome), il intègre ChatGPT directement dans l'expérience de navigation. Concrètement ? Un bouton "Demander à ChatGPT" apparaît sur chaque page web, ouvrant une sidebar intelligente qui comprend le contexte de votre navigation.
Mais la vraie ambition d'OpenAI va bien au-delà, et c'est précisément ce que nous anticipons depuis plus de deux ans dans notre analyse du secteur. L'objectif final d'OpenAI est de devenir l'interface principale d'Internet, de manière fluide, sans même avoir besoin d'une interface graphique traditionnelle.
"Les onglets, c'était bien, mais nous n'avons pas vu beaucoup d'innovation dans les navigateurs depuis." — Sam Altman
Cette approche met OpenAI en collision frontale avec les géants du web. En s'attaquant au navigateur, OpenAI vise directement les plates-bandes de Google et potentiellement Amazon. Car avec le mode "agent" d'Atlas, l'IA peut interagir directement avec les sites d'e-commerce, réserver des vols, faire des achats, gérer vos emails.
Face à cette offensive, Google est obligé de réagir. La baisse d’Alphabet a été limitée (2-4%), alors que nous considérons que la menace est existentielle (Plus de la moitié des revenus de Google proviennent du search). Les investisseurs anticipent probablement la riposte de Google avec Chrome intégrant Gemini, son propre modèle d'IA.
Mais peuvent-ils vraiment ? Et c'est là que notre analyse sur les infrastructures devient cruciale.
Atlas n'est disponible pour l'instant que sur macOS. Ce lancement limité n'est probablement pas qu'une question de développement — c'est selon nous très probablement une question de capacité de calcul.
Car le modèle économique des agents IA change radicalement les besoins en infrastructure, et c'est un point sur lequel nous alertons constamment. Aujourd'hui, un prompt ChatGPT, c'est quelques lignes de texte (~500 tokens pour 300 mots). Demain, avec un agent qui contrôle votre navigateur en temps réel, on parle d'un flux vidéo constant — l'agent doit "voir" votre écran pour interagir avec lui.
Selon nos estimations, un agent vidéo fonctionnant à 5 images par seconde pendant 2 minutes génère environ 307.000 tokens — soit 600 fois plus qu'un prompt textuel classique. Même avec des optimisations agressives (sous-échantillonnage, compression, envoi par événements), nous estimons que le besoin en mémoire vidéo des GPU* sera multiplié par un facteur 100 à 1 000 par rapport aux usages actuels de chatbots textuels.
Cette explosion des besoins explique aussi, selon nous, pourquoi Google ne répond pas immédiatement. Imaginez si Google lance demain une version de Chrome avec Gemini et le mode agent. Avec la pénétration massive de Chrome (plus de 3 milliards d'utilisateurs), on peut venir à se demander si Google a assez de puissance de calcul pour faire face à la demande sans devoir altérer son modèle ?
Un lancement raté serait catastrophique — on se souvient encore du lancement désastreux de Bard, la première mouture de leur LLM, qui avait fait perdre 100 milliards de dollars de capitalisation à Alphabet en une journée.
Cette course à la puissance de calcul confirme et soutient notre thèse d'investissement sur les infrastructures IA : les annonces de ces dernières semaines sur les investissements massifs dans les GPU ainsi que l’annonce de plus de GigaWatt de datacenters souligne selon nous l’entrée dans la nouvelle ère d’internet, l’ère de l’agentique.
Le marché commence à intégrer de plus en plus notre scénario : l'ère des agents nécessite une infrastructure d'une toute autre échelle que les chatbots actuels. Les anciennes architectures centrées autour du CPU deviennent de plus en plus obsolètes à chaque nouvelle mouture, dérivée de modèle de base.
Mais cette révolution agentique se heurte encore à d'énormes obstacles techniques et de sécurité. Et c'est là un point crucial de notre analyse des risques.
La sécurisation des agents reste, selon nous, un sujet majeur et sous-estimé par le marché. Un agent est, par définition, un robot qui exécute les commandes qu'on lui demande. Le problème ? Des hackers peuvent injecter des lignes de code invisibles à l'œil humain mais lisibles par les agents.
Ces attaques par injection de prompt indirecte sont déjà documentées. Un attaquant peut cacher des instructions malveillantes dans une page web, un email, ou même un document PDF. Lorsque l'agent traite cette information, il interprète les instructions cachées comme légitimes et les exécute.
Les conséquences potentielles sont considérables : vol de données personnelles, prise de contrôle de machines locales, exfiltration de bases de données d'entreprise. En septembre dernier, une faille critique (CVE-2025-32711, score 9.4/10) a été découverte dans Salesforce Agentforce, permettant le vol de données CRM via une simple injection de prompt.
Microsoft Copilot a aussi été victime de ce type d'attaque, avec des emails contenant des instructions malveillantes ayant permis l'extraction de bases de données CRM entières.
"Les utilisateurs doivent peser les compromis lorsqu'ils décident quelles informations fournir à l'agent, et prendre des mesures pour minimiser leur exposition à ces risques." — Documentation OpenAI
L'hallucination* reste, dans notre analyse, un défi majeur et un frein potentiel à l'adoption massive. Depuis deux ans, des améliorations notables ont été apportées, mais le problème subsiste. Un agent qui hallucine peut réserver le mauvais vol, commander le mauvais produit, ou pire — transférer de l'argent au mauvais destinataire.
Tant que ce problème n'est pas résolu de manière fiable, nous pensons que les agents resteront cantonnés à des tâches à faible risque ou nécessiteront une supervision humaine constante — ce qui limite considérablement leur utilité et leur potentiel de disruption.
Le lancement d'Atlas marque le début d'une bataille des trônes qui valide nos thèses d'investissement sur le long terme. OpenAI vient de lancer le premier jab, et Google, Microsoft, et les autres n'ont pas d'autre choix que de répondre.
Mais cette bataille ne se jouera pas uniquement sur la qualité de l'IA. Elle se jouera, selon nous, sur la capacité à déployer massivement ces technologies tout en gérant trois contraintes titanesques : la puissance de calcul disponible, la sécurité des agents, et la fiabilité des résultats.
Sur cette base, Amplegest Digital Leaders nous semble aujourd’hui bien positionné pour profiter de cette bataille à travers :
1 - Notre exposition aux sociétés d’infrastructure IA, les pelles et les pioches, dont ces acteurs-là ont besoin pour sécuriser leurs parts de marché en déployant plus de capacité (TSMC, AMD, Broadcom, Nvidia, Oracle etc…)
2 - Notre exposition aux solutions software de gestion, orchestrations, et surveillance des API pour les bases de données et modèles (Snowflake, MongoDB, DataDog, etc…)
3 – Notre exposition aux fournisseurs de solutions de cybersécurité qui se chargeront de sécuriser le périmètre des entreprises et leur bases de données (CyberArk, Varonis, Palo Alto, etc…)
Bienvenue dans l'ère de l'Internet agentique. Le web tel que nous le connaissons est en train de mourir.
Ce qui le remplacera reste encore à définir — mais une chose est sûre : la bataille pour contrôler cette nouvelle interface vient de commencer, et elle sera féroce.
Le GPU, ou carte graphique, est un composant d'ordinateur spécialisé dans l'affichage des images, des vidéos et des animations. Contrairement au CPU qui est un généraliste traitant de nombreuses tâches différentes, le GPU est un expert en traitement graphique.
Il est très efficace pour gérer les graphiques 3D complexes et les effets visuels, ce qui le rend essentiel pour les jeux vidéo, la conception graphique, et le rendu de vidéos.
Depuis, Nvidia a développé un langage propriétaire (CUDA) afin d’exécuter des tâches de calculs non graphiques sur les cartes graphiques. Aujourd’hui, les GPU représentent le matériel de choix pour entraîner les IA.
Unité centrale de traitement, le CPU est le cerveau d'un ordinateur. Il exécute toutes les tâches essentielles qui permettent à l'ordinateur de fonctionner : lancer un programme, jouer, naviguer sur Internet.
Il effectue des calculs, gère les données et exécute les instructions qui synchronisent les autres composants. Sans CPU, un ordinateur ne peut pas fonctionner.
Un Large Language Model (grand modèle de langage) est un programme d’intelligence artificielle conçu pour comprendre et générer du texte comme un humain. Ces modèles — comme ChatGPT — sont entraînés sur des milliards de mots et peuvent raisonner, reformuler, traduire ou répondre à des questions complexes.
Phénomène par lequel une intelligence artificielle génère des informations fausses ou inventées tout en les présentant comme exactes.
Dans le cas des agents IA, une hallucination peut entraîner des erreurs graves : réservation de mauvais vols, commandes erronées, ou transactions financières incorrectes.