De la guerre des puces aux centres de données spatiaux : la prochaine décennie de l'industrie de l'IA
De la guerre des puces aux centres de données spatiaux, du dilemme existentiel du SaaS à l'essence de l'investissement — une sélection commentée d'interview approfondie

Ancien gestionnaire de portefeuille chez Fidelity, 18 ans d'expérience en investissement, fondateur d'Atreides Management en 2019
L'investissement est une quête de vérité. Si vous trouvez la vérité en premier et que votre jugement est correct, c'est ainsi que vous créez de l'alpha. Et il faut que ce soit une vérité que les autres n'ont pas encore vue.
Ces mots viennent de Gavin Baker, fondateur d'Atreides Management, lors de son interview dans le podcast « Invest Like the Best » de Patrick O'Shaughnessy. Gavin est considéré comme l'un des investisseurs les plus passionnés et perspicaces du secteur technologique. Cet échange de près de deux heures couvre les GPU, les TPU, l'économie de l'IA, les centres de données spatiaux, l'avenir du SaaS, et même sa transition de moniteur de ski à investisseur.
Cette interview est extrêmement dense en informations, avec de nombreux moments qui vous font « marquer une pause pour réfléchir ». Voici quelques-uns des points de vue les plus stimulants.
Comment suivre l'évolution de l'IA ? Commencez par dépenser 200 dollars
Au début de l'interview, Patrick pose une question très pratique : quand un nouveau modèle comme Gemini 3 est lancé, comment traitez-vous ces informations ?
La réponse de Gavin est directe : vous devez l'utiliser vous-même.
Mais le point essentiel n'est pas simplement de « l'utiliser », c'est quelle version vous utilisez. Il est surpris par les investisseurs qui utilisent la version gratuite de l'IA et en concluent que « l'IA n'est pas si impressionnante que ça » :
La version gratuite, c'est comme si vous aviez affaire à un enfant de 10 ans, et que vous prédiquez ce qu'il deviendra à 35 ans en vous basant sur ses performances à 10 ans. Vous pouvez payer — en fait, vous devez payer pour obtenir l'abonnement de niveau supérieur, 200 dollars par mois. Ce sont eux les véritables adultes de 30-35 ans.
Cette analogie est très pertinente. L'écart entre les modèles d'IA suit la même logique — beaucoup de gens essaient un modèle gratuit de base et concluent que « l'IA n'est pas si extraordinaire ». Mais si vous avez utilisé Claude 4.5 Opus, Gemini 3 Pro ou GPT-5.2 Reasoning — ces modèles de pointe — l'expérience est radicalement différente.
En ce qui concerne les abonnements payants, je dépense personnellement environ 300 euros par mois pour divers produits IA, dont la majeure partie va à l'abonnement Claude Code Max à 250 dollars. Si vous êtes développeur avec des besoins importants en programmation, je vous recommande vivement de souscrire directement à Claude Code officiel (à partir de 125 dollars), plutôt que d'utiliser des sites miroirs. D'une part, vous ne savez pas si le site miroir utilise réellement le vrai modèle ; d'autre part, l'abonnement Max offre un excellent rapport qualité-prix, bien plus avantageux que la facturation à l'usage.
Quant aux canaux d'information, la réponse de Gavin pourrait en surprendre plus d'un : X (Twitter).
Il explique que le développement de l'IA se déroule en grande partie « en temps réel sur X ». Il y a probablement entre 500 et 1 000 personnes sur Terre qui comprennent véritablement la frontière de l'IA, dont une proportion significative se trouve en Chine, et vous devez suivre ces personnes de près. Il mentionne particulièrement Andrej Karpathy :
Chaque article qu'écrit Andrej Karpathy, vous devez le lire trois fois. Au minimum.
En tant que personne qui suit également l'actualité de l'IA, cela me parle profondément. Les discussions sur l'IA sur Twitter sont effectivement plus instantanées et plus approfondies que n'importe quel média traditionnel. Les chercheurs des laboratoires y publient directement les dernières avancées, et parfois se « disputent » entre eux — Gavin mentionne que l'équipe PyTorch de Meta et l'équipe Jax de Google ont eu un débat public sur X, au point que les responsables des deux laboratoires ont dû intervenir en déclarant : « Les membres de notre laboratoire n'ont pas le droit de dire du mal de l'autre laboratoire. »
Scaling Laws : notre « moment Égypte ancienne »
Après la sortie de Gemini 3, beaucoup se sont intéressés à ce que cela implique pour les scaling laws (lois d'échelle). Gavin offre une perspective que je n'avais jamais entendue :
Notre compréhension des scaling laws du pré-entraînement est probablement comparable à celle des anciens Égyptiens concernant le soleil. Ils pouvaient mesurer avec une précision extraordinaire — la Grande Pyramide dont l'axe est-ouest s'aligne parfaitement avec les équinoxes, tout comme Stonehenge. Des mesures parfaites. Mais ils ne comprenaient pas la mécanique orbitale. Ils ne savaient pas pourquoi le soleil se lève à l'est et se couche à l'ouest.
Cette analogie m'a fait longuement réfléchir. Nous pouvons effectivement prédire avec une grande précision : en multipliant par 10 la puissance de calcul d'un modèle, de combien ses performances s'amélioreront. Mais nous ne savons pas pourquoi. Ce n'est pas une « loi », mais une « observation empirique » — une observation que nous mesurons avec une extrême précision sans en comprendre le mécanisme sous-jacent.
Alors pourquoi Gemini 3 est-il important ? Parce qu'il prouve que cette « observation empirique » tient toujours. À un moment où les puces Blackwell étaient retardées et où tout le monde s'inquiétait de savoir si « les scaling laws avaient cessé de fonctionner », Gemini 3 a apporté une réponse claire : elles fonctionnent toujours.
Mais ce qui est encore plus intéressant, c'est ce que Gavin dit ensuite : sans l'apparition des « modèles de raisonnement » (reasoning models), le développement de l'IA entre 2024 et 2025 aurait dû stagner.
Pourquoi ? Parce qu'après que XAI a réussi à faire fonctionner 200 000 GPU Hopper de manière coordonnée, l'étape suivante nécessitait d'attendre les puces Blackwell. Il est impossible de maintenir plus de 200 000 Hopper en état de « cohérence » — autrement dit, de les faire fonctionner comme un tout unifié. Et Blackwell a pris du retard.
Sans les modèles de raisonnement, du milieu de 2024 à aujourd'hui, l'IA n'aurait fait aucun progrès. Tout aurait stagné. Imaginez-vous ce que cela signifierait pour le marché ? Nous vivrions dans un environnement complètement différent. Les modèles de raisonnement ont en quelque sorte sauvé l'IA, car ils lui ont permis de continuer à progresser sans Blackwell.
C'est une perspective dont je n'avais pas conscience auparavant : les modèles de raisonnement (comme o1) ne sont pas simplement une nouvelle capacité — ils ont en réalité « sauvé » le rythme de développement de toute l'industrie de l'IA.
La guerre des puces : Google « aspire l'oxygène »
En abordant la concurrence entre GPU et TPU, Gavin prononce une phrase qui m'a marqué :
Google est actuellement le producteur de tokens au coût le plus bas. Ce qu'ils font depuis un moment, je dirais qu'ils « aspirent l'oxygène économique de l'écosystème IA » — c'est une stratégie extrêmement rationnelle de leur part.
En tant que producteur à bas coût, Google propose des services IA à prix cassés (voire à perte), rendant la vie très difficile aux concurrents. C'est une stratégie classique du secteur technologique, mais Gavin souligne un changement intéressant :
L'IA est la première fois de ma carrière où être le « producteur à bas coût » compte vraiment dans le secteur technologique. Apple ne vaut pas des milliers de milliards parce qu'elle produit des téléphones à bas coût. Microsoft ne vaut pas des milliers de milliards parce qu'elle produit des logiciels à bas coût. NVIDIA ne vaut pas des milliers de milliards parce qu'elle produit des accélérateurs IA à bas coût. Cela n'a jamais compté.
Mais à l'ère de l'IA, quand l'énergie devient le facteur limitant, le nombre de tokens produits par watt devient crucial. Si vous pouvez produire 3 à 5 fois plus de tokens par watt, c'est 3 à 5 fois plus de revenus. Le prix du calcul devient hors sujet, car le goulot d'étranglement est l'énergie.
Ce paysage est sur le point de changer. Les puces Blackwell commencent enfin à être déployées, et Gavin prédit que le premier modèle Blackwell viendra de XAI :
Architecture GPU de nouvelle génération lancée par NVIDIA en 2024, successeur de Hopper. Blackwell utilise le procédé 4 nm de TSMC, intègre 208 milliards de transistors sur une seule puce, prend en charge la précision FP4, offre des performances d'inférence IA environ 5 fois supérieures à Hopper et une efficacité énergétique 25 fois meilleure. Le premier produit, le B200, est entré en production de masse fin 2024.
Selon Jensen, personne ne construit de centres de données plus vite qu'Elon. Jensen l'a dit publiquement.
Lorsque Blackwell et les puces Ruben suivantes seront déployées à grande échelle, l'avantage de Google en tant que producteur à bas coût disparaîtra. À ce moment-là, seront-ils toujours disposés à opérer leur activité IA avec une marge brute de -30 % ? Le calcul changera du tout au tout.
Les centres de données spatiaux : une idée folle, mais logique du point de vue des premiers principes
Quand Patrick demande s'il existe « des idées folles dont on ne parle pas assez », Gavin commence à parler des centres de données spatiaux. Au départ, j'ai cru qu'il plaisantait, mais après avoir écouté son analyse, j'ai réalisé que c'est peut-être la partie la plus visionnaire de toute l'interview.
Du point de vue des premiers principes, les centres de données spatiaux surpassent les centres de données terrestres dans toutes les dimensions.
Voici son raisonnement :
1. Énergie : dans l'espace, les satellites peuvent être exposés au soleil 24 heures sur 24, et l'intensité du rayonnement solaire est 6 fois supérieure à celle au sol. De plus, comme il y a toujours du soleil, vous n'avez pas besoin de batteries — qui représentent une part importante des coûts. L'énergie la moins chère du système solaire est donc le « solaire spatial ».
2. Refroidissement : sur Terre, une grande partie du coût et du poids des centres de données est consacrée au refroidissement. Mais dans l'espace ? Le refroidissement est gratuit. Placez les radiateurs du côté ombragé du satellite, où la température approche le zéro absolu.
3. Réseau : dans un centre de données, les racks sont connectés par fibre optique — essentiellement des lasers traversant des câbles. Qu'y a-t-il de plus rapide ? Des lasers traversant le vide. Donc si vous connectez des satellites dans l'espace par laser, le réseau est en fait plus rapide que dans un centre de données terrestre.
4. Expérience utilisateur : actuellement, quand vous posez une question à l'IA, le signal va de votre téléphone à une antenne-relais, puis par fibre optique jusqu'à un centre de données, le calcul est effectué, et tout le chemin est parcouru en sens inverse. Mais si un satellite pouvait communiquer directement avec votre téléphone (Starlink a déjà prouvé cette capacité de connexion directe), la chaîne serait beaucoup plus courte.
Bien sûr, cela nécessite des lancements massifs de Starship pour se concrétiser, probablement dans 5 à 6 ans. Mais Gavin souligne une convergence intéressante : Tesla, SpaceX et XAI sont en train de fusionner. XAI sera le « module intelligent » des robots Optimus, SpaceX construira des centres de données dans l'espace pour fournir de la puissance de calcul à l'IA — ces trois entreprises forment une boucle de renforcement mutuel de leurs avantages compétitifs.
La « plateforme en feu » du SaaS
Si les sections précédentes vous ont enthousiasmé quant à l'avenir de l'IA, celle-ci pourrait vous inquiéter pour l'avenir de nombreuses entreprises existantes.
Gavin le dit sans détour : les entreprises de SaaS applicatif commettent exactement la même erreur que les détaillants physiques face au e-commerce.
Les détaillants physiques regardaient Amazon en pensant : « Le e-commerce est une activité à faible marge, comment pourrait-il être plus efficace que nous ? Actuellement, les clients viennent eux-mêmes en magasin et ramènent leurs achats chez eux. » Ils voyaient clairement la demande des clients, mais refusaient d'investir parce qu'ils n'aimaient pas la structure de marge du e-commerce. Résultat ? La marge bénéficiaire du commerce de détail nord-américain d'Amazon est aujourd'hui supérieure à celle de nombreux détaillants traditionnels.
Les entreprises SaaS font face à la même situation. Le logiciel traditionnel est écrit une fois puis distribué à l'infini, avec des marges brutes pouvant atteindre 80-90 %. Mais l'IA est différente — chaque utilisation nécessite un nouveau calcul, et une bonne entreprise IA n'aura peut-être qu'une marge brute de 40 %.
Si vous voulez créer un agent IA et que vous n'êtes pas disposé à opérer avec une marge brute inférieure à 35 %, vous n'y arriverez jamais. Parce que les entreprises natives de l'IA opèrent précisément à ce niveau de marge. Si vous voulez protéger votre marge de 80 %, vous garantissez votre échec dans l'IA. Absolument garanti.
Gavin décrit cela comme une « décision de vie ou de mort », et à part Microsoft, presque toutes les entreprises échouent.
Il cite le fameux mémo de Nokia sur « la plateforme en feu » : votre plateforme est en flammes. Mais il y a en fait une excellente nouvelle plateforme juste à côté, vous pouvez y sauter, puis revenir éteindre le feu sur l'ancienne. Maintenant vous avez deux plateformes.
Salesforce, ServiceNow, HubSpot, GitLab, Atlassian — il estime que toutes ces entreprises peuvent et devraient exécuter cette stratégie : rendre publics vos revenus IA, rendre publique votre marge brute IA (une faible marge prouve justement que c'est de la « vraie IA »), puis pointer du doigt les concurrents soutenus par le capital-risque qui sont encore en perte et dire : « J'ai ce qu'ils n'ont pas : une activité qui génère du cash-flow. »
L'histoire de la construction d'un investisseur
À la fin de l'interview, Patrick pose une question plus personnelle : comment présenteriez-vous votre métier à un jeune ?
La réponse de Gavin commence par « l'investissement est une quête de vérité », mais ce qui est vraiment fascinant, c'est son parcours de vie.
Son plan initial était : moniteur de ski en hiver, guide de rafting en été, escalade pendant les intersaisons, tout en essayant d'écrire des romans et de faire de la photographie animalière. C'était son « projet de vie » à l'université, et ses parents le soutenaient pleinement.
Mais ses parents ont eu une petite demande : pourrait-il faire un stage professionnel, juste un, n'importe lequel ?
Le seul stage qu'il a pu trouver était dans le département de gestion de patrimoine privé d'une maison de courtage. Le travail était simple : chaque fois que l'entreprise publiait un rapport de recherche, il devait vérifier quels clients détenaient cette action, puis leur envoyer le rapport.
Et puis il a commencé à lire ces rapports.
Je me suis dit : « Mon Dieu, c'est la chose la plus fascinante que je puisse imaginer. »
Il décrit l'investissement comme un « jeu mêlant compétence et chance », un peu comme le poker. Vous pouvez perdre par malchance — par exemple, le siège de l'entreprise dans laquelle vous avez investi est frappé par une météorite — mais la plupart du temps, la compétence compte. Et le moyen d'acquérir un avantage est de posséder la connaissance historique la plus approfondie, combinée à la compréhension la plus juste du monde actuel, pour former un jugement différencié sur « ce qui va se passer ensuite ».
C'était son troisième jour de stage. Il est allé en librairie acheter le livre de Peter Lynch et l'a terminé en deux jours. Puis il a lu Buffett, lu « Market Wizards », lu les lettres de Buffett aux actionnaires — deux fois. Puis il a appris la comptabilité en autodidacte. De retour à l'université, il a changé sa spécialisation d'anglais et histoire à histoire et économie.
Il mentionne également une expérience en tant qu'agent d'entretien. Pendant qu'il travaillait à la station de ski d'Alta, il faisait le ménage des chambres. Un jour, en nettoyant une chambre, il a remarqué que le client lisait le même livre que lui. Il a dit : « C'est un bon livre, j'en suis à peu près au même endroit que vous. » L'autre l'a regardé comme s'il était un extraterrestre, puis, encore plus stupéfait, a demandé : « Vous lisez des livres ? »
Cela a changé de manière permanente ma façon de traiter les autres.
Épilogue : l'IA obtient ce dont elle a besoin
Vers la fin de l'interview, Gavin prononce ce que je considère comme la réflexion la plus fascinante :
Ces deux dernières années, quoi que l'IA ait besoin pour continuer à progresser, elle l'a obtenu. Avez-vous déjà vu l'opinion publique américaine changer d'avis sur un sujet aussi vite que sur le nucléaire ? C'est arrivé comme ça. Et précisément au moment où l'IA en avait besoin. Maintenant que nous atteignons les limites énergétiques sur Terre, soudain la discussion sur les centres de données spatiaux apparaît. Chaque fois qu'un goulot d'étranglement risque de ralentir l'IA, tout s'accélère au contraire.
Cela rappelle le concept de « technium » (système technologique) proposé par Kevin Kelly dans « Ce que veut la technologie » : la technologie, prise dans son ensemble, semble avoir une sorte de volonté propre, aspirant à devenir toujours plus puissante.
Peut-être n'est-ce qu'une coïncidence. Peut-être n'est-ce que beaucoup de personnes brillantes qui résolvent des problèmes. Mais le schéma observé par Gavin — chaque obstacle rencontré par l'IA finit par être éliminé d'une manière ou d'une autre — mérite vraiment réflexion.
