A 40$ d’abonnement mensuel, il va peut-être se faire plus de blé avec son contenu qu’avec ses shorts de ces dernières années. ![]()
Une analyse très pertinente de l’AI bubble et comparaison avec la dot.com bubble.
We could say that the US economy in 2025 was schizoid. On the one hand Donald Trump abruptly reversed 90 years of U.S. trade policy, breaking all our international agreements, and pushed tariffs to levels not seen since the 1930s. Worse, the tariffs keep changing unpredictably. This uncertainty is clearly bad for business and is depressing the economy. On the other hand, there has simultaneously been a huge boom in AI-related investment, which is boosting the economy.
As many people have already noted, the AI boom bears an unmistakable resemblance to the tech boom of the late 1990s — a boom that turned out to be a huge bubble. The Nasdaq didn’t regain its 2000 peak until 2014.There’s intense debate about whether AI investment is similarly a bubble, which I would summarize as a shoving match: “Is not!” “Is too!” “Is not!” “Is too!”
While my personal guess is that AI is indeed in the midst of a bubble, I won’t devote today’s post to that debate. Instead, I want to talk about one recent aspect of market behavior that is very striking and carries strong echoes of the tech bubble a generation ago. Namely, AI-related stocks, like tech stocks back then, are reacting very strongly to perceptions about the Fed’s short-term interest rate policy.
Now as then, these strong reactions don’t make sense.
To see what I’m talking about, consider recent moves in stock prices closely related to AI. This chart shows movement over the last month of Bloomberg’s “magnificent 7” stock index:
Source: Bloomberg
During most of that month, these stocks were falling, as concerns that AI is a bubble increased. But on Monday the Mag7 index surged, erasing a large fraction of the losses. Why? Analyst chatter about supposed causes of stock market swings should always be taken with many grains of salt. But it’s clear that this surge was catalyzed by remarks by Fed officials which the market interpreted as making a cut in the Fed Funds rate next month more likely.
Some of us have seen this movie before. For those who haven’t, there is a pervasive view that the deflation of the 90s tech bubble was something that happened all at once — a Wile E. Coyote moment in which investors looked down, realized that there was nothing supporting those high valuations, and the market plunged. In reality, however, it was a long, drawn-out process, punctuated with some significant dead cat bounces along the way. Here’s the Nasdaq 100 over the relevant period (the gray bar represents the 2001 recession):
Measured against the awesome scale of the ultimate tech-stock decline, the temporary rallies along the way don’t look that big. But they were actually huge compared with normal stock movements. Let’s look at a closeup:
What drove these temporary bouts of optimism? At the time the conventional wisdom was that they were the result of Fed interest rate reductions and the prospect of further cuts. In fact, many observers used to argue that the stock market was underpinned by the “Greenspan put”: Don’t worry about a crash, Uncle Alan will ride to the rescue.
And after Monday’s stock price spurt, it’s clear that belief in a “Fed put” has made a modest comeback.
Indeed, the graph below shows the numerous rate cuts as the tech bubble burst:
But while these rate cuts did create brief bouts of, well, irrational exuberance, they did nothing to prevent the tech bubble from eventually deflating.
Why couldn’t Greenspan rescue tech stocks? To answer that question, think about why interest rates matter for asset prices: Lower interest rates reduce the rate at which investors discount expected future returns. A dollar delivered to you X years from now has a higher “present value” (that is, a higher current value) if interest rates are 1 percent than if they’re 6 percent. How much higher depends on X, the number of years until you receive it. For example, a house can last for generations, and it delivers value to its owner in the form of a place to live over the years. That stream of housing consumption over the years is worth more – has a higher present value – when the interest rate is 1 percent than when it is 6 percent. Or to put it another way, if you can make 6% on your money in a bank deposit, you may be better off renting rather than buying. That’s why the demand for houses is strongly affected by mortgage rates.
Interest rates matter much more for the value of assets that will still be yielding returns 10 or 20 years from now than they do for assets that will only yield returns for a few years.
That is, the value of assets that have a short economic life is much less affected by interest rates. Not surprisingly, economists have consistently had a hard time finding evidence for any effect of interest rates on business investment.
Moreover, investments in digital technology tend to have an especially short half-life, precisely because rapid technological progress quickly makes equipment and software obsolete. How valuable will data centers currently under construction be 5 years from now? Will they be worth anything 10 years from now? A realistic answer to these questions surely implies that the Fed’s interest policy should have little to no impact on Mag 7 valuations, or the sustainability of the tech boom.
As we saw on Monday, however, Fed policy and rumors about future Fed policy can sometimes affect AI-stock prices in the short run. But by the straight economics, these movements are more the result of market psychology than of any objective assessment of future returns.
So as doubts about AI creep in, I’m hearing growing chatter to the effect that the Fed can and should save the industry. But the lesson from the last big tech bubble is that it can’t. In fact, I have doubts about whether the Fed can head off a broader recession if the tech boom collapses — but that’s a topic for a future post.
For now, my point is that if you’re worried about an AI bubble, don’t expect Jerome Powell or his Trump-appointed successor — rumors are not encouraging — to come to the rescue. They can’t.
Voici 3 graphes. Opinions de 3 experts(trad). Un peu long mais très éclairant. Intéressant de constater qu Apple est hors jeu trop orienté consumer ? Et pour moi Meta reste une énigme. Franchement aucune valeur ajoutée sinon vendre de la pub…
Rob Amstrong du FT: le marché, loin de jeter aveuglément de l’argent dans l’IA et les grandes entreprises technologiques, fait des distinctions… basé sur la génération de trésorerie… Le marché a perdu patience avec Oracle et Meta. La même chose pourrait-elle arriver aux trois autres bientôt?..
Andy Wu : Les États-Unis doivent-ils s’inquiéter d’une bulle d’IA? : « Ils [les cinq] se sont bien positionnés pour profiter de l’essor de l’IA, mais ils ne perdent pas tant que ça si l’IA [chars]… » Microsoft a surtout externalisé… À… OpenAI… Amazon prend en charge n’importe quel modèle d’IA… Meta a dépensé des milliards de dollars pour construire un modèle d’IA open source… [Ils] ne pensent pas vraiment que la technologie d’IA de base soit une entreprise significative… Au lieu de cela, ils se concentrent sur le profit de… adjacents… OpenAI, Anthropic et xAI sont là à la recherche d’or. Nvidia est le vendeur de pelles par excellence… Meta est le créateur de bijoux accompli… Les réseaux sociaux, la publicité, les objets connectés et les entreprises du métavers ont à en bénéficier… Microsoft fait un peu de vente de pelles et de fabrication de bijoux, mais l’essentiel est qu’ils ne sont pas coincés à chercher de l’or…Amazon, Microsoft et Google pourraient gagner moins d’argent avec leur cloud computing qu’idéalement si la croissance de l’IA ralentit ou diminue, mais ils ne se retrouveraient pas en difficulté financière…
From Brad de Long : On pourrait résumer le point de vue de Wu[ :]… Les dépenses des centres de données des grandes entreprises technologiques sont importantes… [mais] les modèles économiques principaux… rester « virtuel »… Ils ne font pas un pari existentiel sur l’IA ; ils dépensent pour s’assurer que leurs activités principales puissent coexister avec l’IA, si besoin… Ces entreprises principales devraient toujours être évaluées sur des multiples élevés de flux de trésorerie…
En bref : les cinq géants du secteur – les sept entreprises les plus importantes moins Nvidia, Tesla et Apple, plus Oracle – s’assurent que si quelqu’un tire profit des centres de données d’IA, ce sera bien eux. Ils prennent également des mesures pour empêcher quiconque de gagner de l’argent en fournissant gratuitement les services d’IA de base, comme OpenAI, Anthropic et Grok, qui pourraient tenter de les monétiser.
Yann LeCun (@ylecun) le pape francais de l AI qui à inventé les réseaux de neurones à la fin des années 89 à fondé le lab AI de Meta, vient de le quitter pour fonder une startup (valorisée à 3 milliards avant d exister) explique magnifiquement comment l’architecture et les principes utilisés pour former les LLM ne peuvent pas être étendus pour enseigner à l’IA l’intelligence du monde réel. Je crois vraiment à cette nouvelle approche.
C’est assez fascinant de suivre ces évolutions (en admettant que c’est aussi obscur pour moi que la physique nucléaire). Cette idée d’intégrer l’IA au monde réel pour lui faire développer un sens de la réalité me fait penser au narratif de Figure, qui présente ses produits plus ou moins comme un agent AI incorporé dans un robot humanoïde : « embodied AI ».
Nous vivons des temps intéressants !
Oui la question est que finalement les llm sont des super perroquets et c est déjà génial pour notre utilisation. Ce sont des super assistants. Par contre l intelligence artiicielle généralisée qui est le sacré graal ne peut être atteinte par simplement augmenter les bases de données et les puissances de calcul. Il faut de nouveaux modèles d inférence pour intégrer les chemins de pensée qui sont fondamentaux dans la recherche de nouvelles théories scientifiques. Les LLM en 1915 n auraient jamais induits la théorie de la relativité. Il faut se rappeler que cette théorie a mis en équation un phénomène physique qui n à été vérifié expérimentalement dans un second temps (observation de l’ éclipse de 1919). Ce n est pas l observation qui a conduit à la théorie mais l inverse. On aura atteint l intelligence articielle généralisée quand il y aura un modèle informatique du monde pensé et du monde observé. Au passage je recommande pour ceux que ça intéresse la bio d Einstein par Walter Isaacson auteur égalementde Steve Jobs et Vinci.
L’incapacité de l’IA à opérer dans le monde réel est un point fondamental pour comprendre le plafond de verre des technologies actuelles. Ce n’est pas seulement vrai pour les LLMs, mais pour toutes les autres branches de l’IA.
Par exemple, DeepMind, racheté par Google, a mis au point alpha-Chess et alpha-Go. Ce fut une percée remarquable, car ces modèles ont appris à gagner par l’exemple, juste en jouant des parties, et écrasent désormais les humains. Mais les jeux sont justement des univers clos, aux règles bien déterminées, sans jamais la moindre nouveauté.
Le monde réel est immensément complexe, mouvant, ambigu.
Mais l’illusion d’intelligence des LLMs est redoutable, et c’est pour cela que je pense qu’il y a une bulle. On surestime très probablement la portée de cette petite révolution, car oui c’est quand même une petite révolution.
Pour ceux qui aiment le génie du financial engineering. Auriez vous pensé à utiliser vos CPUs NVDIA comme collatéral pour lever de la dette pour financer vos prochains achats de CPUs NVDIA. C’est ce que Oracle se préparerait à faire selon cet article. Intelligent non ? Tout est possible dans le monde de l AI et de la finance. De la part de Safra Catz ex cfo puis ceo et maintenant co chairman d Oracle rien d étonnant. Une intelligence de la finance.
Voilà l article traduit.
Selon les prévisions de 9The Information, Oracle pourrait financer sa prochaine génération de centres de données dédiés à l’IA en utilisant ses GPU comme garantie. L’entreprise lèverait ainsi des fonds par le biais de sociétés ad hoc (SPV), ce qui lui permettrait de ne pas figurer au bilan d’Oracle et de préserver sa notation de crédit.
Oracle s’est déjà engagée à construire d’immenses centres de données pour OpenAI, mais ne dispose pas des liquidités nécessaires pour acquérir l’intégralité des GPU Nvidia en une seule fois.
Les prévisions tablent donc sur un emprunt contracté par Oracle en utilisant les puces qu’elle possède déjà comme garantie, puis en utilisant les fonds levés pour acquérir de nouvelles puces et poursuivre le déploiement.
Une société ad hoc est une entité juridique distincte, habilitée à posséder des actifs et à contracter des emprunts. Dans ce montage, la SPV détiendrait un stock important de GPU, emprunterait en utilisant ces GPU comme garantie, et Oracle paierait pour le droit de les utiliser (souvent sous la forme d’un contrat de location). Ce mécanisme permet d’éviter que la dette n’apparaisse au bilan d’une entreprise de la même manière, même si c’est bien Oracle qui finance la puissance de calcul.
Les investisseurs achèteront donc une obligation dont le remboursement est lié aux flux de trésorerie d’un portefeuille d’actifs spécifique de la SPV, et non à ceux de l’entreprise dans son ensemble.
Dans cette structure, Oracle loue des centres de données auprès d’une SPV et, en cas de défaut de paiement, les créanciers cibleraient les actifs des centres de données plutôt que le bilan principal d’Oracle.
Cette stratégie s’inscrit déjà dans une tendance plus large adoptée par d’autres grandes entreprises technologiques comme Meta et xAI pour financer d’importants investissements en IA sans impacter directement leurs résultats financiers publiés.
theinformation.com/articles/predictions-2026-cash-strapped-oracle-issues-chip-backed-debt
En Chine, les camionnettes de livraison autonomes sont devenues des mêmes ; elles circulent sur des routes délabrées, du béton frais, au milieu des motos, bref, partout.
Rien ne les arrête.
La vidéo
→ https://x.com/klara_sjo/status/2010496361205059703
Un papier intéressant de Oxford Economics qui remet en question l’impact de l’IA sur le marché du travail.
En très résumé :
Oxford Economics tempère le narratif “l’IA détruit déjà les emplois”. Oui, il y a des licenciements dans certains secteurs exposés, mais pas de remplacement massif à l’échelle de l’économie et ils ne s’attendent pas à une forte hausse du chômage à court terme.
Points clés :
- Beaucoup d’annonces “licenciements à cause de l’IA”, mais les causes classiques (ralentissement, sur-embauche, demande en baisse) restent dominantes.
- La hausse du chômage des jeunes diplômés (US/Europe) est peut-être cyclique, pas forcément “structurale” à cause de l’IA.
- Si l’IA remplaçait vraiment des humains à grande échelle, on verrait un boom de productivité… or ce n’est pas le cas pour l’instant.
- Les licenciements “attribués à l’IA” existent, mais restent une petite part du total.
Conclusion : l’impact est réel mais fragmenté, et on est encore loin d’un choc massif sur l’emploi.
Source : Evidence of an AI-driven shakeup of job markets is patchy
Pour le coup, Copilot est powered by ChatGPT (si on parle bien de Copilot et non Copilot Code), donc j’irais pas spécialement faire apparaitre les wrapper dans ce genre de graphiques perso.
Mais pour le coup, si on le compte comme du ChatGTP, ça ne change pas grand-chose à ce qu’on peu tirer de ce graphe.
Je pense que 80% des nouveaux repo, c’est les sites de scams de plus en plus réaliste qu’on voit partout !
Comme toujours ce n est pas la quantité de code qui compte mais la quantité déployée au final et utilisée en production pas des prototypes plus ou moins finalisés. En général je trouve les analyses de john burn-murdoch très pertinentes mais dans ce cas l extrapolation est faible.
Étant un grand utilisateur de générateur de code (vibe coding pour être à la page) je constate effectivement une multiplication de code produit et c est réellement fantastique. Ca me permet une rapidité dans le test de stratégies que je n avais pas avant. Mais je constate qu il faut un garder un contrôle point par point de l expression d un problème à coder sinon comprendre le code produit et s assurer qu il fait bien ce que vous pensiez avoir demandé devient impossible. Rien ne vous empêche de prompter créez moi une stratégie d allocation mean variance optimisation et de voir sortir le code. Mais ce n est que le début du commencement. Ce qui est excellent cependant c est de pouvoir se consacrer à la compréhension de la stratégie et laisser le soin au code générateur de produire le code.







