Un peu de nuance à ce sujet, de la part de Gilles Babinet
L’IA a bon dos pour rendre « sexy » un plan social
Un peu de nuance à ce sujet, de la part de Gilles Babinet
L’IA a bon dos pour rendre « sexy » un plan social
“Les LLM sont des fantômes, pas des animaux” est l’idée centrale de la vidéo.
Karpathy explique que l’IA actuelle ne consiste pas à construire des « animaux » (qui ont évolué avec un corps et des instincts sur des millions d’années), mais plutôt à invoquer des « fantômes » (des esprits numériques formés par l’imitation de données humaines sur internet)
À écouter en 10% ralenti, car ils parlent très vite ces zozos
Black Mirror, mais dans un reportage BBC bien réel
Oracle vient de dire la même chose à toutes les entreprises d’IA de la planète :
Vos modèles ne valent rien.
Ni la technologie, ni les talents, ni les milliards dépensés pour leur formation.
Mais les données sur lesquelles ils ont été entraînés.
Larry Ellison, l’homme qui a fait d’Oracle la pierre angulaire des entreprises mondiales, vient de lâcher une bombe.
Il a déclaré que ChatGPT, Gemini, Grok et Llama sont tous entraînés sur exactement les mêmes données.
L’intégralité d’Internet, chaque page Wikipédia, chaque fil de discussion Reddit et chaque article de presse.
Autrement dit, ils convergent tous pour devenir un seul et même produit, avec des logos différents.
Ellison parle de « matières premières ».
Mais c’est là que le bât blesse.
Il affirme que le véritable or ne réside pas dans les données publiques, mais dans les données privées.
Les dossiers médicaux des systèmes hospitaliers, les données financières des coffres-forts des banques.
Les secrets des chaînes d’approvisionnement de toutes les entreprises du Fortune 500… et devinez où se trouve déjà la plupart de ces données.
Pas Google, Amazon ou Microsoft, mais Oracle.
Les bases de données Oracle contiennent la majeure partie des données d’entreprises privées à forte valeur ajoutée au monde.
Oracle vient de lancer AI Database 26ai.
Cette solution permet aux meilleurs modèles d’IA, ChatGPT, Gemini, Grok et Llama, d’analyser directement les données privées d’une entreprise, sans que ces données ne quittent jamais le système.
Ils utilisent une technique appelée RAG (Retrieval Augmented Generation).
L’IA ne s’entraîne pas sur vos données, elle les explore en temps réel.
Imaginez les possibilités :
Une banque pourrait demander à une IA d’analyser tous les prêts qu’elle a accordés sans divulguer le moindre dossier client.
Un hôpital pourrait faire diagnostiquer les patients par une IA à partir de leur dossier médical complet, sans enfreindre la loi HIPAA.
Un sous-traitant de la défense pourrait permettre à une IA d’analyser des opérations classifiées sans que les données ne quittent un environnement sécurisé.
Ellison parie que cette technologie est plus importante que le marché de la formation d’IA, et même que l’essor des GPU.
Plus important que le déploiement des centres de données.
Il l’a qualifié de marché le plus vaste et à la croissance la plus rapide de l’histoire.
Les chiffres confirment cette ambition.
Les obligations de performance restantes d’Oracle viennent d’atteindre 523 milliards de dollars.
Il s’agit de revenus contractuels non encore perçus, dont 300 milliards proviennent du seul OpenAI.
Les revenus du cloud ont atteint 8 milliards de dollars en un seul trimestre, OCI a progressé de 66 % et les revenus des GPU ont bondi de 177 %.
Mais voici le point dont personne ne parle.
Si les données privées deviennent le véritable avantage concurrentiel de l’IA, alors celui qui contrôle la base de données contrôle l’avenir de l’IA.
Et c’est un niveau de pouvoir qui devrait inquiéter tout le monde.
Jolie auto-promotion.
Ben oui, comme tout le monde. Ca n’a rien de nouveau, un modèle nu ça passe son temps à halluciner, il lui faut un RAG dans tout les cas. Tout le monde bosse avec ça depuis quasi le début.
Ok, mais Oracle ne contrôle pas la base de données, heureusement ! Il la fournit à ses clients. Tu peux switcher pour du Postgres (open source) et ô surprise, tu peux faire un RAG avec.
Bon matin France!
Il y a quelques semaines, Wall Street a découvert que le logiciel pouvait mourir. 285G$ de capitalisation évaporés en une poignée de jours, des analystes de Jefferies baptisant l’événement « SaaSpocalypse » comme s’il s’agissait d’un film Marvel pour traders sous Adderall, et Atlassian qui perdait 35% en une semaine. La cause officielle : Anthropic a lancé un plugin. Un plugin. Le genre de truc qui, il y a trois ans, aurait mérité un post LinkedIn à 12 likes et un communiqué de presse que personne n’aurait lu. Cette fois, ça a suffi pour que le marché décide collectivement que Salesforce, HubSpot et toute l’industrie du logiciel par abonnement étaient bons pour la casse.
Il faut dire que le terrain était fertile. Depuis deux ans, une armée de micro-entrepreneurs en hoodie explique sur YouTube que le SaaS, c’est le nouveau dropshipping. La recette est simple : trois prompts bien sentis dans un LLM, un logo généré par Midjourney, une landing page Vercel, et voilà. « Ship fast, break things, 10K MRR. » Les mêmes qui vendaient des formations sur le marketing d’affiliation en 2021 vendent aujourd’hui des masterclass « lance ton micro-SaaS en un week-end ». Le vibe coding a remplacé le vide coding, et tout le monde trouve ça génial jusqu’au moment où il faut gérer un ticket support, une mise en conformité RGPD, ou un client qui utilise le produit autrement que prévu.
Parce que la réalité d’un SaaS qui fonctionne, ce ne sont pas des lignes de code. Ce n’est même pas un produit qui marche. C’est 289K clients comme chez HubSpot, 3,1G$ de chiffre d’affaires en 2025, +19% de croissance, et la capacité de se réinventer en « plateforme agentique » quand le marché change de direction. C’est aussi un coût d’acquisition client qui a bondi de 222% en huit ans, et la quasi-totalité des budgets marketing des startups SaaS financées par le capital-risque qui finissent dans les caisses de Google et Meta. Le CAC médian d’un SaaS B2B tourne autour de 239$. Quand le vibe coder du dimanche découvre qu′il faut dépenser 500$ pour acquérir un utilisateur qui paie 19$ par mois, le rêve entrepreneurial prend un sacré coup de froid.
Certes, l’IA transforme profondément le modèle. Le pricing au siège est en train de crever, les agents autonomes changent la donne, et Gartner prédit que 35% des outils SaaS mono-fonction seront remplacés d’ici 2030. Mais 35%, ce n’est pas 100%. Et les dépenses mondiales en SaaS sont toujours projetées à 576G$ en 2029, contre 318G$ aujourd’hui. Les boîtes qui savent parler à leurs clients, s’adapter, construire un écosystème et créer de la valeur réelle n’ont jamais été menacées par la technologie. Elles l’absorbent. Ce qui meurt, ce ne sont pas les entreprises logicielles. Ce sont les illusions de ceux qui pensaient qu’un bon produit, c’était un bon prototype.
Source :
C’était donc ça qu’il fallait faire ! Merci du tips
La maintenance du COBOL c’est du gateau à coté des milliers de lignes de code qui vont être générées par l’AI sans que persone n’y est mis le nez, sans un véritable release et testing process, etc, etc…Je sais je joue un peu au vieux con et au “on vous l’avait bien dit”.Ceci dit bonne nouvelle pour les software engineers, il va avoir du boulot à la pelle. Le plus drôle dans l’histoire c’est le retour de balancier. On a commencé par des solutions complétement adaptées à un problème business particulier (chaque entreprise voulait sa propre gestion de commande, tellement spécifique) totalement inflexible, tout nouvelle adaptation quasiment impssoble, puis on est passé aux logiciels parammétrisables et aux saas et maintenant on repart sur du spécifique (bon cette fois généré par l IA) mais les problèmes de mise en production restent les mêmes.
Un modèle qui fait réfléchir. On pourrait supprimer le boulot de radiologues (si y a des radialogues sur le forum, ça va hurler), il a été prouvé que l’IA était plus performante. Résultat des courses, il y une demande accrue de radiologues (données NHS ), pourquoi parce que l’IA permet de générer toute sorte d’images qu’ils n’étaient pas possible d’obtenir et d’examiner et donc besoin de plus de radilogues au final. Si vous voulez lire l’article
Super intéressant cet éclairage, je ne l’avais pas du tout envisagé sous cet angle
Citadel Securities published this graph showing a strange phenomenon.
Job postings for software engineers are actually seeing a massive spike.
Classic example of the Jevons paradox. When AI makes coding cheaper, companies actually may need a lot more software engineers, not fewer.
When software is cheaper to build, companies naturally want to build a lot more of it. Businesses are now putting software into industries and tools where it was simply too expensive before.
Rapport d’utilisation des apps d’IA par a16z :
Le gouvernement sort un MCP avec ses datas !
Je reviens sur cette info publiée il y a un mois :
En fait :
Selon le Département du Commerce, le produit intérieur brut (PIB) des Etats-Unis n’a augmenté que de 0,7% en rythme annualisé au 4e trimestre 2025, alors que les économistes attendaient globalement une confirmation de l’estimation précédente, qui était de 1,4%.
La croissance de l’économie américaine a donc connu, en fin d’année dernière, un ralentissement nettement plus fort qu’estimé en première lecture, par rapport à un rythme de 4,4% enregistré au 3e trimestre.
Exemple typique du gars (Erik Brynjolfsson) qui sélectionne l’info qui alimente sa thèse, alors que l’on ne parle que d’un trimestre (c’est un peu juste pour déclarer un trend) et que les données ne sont pas définitives. Pas grave, il a fait le buzz.
Intéressant, merci pour le suivi et le fact checking ![]()
Le temps passe et passe et passe et beaucoup de choses ont changé. Qui aurait pu s’imaginer que le temps soit si vite écoulé ?
Édito du jour de Benjamin Charles :
Parler de « L’IA » comme d’une entité unique, c’est un peu comme dire « Le médicament » pour désigner indifféremment le Doliprane et la chimiothérapie. Techniquement, les deux soignent. Mais administrer l’un à la place de l’autre pose quelques menus problèmes pratiques. L’article défini singulier n’en a pas moins colonisé les comités de direction, les keynotes et les tribunes LinkedIn avec la ferveur d’un mouvement évangélique en manque de subventions.
« Il faut intégrer L’IA »
« L’IA va transformer notre métier »
« L’IA menace nos emplois »Laquelle ?
Celle de Google qui trie des résultats depuis 1998 ?
Le générateur de texte d’OpenAI ?
L’algo de recommandation de TikTok ?
Le système de crédit scoring qui refuse des prêts depuis 30 ans dans les quartiers défavorisés ?Personne ne pose la question parce que la question démonétise immédiatement la réponse.
Cette confusion arrange considérablement les bons clients. Accenture a sorti 3G$ de revenus « IA » en 2024, McKinsey promet de multiplier ce chiffre par dix, et le livrable reste à peu près aussi précis que le terme lui-même : quelques slides sur la transformation digitale, un benchmark de ChatGPT contre Copilot, une recommandation de « gouvernance des données » facturée au prix d’un appartement parisien. Les startups « AI-powered » qui lèvent 40M€ pour faire du matching par mots-clés légèrement amélioré remercient également. Et les prophètes de l’AGI, cette Intelligence Artificielle Générale qui penserait comme un humain et arriverait « dans 5 ans » depuis maintenant 40 ans, comme le retour du Christ mais avec un deck en seed stage.
En attendant ce messie, des bataillons de cadres demandent à ChatGPT de fiabiliser leurs tableaux Excel, s’étonnent que ça hallucine des montants, puis décrètent que « L’IA est nulle » avant de signer un abonnement Copilot à 30€ par mois et par salarié. Personne ne reproche à une tronçonneuse de mal visser les boulons. Personne n’attaque Bosch en justice parce que sa perceuse fait un café dégueulasse. Pourtant confondre un LLM, qui prédit des suites de tokens et rien d’autre, avec un système de calcul fiable, puis en tirer des conclusions définitives sur « L’IA », c’est exactement ce niveau de raisonnement. Un modèle de diffusion génère des images. Un transformeur entraîné sur du texte prédit du texte. Deux architectures, deux usages, deux limites radicalement différentes. Mais « L’IA » fait tellement plus rêver que « un réseau de neurones entraîné par rétropropagation du gradient ».
Ce serait presque drôle si la confusion ne produisait pas, elle, des effets parfaitement concrets : des politiques industrielles orientées vers de mauvaises priorités, des milliards d’argent public investis sans cadre, et des travailleurs mis au placard par des « algorithmes IA » qui sont, dans les faits, des règles de décision automatisées conçues dans les années 80 et habillées pour l’occasion. Le bullshit sémantique a rarement des conséquences aussi sérieuses que celui-là.
C’est exactement ça !
J’ajoute que la gouvernance de la plupart des entreprises est entre les mains de financiers et de managers qui ne comprennent à peu près rien à ces « subtilités ». IA est un mot valise. Ceux qui l’utilisent ne savent pas de quoi ils parlent (où ils le savent trop bien et c’est du marketing).