« Ces dernières semaines, l'idée que nous soyons témoins d’une "bulle de l'IA" est passée des marges du débat public au grand public. Comme l'a si bien dit la chroniqueuse au Financial Times Katie Martin, "les discussions sur la bulle éclatent partout".
Le débat est alimenté par une flambée des investissements dans les centres de données et dans les vastes infrastructures énergétiques nécessaires pour former et faire fonctionner les grands modèles de langage (large language models, LLMs) qui animent l'IA générative. Comme avec les précédentes bulles spéculatives, l'augmentation des volumes d'investissement alimente la flambée des cours boursiers, qui atteignent des sommets historiques sur les marchés publics et privés. Les "sept magnifiques" (Magnificent Seven) géants du numérique (Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia et Tesla) dominent le S&P 500, chacun affichant une capitalisation boursière supérieure à 1 000 milliards de dollars et Nvidia est désormais la première entreprise au monde à avoir atteint les 5 000 milliards de dollars.
Sur le marché privé, OpenAI prévoit de lever 30 milliards de dollars de fonds auprès de SoftBank, l'investisseur le plus exubérant de l'ère post-2008, à une valorisation de 500 milliards de dollars. Cette levée de fonds intervient alors même que les pertes de l'entreprise ont totalisé les 5 milliards de dollars en 2024, malgré un chiffre d'affaires de 3,7 milliards de dollars […].
À l'instar des précédents cycles spéculatifs, celui-ci est marqué par l'émergence de mécanismes de financement créatifs. Il y a quatre siècles, la tulipomanie néerlandaise a donné naissance aux contrats à terme sur les bulbes de tulipes. La crise financière mondiale de 2008 a été alimentée par des produits dérivés exotiques tels que les obligations de dette collatéralisées (CDO) synthétiques et les swaps sur défaut de crédit (CDS). Aujourd'hui, une dynamique similaire est à l'œuvre dans la boucle de financement circulaire qui relie les fabricants de puces (Nvidia, AMD), les fournisseurs de cloud (Microsoft, CoreWeave, Oracle) et les développeurs de LLMs comme OpenAI.
Bien que les contours d'une bulle de l'IA soient difficiles à manquer, son impact réel dépendra de sa propagation des marchés financiers à l'économie réelle. Il reste à savoir comment (et si) cela se produira. Presque chaque jour, de nouveaux projets d'infrastructure d'IA de plusieurs milliards de dollars sont annoncés. Parallèlement, de plus en plus de rapports indiquent que les applications commerciales de l'IA génèrent des rendements décevants, ce qui indique que la hype va bien au-delà de la réalité.
Le fantôme des bulles passées
Les bulles financières peuvent être comprises en termes d’objet et de lieu. La première question est de savoir ce sur quoi les investisseurs parient : les actifs qui suscitent la spéculation ont-ils le potentiel de stimuler la productivité lorsqu'ils sont déployés à grande échelle ? Ensuite, la question est de savoir si cette activité se concentre avant tout sur les marchés boursiers ou sur les marchés du crédit. C'est la spéculation financée par l'endettement qui conduit à une véritable catastrophe économique lorsqu'une bulle éclate. Comme l'ont montré Moritz Schularick et Alan M. Taylor, les bulles alimentées par l’endettement ont déclenché à plusieurs reprises des crises financières au cours du dernier siècle et demi.
La bulle du crédit de 2004-2007, qui portait essentiellement sur l'immobilier et qui a culminé avec la crise financière mondiale de 2008-2009, en est un exemple frappant. Elle n'offrait aucune perspective d'augmentation de la productivité et lorsqu'elle a éclaté les conséquences économiques ont été épouvantables, entraînant un soutien public sans précédent aux pertes privées, principalement de la part de la Réserve fédérale.
A l’inverse, la bulle technologique de la fin des années 1990 portait sur la construction de l'infrastructure physique et logique d'internet à l'échelle mondiale, accompagnée de la première vague d'expérimentations d'applications commerciales. La spéculation durant cette période était principalement concentrée sur les marchés boursiers, avec quelques retombées sur le marché des obligations à haut risque, et l'effet de levier global est resté limité. Lorsque la bulle internet a éclaté, les dommages économiques qui en ont résulté ont été relativement modestes et ils ont été facilement contenus via la politique monétaire conventionnelle.
L'histoire du capitalisme moderne a été marquée par une succession de telles "bulles productives". Des chemins de fer à l'électrification en passant par internet, des vagues de spéculation financière ont régulièrement mobilisé d'énormes quantités de capitaux pour financer des technologies potentiellement transformatrices dont les rendements ne pouvaient être connus à l'avance.
Dans chacun de ces cas, les entreprises qui ont construit l'infrastructure fondamentale ont fait faillite. Le financement spéculatif leur avait permis de se bâtir des années avant que l'expérimentation par essais et erreurs ne débouche sur des applications économiquement productives. Pourtant, personne n'a démantelé les voies ferrées, les réseaux électriques ou les câbles de fibre optique souterrains. L'infrastructure est restée, prête à soutenir la création de la "nouvelle économie", même si ce n'est qu'après un douloureux retard et en grande partie avec de nouveaux acteurs aux commandes. L'expérimentation nécessaire pour découvrir les "applications révolutionnaires" rendues possibles par ces "technologies à usage général" prend du temps. Ceux qui recherchent une gratification immédiate avec les grands modèles de langage risquent d'être déçus.
Par exemple, alors que la construction de la première ligne de chemin de fer aux États-Unis a débuté en 1828, la vente par correspondance, l'application révolutionnaire de l'époque, a commencé avec la fondation de Montgomery Ward en 1872. Dix ans plus tard, Thomas Edison a inauguré l'ère de l'électricité en mettant en service la centrale électrique de Pearl Street, mais la révolution de la productivité dans l'industrie manufacturière induite par l'électrification n’a eu lieu qu’au cours des années 1930. De même, il a fallu une génération pour passer du moteur à combustion interne d'Otto, inventé en 1876, à la Ford T d'Henry Ford en 1908 et du circuit intégré de Jack Kilby (1958) à l'IBM PC (1981). La première démonstration du proto-internet a eu lieu en 1972 : Amazon et Google ont été fondées respectivement en 1994 et 1998.
Où se situe la bulle de l'IA sur ce spectre ? Si l’essentiel des investissements réalisés jusqu'à présent provient des vastes réserves de trésorerie et des flux de trésorerie continus des géants du numérique, des signes d'endettement commencent à se manifester. Par exemple, Oracle, un acteur tardif dans cette course, compense sa liquidité relativement limitée par un emprunt d'environ 38 milliards de dollars.
Et ce n'est peut-être que le début. OpenAI a annoncé son intention d'investir au moins 1 000 milliards de dollars au cours des cinq prochaines années. Étant donné que des dépenses d’un tel montant nécessiteront inévitablement des emprunts massifs, les grands modèles de langage (LLMs) ont une fenêtre étroite pour prouver leur valeur économique et justifier de tels niveaux extraordinaires d'investissement.
Les premières études laissaient entrevoir des raisons d'être optimiste. Une étude menée par Erik Brynjolfsson de Stanford et Danielle Li et Lindsey Raymond du MIT, examinant l'introduction de l'IA générative dans les centres de service client, a conclu que l'assistance de l'IA augmentait la productivité des salariés de 15 %. Les gains les plus importants ont été observés chez les salariés les moins expérimentés, dont la productivité a augmenté de plus de 30 %.
Brynjolfsson et ses coauteurs ont aussi observé que les salariés qui suivaient les recommandations de l'IA devenaient plus efficaces avec le temps et que l'utilisation des outils d'IA entraînait des améliorations durables des compétences. De plus, les clients traitaient plus positivement les agents assistés par l'IA, affichant une plus grande satisfaction et demandant moins souvent à parler à un superviseur.
Le tableau général, cependant, semble moins encourageant. Une récente enquête menée par le projet NANDA du MIT a révélé que 95 % des projets pilotes d'IA générative dans le secteur privé échouent. Bien que moins rigoureuse que l'étude (revue par des pairs) de Brynjolfsson, cette enquête suggère que la plupart des expériences d'entreprises avec l'IA générative n'ont pas répondu aux attentes. Les chercheurs ont attribué ces échecs à un "déficit d'apprentissage" entre les rares entreprises qui ont bénéficié de l'aide d'experts pour adapter les applications aux besoins pratiques des entreprises (principalement les tâches administratives de back-office) et celles qui ont tenté de développer des systèmes internes pour des fonctions externes telles que la vente et le marketing.
Les limites de l'IA générative
Le principal défi auquel font face les utilisateurs d'IA générative découle de la nature même de la technologie. Par conception, les systèmes d'IA générative transforment leurs données d'entraînement (les textes, images et paroles) en vecteurs numériques qui, à leur tour, sont analysés pour prédire le prochain jeton : syllabe, pixel ou son. Comme il s'agit essentiellement de moteurs de prédiction probabilistes, ils commettent inévitablement des erreurs aléatoires.
Plus tôt cette année, le regretté Brian Cantwell Smith, ancien scientifique en chef du légendaire centre de recherche de Xerox à Palo Alto, a décrit succinctement le problème. Comme me l'a rapporté le professeur Henry Thompson de l'Université d'Édimbourg, Smith a fait la remarque suivante : "Ce n'est pas bien que [ChatGPT] dise des choses fausses, mais ce qui est vraiment, irrémédiablement mauvais, c'est qu'il n'a aucune idée qu'il y a un monde à propos duquel il se trompe".
Il en résulte inévitablement des erreurs de différentes sortes, dont les plus dommageables sont les "hallucinations" – des déclarations qui semblent plausibles, mais qui décrivent des choses qui n'existent pas. C'est là que le contexte devient crucial : dans le monde des affaires, la tolérance à l'erreur est déjà faible et tend vers zéro lorsque les enjeux sont importants.
La génération de code en est un excellent exemple. Les logiciels utilisés dans des environnements sensibles sur le plan financier ou opérationnel doivent être rigoureusement testés, édités et débogués. Un jeune programmeur équipé d'une IA générative peut produire du code à une vitesse remarquable. Mais ce code nécessite toujours un examen attentif de la part d'ingénieurs expérimentés. Comme le suggèrent de nombreuses anecdotes circulant en ligne, tout gain de productivité initial peut disparaître une fois que les ressources nécessaires aux tests et à la supervision sont prises en compte. Jonathan Last, du magazine The Bulwark, l'a bien résumé :
"L'IA est comme la production chinoise de machines. Elle peut produire des choses de qualité à un prix incroyablement bas (en termes de coût en temps humain). Ce qui signifie que l'IA (telle qu'elle existe aujourd'hui) est un outil utile, mais uniquement pour les tâches qui tolèrent un taux d'erreur élevé… Si je demandais à ChatGPT de faire des recherches sur un sujet, que j'intégrais ces recherches dans un article que j'étais en train d'écrire et que ces recherches n'étaient correctes qu'à 90 %, alors nous aurions un problème. Car mon article a une faible tolérance aux erreurs."
Dans son nouveau livre, The Measure of Progress, l'économiste de l'Université de Cambridge Diane Coyle souligne une autre préoccupation majeure : l'opacité de l'IA. "En ce qui concerne l'IA", a-t-elle récemment écrit, "certaines des informations les plus fondamentales manquent ou ne sont pas complètes. Par exemple, combien d'entreprises utilisent l'IA générative et dans quels secteurs ? À quoi l'utilisent-elles ? Comment les outils d'IA sont-ils appliqués dans des domaines tels que le marketing, la logistique ou le service client ? Quelles entreprises déploient des agents d'IA et qui les utilise vraiment ?"
L’inévitable retour à la réalité
Cela nous amène à la question centrale : quel est le potentiel de création de valeur des grands modèles de langage (LLMs) ? Leur insatiable appétit pour la puissance de calcul et l'électricité, ainsi que leur dépendance à une supervision et une correction des erreurs coûteuses, rendent incertaine leur rentabilité. Les entreprises clientes généreront-elles assez de revenus rentables pour justifier l'investissement nécessaire dans les infrastructures et en support humain ? Et si plusieurs LLMs performent à peu près au même niveau, leurs productions seront-elles commercialisées, réduisant la production de jetons à une activité à faible marge ?
Des chemins de fer aux plateformes numériques en passant par l'électrification, des investissements initiaux massifs ont toujours été nécessaires pour fournir la première unité de service, tandis que le coût marginal de chaque unité supplémentaire déclinait rapidement, tombant souvent en-deçà du coût moyen nécessaire pour amortir l'investissement initial. En situation de concurrence, les prix ont tendance à graviter vers le coût marginal, laissant tous les concurrents fonctionner à perte. Le résultat, encore et encore, a été des monopoles réglementés, des cartels ou d'autres "ententes visant à restreindre les échanges", pour reprendre les termes de la loi antitrust Sherman.
Il y a deux alternatives distinctes au déploiement de LLM au niveau des entreprises. La première consiste à développer de petits modèles de langage, des systèmes entraînés sur des ensembles de données soigneusement sélectionnés pour des tâches spécifiques et bien définies. De grandes institutions, telles que JPMorgan ou les agences gouvernementales, pourraient créer leurs propres applications verticales, adaptées à leurs besoins, réduisant ainsi le risque d'hallucinations et les coûts de supervision.
L'autre alternative est le marché grand public, où les fournisseurs d'IA sont en concurrence pour l'attention et les revenus publicitaires avec les plateformes de médias sociaux établies. Dans ce domaine, où la valeur est souvent mesurée en termes de divertissement et d'engagement, tout est possible. ChatGPT a 800 millions d'"utilisateurs actifs hebdomadaires" – deux fois plus qu'en février. OpenAI semble prête à poursuivre avec un navigateur web augmenté d’un LLM, ChatGPT Atlas.
Mais étant donné que les navigateurs de Google et d'Apple sont gratuits et intègrent déjà des assistants IA, il n’est pas sûr qu’OpenAI pourra maintenir un modèle de revenus viable basé sur l'abonnement ou le paiement à l'utilisation, capable de justifier ses investissements massifs. Diverses estimations suggèrent qu'environ 11 millions d'utilisateurs seulement (soit environ 1,5 % du total) paient actuellement pour ChatGPT sous une forme ou une autre. Par conséquent, les grands modèles de langage destinés au grand public pourraient être condamnés à se disputer les revenus publicitaires sur un marché déjà mature.
L'issue de cette course est impossible à prédire. Les LLMs généreront-ils finalement des flux de trésorerie positifs et ceux-ci couvriront-ils les coûts énergétiques de leur exploitation à grande échelle ? Ou bien le secteur de l'IA, encore naissant, se fragmentera-t-il en une mosaïque de fournisseurs spécialisés, de niche, tandis que les plus grandes entreprises rivaliseront avec les plateformes de médias sociaux établies, notamment celles détenues par leurs investisseurs ? Quand les marchés prendront conscience que le secteur se fragmente plutôt qu’il ne se consolide, la bulle de l'IA sera finie.
Ironiquement, une correction précoce pourrait bénéficier à l'écosystème dans son ensemble, même si elle serait douloureuse pour ceux qui ont investi au pic. Une telle déflation pourrait empêcher de nombreux projets ambitieux de centres de données de devenir des actifs épaves, à l'instar des voies ferrées inutilisées et des fibres optiques abandonnées lors des précédentes bulles. Sur le plan financier, cela permettrait aussi d'éviter une vague d'emprunts à haut risque qui pourrait se solder par une nouvelle bulle à effet de levier et un krach.
Très probablement, une bulle véritablement productive n'émergera que des années après que la frénésie spéculative actuelle se sera calmée. Comme le montre clairement le "cycle de la hype" de Gartner, un "creux de désillusion" précède le "plateau de productivité". Le calendrier n'est peut-être pas tout dans la vie, mais pour les rendements des investissements il est essentiel. »
William Janeway, « In search of the AI bubble's economic fundamentals », 7 novembre 2025. Traduit par Martin Anota
Aller plus loin…
« Quel sera l’impact de l’IA sur la croissance économique ? »
« Quels seront les défis posés par l’intelligence artificielle ? »
« Quelles sont les répercussions des bulles sur l'investissement ? »
Aucun commentaire:
Enregistrer un commentaire