En un trimestre, le financement des startups d'IA fondationnelles a dépassé 180 milliards de dollars aux États-Unis, soit plus que la totalité de l'année 2024 (Crunchbase, avril 2026). Ce volume masque une concentration extrême : trois transactions ont absorbé l'essentiel des flux, pendant que le reste de l'écosystème se partage les marges.
Un trimestre hors norme
OpenAI a clôturé un tour de 122 milliards de dollars à une valorisation post-money de 852 milliards, porté par Amazon (50 Md$), Nvidia (30 Md$) et SoftBank (30 Md$) (Tech Insider, avril 2026). En parallèle, xAI a levé 20 milliards de dollars en Série E en début d'année, portant son total de financements à 42,7 milliards depuis sa fondation en 2023. La dynamique contraste avec l'Europe : Mistral a finalisé une Série C de 1,7 milliard d'euros à 11,7 milliards de valorisation en septembre 2025, dernier tour majeur de l'écosystème continental à date.
Multiples et bifurcation des ARR
Les valorisations reflètent désormais la croissance de l'ARR plus que les revenus courants. Anthropic, ayant bouclé un tour de 30 milliards de dollars en février 2026 à 380 milliards de valorisation post-money (GIC et Coatue en lead, CNBC), déclare un ARR de 19 milliards en mars 2026, contre 9 milliards fin 2025 (TechCrunch, avril 2026). Le multiple implicite tombe à 20x. Sur les marchés secondaires, Anthropic s'est réévalué au-delà du trillion de dollars, devançant OpenAI sur les mêmes marchés (Tom's Hardware, avril 2026). OpenAI génère de son côté 2 milliards de dollars de revenus mensuels (24 milliards annualisés), ce qui place son multiple à 35x. En bas de spectre, Mistral publie 400 millions d'ARR en janvier 2026 et cible 1 milliard d'ici fin d'année, pour un multiple projeté de 14x sur la valorisation courante (MLQ.ai, 2026).
L'inférence comme variable structurelle
Le rapport entre coûts d'entraînement et coûts d'inférence a basculé. En 2026, l'inférence représente 67 % de la demande totale de calcul IA, contre un tiers en 2023 (Spheron Network). La structure de coûts est asymétrique : pour chaque milliard investi en entraînement, les coûts d'inférence cumulés sur la durée de vie du modèle atteignent 15 à 20 milliards de dollars (Byteiota, 2026). Cette pression restructure les choix d'infrastructure. Nvidia conserve 80 % du marché de l'entraînement mais perd du terrain en inférence, où TPUs et ASICs propriétaires (Google, Amazon, Meta) permettent des réductions de 40 à 60 % sur les budgets de production (Clarifai). Le marché des puces dédiées à l'inférence devrait dépasser 50 milliards de dollars en 2026, croissant plus vite que le marché global des semi-conducteurs IA (GPUnex, 2026). La rentabilité des labs se joue désormais moins sur les revenus bruts que sur la capacité à optimiser les coûts de serve.
La M&A comme thermomètre de consolidation
La M&A mondiale au Q1 2026 a atteint 1 200 milliards de dollars, portée en premier lieu par l'IA (Financial Content, avril 2026). Trente pour cent des acquisitions dans le logiciel d'entreprise impliquent désormais des fonctionnalités d'IA agentique (PwC). Les quatre hyperscalers américains (Amazon, Google, Microsoft, Meta) ont engagé collectivement plus de 350 milliards de capex IA en 2025, soit en moyenne 760 millions par jour. La logique d'évaluation des cibles glisse des métriques d'usage brut vers le taux de rétention nette (NRR) supérieur à 120 % et vers la part d'IA intégrée dans le produit, par opposition à greffée. L'IPO attendue d'OpenAI, anticipée à une valorisation initiale de 48 milliards de dollars (InvestorPlace, avril 2026), servira de test pour la capacité des marchés publics à absorber des multiples de croissance inédits.




