L’illusion de l’or numérique : quand l’IA coûte plus qu’elle ne rapporte…
Si l’histoire de la technologie est jalonnée d’engouements collectifs, l’intelligence artificielle pourrait bien être le plus coûteux d’entre eux. Nous vivons peut-être une époque où toute l’industrie, du matériel au logiciel, est sous l’emprise d’une illusion partagée : celle que l’IA serait nécessairement bonne pour les affaires. Les chiffres récents, eux, racontent une toute autre histoire.
Les grands gagnants : les marchands de pioches
Comme toujours dans les ruées vers l’or, ce ne sont pas les prospecteurs qui s’enrichissent, mais ceux qui vendent les pelles. Dans le cas présent, Nvidia et TSMC. La demande en GPU pour entraîner des modèles d’IA a propulsé leurs revenus à des sommets. Le reste de l’écosystème, en revanche, découvre que nourrir ces algorithmes a un coût démesuré.
Oracle, dernier exemple en date, en fait la douloureuse expérience. Son activité cloud, historiquement marginale, explose grâce aux serveurs alimentés par les puces Nvidia. Mais l’explosion a un prix : une marge brute divisée par cinq. Sur le trimestre clos en août, Oracle n’a dégagé que 14 % de marge sur ces services d’hébergement IA, contre environ 70 % sur le reste de ses activités. L’action a immédiatement dévissé, entraînant le marché avec elle.
L’effet domino des marges compressées
Cette compression n’est pas propre à Oracle. Tous les grands fournisseurs de cloud — AWS, Azure, Google Cloud — font face au même dilemme : proposer des infrastructures IA attractives tout en absorbant des coûts matériels stratosphériques. Les GPU Nvidia coûtent une fortune, leur consommation énergétique est colossale, et leur disponibilité reste tendue. Résultat : des revenus qui gonflent, mais des bénéfices qui s’évaporent.
Les dirigeants promettent une “rentabilité à long terme” fondée sur la croissance de la demande. Mais la logique économique reste fragile. À mesure que les revenus IA deviendront centraux dans leurs bilans, les marges globales ne pourront que baisser. Une équation comptable difficile à vendre aux investisseurs habitués à des rendements de 60 à 80 %.
Les utilisateurs : beaucoup d’expérimentations, peu de profits
Côté utilisateurs, la situation n’est finalement guère plus reluisante. Les entreprises qui développent des applications ou des modèles d’IA consomment actuellement des ressources colossales sans garantie de retour sur investissement à court terme. Le coût d’entraînement d’un modèle dépasse encore, dans bien des cas, la valeur créée par son exploitation. Même les applications phares — assistants de code, générateurs de texte ou d’image — ne dégagent pas encore de marges confortables.
Les dirigeants restent prudents : la plupart refusent de détailler leurs revenus issus de l’IA, et encore moins leurs profits. Ce silence en dit long. À l’échelle macroéconomique, le secteur fonctionne sur une hypothèse de rentabilité future plus que sur une réalité présente.
Le paradoxe de la productivité : moins d’emplois, moins de clients ?
L’autre grand pari de l’IA est celui de la productivité. En théorie, l’automatisation massive des tâches pourrait réduire les coûts salariaux et améliorer la compétitivité. Mais le scénario a son revers : si trop d’emplois disparaissent, la demande globale se contracte. Moins de travailleurs, donc moins de consommateurs. L’économie s’autorégule rarement selon les vœux des DSI. La question demeure : qui achètera les produits et services de ces entreprises ultra-automatisées ?
Pour l’heure, la rentabilité de l’IA repose sur une architecture fragile : des coûts d’infrastructure faramineux, des marges écrasées, et une adoption encore hésitante du côté des clients. L’histoire jugera peut-être cette période comme celle d’une foi aveugle dans une technologie encore immature économiquement.
L’intelligence artificielle n’est peut-être pas une bulle, mais elle a clairement actuellement un problème de business model. En attendant, les seuls à vraiment s’enrichir sont ceux qui vendent les cartes graphiques. Les autres, eux, creusent encore 🙂