Super-intelligence : promesse marketing ou impasse cognitive ?

Depuis quelques années, les géants du numérique s’affrontent dans une course effrénée vers l’AGI — cette intelligence artificielle fantasmée, omnisciente et capable de résoudre nos crises les plus insolubles. L’argument clé présenté par les dirigeants de la Silicon Valley est simple : leurs modèles deviennent plus grands, plus bavards, plus convaincants… donc plus intelligents.

Un glissement subtil, presque poétique, mais scientifiquement fragile.

Benjamin Riley, fondateur de Cognitive Resonance, rappelle dans The Verge une évidence que l’industrie semble vouloir oublier : le langage n’est pas la pensée. Et confondre les deux n’est pas seulement une erreur conceptuelle — c’est une erreur stratégique, aux conséquences industrielles colossales.

LLM : simulateurs de conversation, pas simulateurs de cognition

L’obsession du scaling — toujours plus de données, toujours plus de GPU, toujours plus de mégawatts engloutis — a conduit à une progression incontestable des modèles de langage : ils discutent, argumentent, rédigent. Ils donnent surtout l’impression d’avoir compris.

Mais un bon imitateur n’est pas un bon raisonneur.

Les neurosciences le répètent depuis des décennies :

  • les zones du cerveau activées lors de tâches linguistiques ne sont pas les mêmes que celles mobilisées pour la résolution de problèmes abstraits ;
  • des patients ayant perdu l’usage de la langue continuent de raisonner, de résoudre des équations, de comprendre des émotions et d’exécuter des instructions non verbales.

Si la pensée reposait sur le langage, ces observations seraient impossibles. La conclusion est donc nette : modéliser le langage ne suffit pas à modéliser la pensée. Les moteurs d’un futur AGI tel qu’on nous le vend. Ils sont des interfaces sophistiquées, pas des cerveaux.

Même les pionniers de l’IA tirent la sonnette d’alarme

Yann LeCun, l’une des figures les plus respectées de l’IA moderne, persiste : les LLM n’atteindront jamais une intelligence générale. Leur vision du monde est textuelle, abstraite, détachée de la réalité physique.

Or un agent intelligent doit percevoir, agir, expérimenter. LeCun défend donc des world models, capables d’intégrer des données sensorielles et spatiales.

Ironiquement, cette position serait l’une des raisons de son départ récent de Meta, alors même que Mark Zuckerberg investit massivement dans une « super-intelligence » fondée sur… des LLM géants. Le contraste est saisissant.

L’effet de mode est parfois plus fort que la science.

Le plafond créatif des modèles : mathématiquement démontré

Une nouvelle étude publiée dans le Journal of Creative Behavior va encore plus loin : utilisant une démarche mathématique, le chercheur David H. Cropley démontre que les LLM ont une limite structurelle en matière de créativité.

La raison est triviale mais implacable : un modèle probabiliste finit, tôt ou tard, par produire des variations qui ne sont plus réellement nouvelles sans devenir incohérentes.

Résultat :

  • un LLM peut écrire un email impeccable,
  • produire un texte « créatif » mais jamais révolutionnaire,
  • et certainement pas inventer la « nouvelle physique » tant promise par certains dirigeants optimistes.

Dans le meilleur des cas, les LLM sont des remixers compétents. Dans le pire, ils transforment toute production en une bouillie standardisée — agréable, polie, et terriblement moyenne.

Conséquences stratégiques : le risque d’une industrie construite sur une illusion

Pour les directions IT, le message est clair :

  • Les LLM sont excellents pour automatiser, résumer, répondre, assister.
  • Ils sont catastrophiques comme fondation d’une intelligence générale.
  • Et leur croissance illimitée exige une énergie et une infrastructure démesurées, justifiées par une vision probablement inatteignable.

Benjamin Riley résume cela avec une formule redoutable : les LLM sont des machines à métaphores mortes, condamnées à recycler indéfiniment les mots de leurs créateurs.

Loin d’un futur où l’IA résout le cancer ou le changement climatique, nous sommes face à des systèmes experts dopés, utiles mais profondément limités.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.