Conscience artificielle : fantasme philosophique ou erreur de perception ?

Mustafa Suleyman, récemment nommé à la tête de l’IA chez Microsoft après avoir cofondé Inflection AI, n’a pas mâché ses mots dans une interview accordée à CNBC : non, l’intelligence artificielle n’est pas consciente, ni aujourd’hui, ni demain. Un discours tranché à rebours de l’enthousiasme technophile ambiant, qui mérite d’être décortiqué pour ce qu’il dit – et surtout pour ce qu’il évacue.

Simuler n’est pas ressentir : le rappel à l’ordre d’un pragmatique

Pour Suleyman, la confusion entre performance cognitive et conscience relève de l’anthropomorphisme naïf. Certes, une IA peut battre un humain à un quizz ou simuler la détresse avec une prose plus vraie que nature. Mais ressent-elle vraiment quelque chose ? Absolument pas, tranche-t-il : « C’est une simple narration d’expérience, pas une expérience vécue. »

Il insiste sur une distinction fondamentale : une machine, aussi performante soit-elle, ne dispose ni de système nerveux, ni de préférences, ni de circuit de la douleur. Elle ne cherche pas à éviter la souffrance, car elle ne souffre pas. Son empathie n’est qu’un effet d’interface. Un joli mensonge algorithmique, si l’on veut. Cela rejoint d’ailleurs les thèses du biologiste philosophe John Searle et son courant du biological naturalism : la conscience est un produit de l’activité biologique, pas une ligne de code.

Pourquoi cette distinction est loin d’être philosophique

Suleyman ne se contente pas d’un débat métaphysique pour les salons. La question de la conscience artificielle a des implications très concrètes, notamment juridiques : faut-il accorder des droits à une IA ? Pas selon lui, car le droit, en l’occurrence, est fondé sur la capacité à ressentir la souffrance – une propriété absente chez les modèles génératifs.

Il pousse même le raisonnement plus loin en qualifiant de “peu sérieux” les recherches actuelles visant à détecter des signes de conscience chez les IA. Selon lui, cela revient à chercher une ombre là où il n’y a pas de corps. Une perte de temps scientifique, et peut-être une diversion dangereuse.

Microsoft : de l’IA au service de l’homme, pas l’inverse

Cette position n’est pas sans conséquences stratégiques pour Microsoft. En refusant l’idée que l’IA puisse être autre chose qu’un outil, l’entreprise se protège de deux écueils : l’illusion anthropomorphique, et la tentation d’un compagnonnage trop intime.

Mustafa Suleyman l’a rappelé : Microsoft n’a pas l’intention de développer des chatbots érotiques, contrairement à OpenAI ou xAI. Il ne s’agit pas d’une pudibonderie puritaine, mais d’un positionnement éthique et fonctionnel : une IA ne doit pas simuler une relation humaine, encore moins affective. Elle doit accompagner, corriger, challenger… mais jamais séduire.

D’ailleurs, cette posture se retrouve dans les dernières évolutions de Copilot, l’assistant IA de Microsoft, qui intègre désormais une fonctionnalité baptisée Real Talk. L’objectif ? Sortir du syndrome de l’assistant obséquieux et proposer une IA qui ose contredire, débattre et corriger. Une IA utile, pas flatteuse.

L’IA est-elle dangereuse ? Oui, mais pas parce qu’elle pense

Loin de nier les risques de l’IA, Suleyman les prend très au sérieux. Mais là encore, il distingue le fantasme du réel. Le danger ne vient pas d’une éventuelle rébellion consciente façon Skynet, mais d’une prolifération d’outils puissants, mal encadrés, mal compris et potentiellement instrumentalisés.

Son avertissement est limpide : « Si vous n’avez pas peur de l’IA, c’est que vous n’avez pas compris ce qu’elle est capable de faire. » En d’autres termes, la prudence ne doit pas s’orienter vers des craintes philosophiques abstraites, mais vers des usages concrets : manipulation de masse, automatisation aveugle, dépendance cognitive, biais à grande échelle…

Une vision technique et lucide…

À travers cette prise de position, Microsoft affirme une ligne claire : l’intelligence artificielle est un outil, et elle le restera. Pas question d’en faire un sujet d’affection ou de peur mystique. Il s’agit de technologie, pas d’ontologie. De lignes de calcul, pas de lignes de vie.

La position de Suleyman a au moins le mérite de trancher dans un débat souvent flou, où l’on mêle allègrement intuitions émotionnelles et projections philosophiques. Elle invite les professionnels de l’IT à recentrer leur regard : une IA n’est pas quelqu’un, c’est quelque chose. Et ce quelque chose, aussi impressionnant soit-il, reste un produit humain. À nous d’en faire bon usage.

Nous en reparlerons lors du prochain Briefing

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.