Productivité boostée, réputation plombée : l’IA au travail n’a pas que des amis

Google annonce des gains de productivité impressionnants grâce à l’IA conversationnelle : +14 % d’efficacité en moyenne, +35 % pour les agents les moins performants. Mais une étude récente de l’université Duke rappelle que ces outils ont un prix invisible : l’image sociale des utilisateurs se dégrade aux yeux de leurs pairs. Cet article propose une lecture croisée de ces deux études.

On commence par les points positifs

Nous vous parlions il y a quelques jours de l’étude que Google a mené sur l’usage d’un assistant conversationnel par des agents de service client. Résultat : 14 % d’efficacité en plus, soit 122 heures de travail économisées par an, et une amélioration spectaculaire de la performance des moins bons agents (+35 %).

L’impact est indéniable, surtout pour les employés en difficulté. L’IA joue ici un rôle de prothèse cognitive, leur permettant d’atteindre des standards plus élevés. Mais ce chiffre de 122 heures par an n’est pas neutre : cela revient à gagner près de trois semaines de travail annuel… ou à justifier une réduction de poste dans certains contextes. L’enjeu dépasse donc l’individu pour toucher aux équilibres économiques et RH.

Oui, mais…

Des chercheurs de Duke ont démontré que les employés utilisant de l’IA (ChatGPT, Claude, Gemini…) sont perçus comme moins compétents, moins motivés et plus remplaçables.

L’effet n’est pas marginal : dans quatre expériences impliquant plus de 4 400 participants, les jugements négatifs sont systématiques. Ceux qui utilisent l’IA sont vus comme paresseux et dépendants. Pire, même dans les tâches où l’IA est logique et performante, l’image de l’utilisateur est entachée. Cela pose un dilemme moral et stratégique : dois-je m’aider de l’IA pour mieux réussir, au risque d’être mal vu ? Même si l’usage de l’IA devient plus fréquent, le biais social persiste. L’idée selon laquelle “tout le monde l’utilise, donc ce n’est plus mal vu” ne tient pas.

L’étude de Duke montre que la normalisation de l’usage de l’IA n’atténue pas le jugement social négatif. Cela révèle un biais cognitif profond : les individus assimilent inconsciemment l’assistance technologique à un déficit de mérite. Le mythe du travail “à la force du poignet” reste ancré, même dans les métiers intellectuels. Un paradoxe en 2025, alors que les outils IA sont partout.

Dans une simulation d’entretien d’embauche, les candidats utilisant l’IA sont désavantagés… sauf si le recruteur utilise lui-même régulièrement l’IA, qui au contraire voir ceci comme un prérequis. Ce constat met en lumière un phénomène connu : le biais de similarité. Les recruteurs projettent leurs habitudes sur les candidats.

Quand l’usage de l’IA est perçu comme “approprié”, les jugements négatifs s’atténuent. Cela dépend fortement du type de tâche : digital vs manuel, créatif vs routinier. Tout est une question de contexte. Lorsqu’on justifie l’usage de l’IA par un besoin concret et rationnel (“je l’ai utilisée pour automatiser un rapport très complexe, pas pour tricher”), l’image sociale s’améliore. Les managers doivent donc apprendre à communiquer sur le bon usage de l’IA, et les entreprises à créer des cadres normatifs pour baliser ce qui est valorisé ou non.

Nous aborderons ces points lors de la sessions sur les retours d’expériences de l’usages des IA génératives en entreprise que j’ai le plaisir d’animer lors du prochain Briefing Calipia.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.