Anthropic et le paradoxe de la puissance : quand l’IA devient « trop douée » pour être libérée

Anthropic vient de jeter un pavé dans la mare des SI en dévoilant ses dernières avancées, notamment le modèle baptisé Claude Mythos. Mais attention, ne sortez pas tout de suite vos cartes bleues d’entreprise : pour la première fois, le laboratoire refuse de mettre son modèle le plus performant entre les mains du grand public. Un aveu de dangerosité qui, s’il flatte l’ego des ingénieurs d’Anthropic, pose de sérieuses questions de gouvernance pour les DSI.

Techniquement, la rupture est brutale. Là où Claude 3.5 Sonnet commençait déjà à chatouiller les benchmarks de codage (avec un score de 49% sur SWE-bench Verified), le nouveau venu franchirait un cap critique dans l’autonomie agentique. On ne parle plus d’un assistant qui suggère une fonction Python entre deux cafés, mais d’un système capable d’identifier et surtout d’exploiter… des vulnérabilités zero-day sans supervision humaine. Pour un architecte logiciel, c’est le rêve de l’audit automatisé qui se transforme potentiellement en cauchemar de sécurité si le « prompt » tombe dans les mauvaises mains.

La décision d’Anthropic de restreindre l’accès à une quarantaine d’organisations critiques n’est pas qu’une posture marketing de « sécurité d’abord ». C’est une reconnaissance implicite que nous avons atteint le stade où l’IA peut déconstruire une infrastructure plus vite qu’un administrateur ne peut la patcher. Pour les décideurs, le message est clair : l’IA « Open Weights » ou accessible sans garde-fous devient un vecteur de risque systémique. On appréciera l’humour involontaire de la situation : créer l’outil ultime pour sécuriser le code, tout en admettant qu’il est l’arme de destruction massive la plus efficace du moment.

Nous reparlerons de tout cela lors du prochain Briefing Calipia en juin.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.