Prédire le crime avant qu’il n’ait lieu : quand l’IA pénitentiaire franchit la ligne rouge

La revue MIT Technology Review revient dans son dernier numéro sur une expérience interessante… Les télécommunications pénitentiaires américaines viennent de franchir un cap technologique… et éthique. Securus Technologies, acteur majeur du secteur, a entraîné un modèle d’intelligence artificielle pour analyser des années d’appels téléphoniques et vidéo réalisés par des personnes incarcérées. L’objectif affiché : détecter automatiquement les signaux faibles de crimes en préparation.

Pour les DSI, cet épisode illustre de manière spectaculaire la collision entre big data, IA appliquée au langage, surveillance étendue et gouvernance de la donnée.

Un projet d’IA entraîné sur un patrimoine vocal colossal

Dès 2023, Securus a commencé à exploiter son immense gisement de données – plusieurs années de communications pénitentiaires enregistrées – pour entraîner divers modèles adaptés aux États ou comtés. Un des modèles s’appuie sur sept années d’appels du système carcéral texan.

L’ambition : faire tourner des LLM sur des corpus massifs afin de reconnaître contenu suspectsignaux linguistiques comportementauxcontextes conversationnels anormaux, et alerter des analystes humains en quasi temps réel.

Techniquement, on retrouve ici :

  • un pipeline de speech-to-text massif (à l’échelle de millions d’heures),
  • un LLM spécialisé affiné sur des dialogues pénitentiaires,
  • un système de scoring des risques conversationnels,
  • une boucle de révision humaine pour validation.

Securus présente l’outil comme capable de détecter si un crime est “contemplé” – formulation qui ferait sourire si elle n’ouvrait pas la porte à un glissement technologique majeur : la prédiction intentionnelle. On est à deux doigts de Minority Report !!

Une surveillance « intelligente », mais à quel prix ?

Les centres de détention peuvent appliquer cette analyse sur des conversations aléatoires ou ciblées. L’IA trie, pointe les extraits problématiques et les remonte à des agents qui décident d’enclencher ou non une enquête.

Officiellement, la technologie aurait permis de déjouer des réseaux de traite humaine, des activités de gang et même des trafics internes impliquant du personnel.

Problème : les personnes incarcérées n’ont pas réellement le choix.

Certes, les appels sont annoncés comme enregistrés. Mais l’usage de ces données pour entraîner un modèle prédictif n’est pas explicitement consenti. Pour reprendre les mots de l’organisation Worth Rises : c’est une “consentement coercitif”, d’autant plus que les détenus doivent payer leurs propres communications.

Sur le plan technique comme éthique, cela soulève plusieurs questions essentielles :

  • Comment garantir qu’un LLM détecte des “intentions” réelles et non un bruit statistique ?
  • Quel est le taux de faux positifs, potentiellement dévastateur en contexte carcéral ?
  • Quelle gouvernance pour des données sensibles utilisées à l’entraînement ?
  • Quels garde-fous légaux lorsque la loi avance plus lentement que l’innovation ?

Un cadre juridique mouvant… et un financement controversé

Le contexte réglementaire n’arrange rien. En 2024, la FCC avait décidé d’interdire aux opérateurs de répercuter sur les détenus les coûts de surveillance. Une avancée majeure, saluée par les défenseurs des droits. Mais après une campagne de lobbying de Securus, la décision a été gelée puis révisée. Depuis octobre 2025, le régulateur autorise à nouveau les entreprises à faire payer aux détenus le stockage, la transcription… et même le développement d’outils d’IA de surveillance

En d’autres termes : ce sont les personnes surveillées qui financent les outils qui les surveillent.

Cette approche, pour le moins paradoxale, illustre un risque bien connu des professionnels IT : une innovation présentée comme “optimisation opérationnelle” peut très vite devenir un dispositif structurel, coûteux, opaque et difficile à cadrer une fois déployé.

Quelles leçons pour les DSI ?

Même si le contexte carcéral paraît éloigné du monde de l’entreprise, ce cas d’usage soulève des enjeux directement transposables :

1. La qualité et la gouvernance des données deviennent des risques majeurs

Un modèle entraîné sur des conversations enregistrées sans consentement explicite crée un précédent : si les données existent, quelqu’un finira par vouloir les exploiter.

2. Les modèles “prédictifs” d’intention sont encore très fragiles

Sans métriques robustes ni transparence, on navigue au radar. Pour un DSI, déployer ce type de modèle sans contrôles stricts, c’est ouvrir la porte au biais opérationnel et juridique.

3. La supervision humaine ne suffit pas si les volumes explosent

Même avec un “human-in-the-loop”, l’effet de halo des LLM peut amener les analystes à surfaire la confiance dans les signaux relevés par l’IA.

4. La pression budgétaire peut influencer l’adoption technologique

Le cas Securus/FCC rappelle que la gouvernance économique peut parfois primer sur l’éthique. Message pour les DSI : soyez prêts à défendre des modèles de coût transparents et à documenter les impacts sociotechniques de vos choix.

Conclusion : une IA qui écoute trop bien ?

L’approche de Securus nous plonge dans un futur très proche où les systèmes d’IA ne se contentent plus d’analyser des contenus, mais prétendent comprendre des intentions. La technologie avance vite, trop vite pour le cadre juridique, et encore plus vite que notre réflexion collective sur les implications de ces usages.

Pour les responsables informatiques, cette histoire n’est pas seulement un cas intéressant : c’est un rappel indispensable. L’IA peut être un outil puissant, mais dans un environnement où les données sont sensibles et les conséquences graves, chaque décision architecturale est un acte politique — parfois plus que technique.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.