Microsoft met à disposition un outil pour tester la sécurité des solutions IA

Source : Microsoft

Counterfit est le nom de l’outil open source mis à disposition par Microsoft pour tester la sécurité des algorithmes IA. Développé initialement pour les besoins propres de l’entreprise, « Counterfit aide les organisations à réaliser des évaluations des risques de sécurité de l’IA pour s’assurer que les algorithmes utilisés dans leurs entreprises sont robustes, fiables et dignes de confiance« .

Disponible sur GitHub, cet outil va permettre d’automatiser des simulations d’attaque sur des modèles IA, offrant selon Microsoft 3 avantages :

  1. les modèles peuvent être hébergés on premise, dans le cloud ou en périphérie (Edge).
  2. l’outil fait abstraction du fonctionnement interne des modèles IA à tester afin que les tests se concentrent sur l’évaluation de la sécurité.
  3. Counterfit s’efforce d’être agnostique en matière de données : il fonctionne avec des modèles d’IA utilisant du texte, des images ou des données génériques.

Accessible en mode commande, Counterfit reprend des modes d’attaque et des terminologies familières aux spécialistes de la sécurité qui mettent en oeuvre des outils de test.

Un commentaire

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.