Microsoft introduit des filigranes invisibles pour les images générées par DALL-E via Azure OpenAI Service

Une réunion très professionnelle de pommes, c’est de saison 🙂

La génération d’images par IA a connu une évolution fulgurante, avec des modèles tels que DALL-E, capables de produire des images à partir de simples descriptions textuelles. Azure OpenAI Service permet aux développeurs d’accéder à ces modèles via une API REST, facilitant ainsi l’intégration de la génération d’images dans leurs applications. Récemment, Microsoft a annoncé une nouvelle fonctionnalité au sein de ce service : les filigranes invisibles, une avancée interessante dans la protection et l’authentification des contenus générés par l’IA.

Interessant car sans surprise, l’essor des outils de génération d’images par IA a également alimenté la propagation de désinformations et de contenus manipulés, tels que les deepfakes. Il devient alors crucial de distinguer les images générées artificiellement de celles produites par des moyens traditionnels.

Ces filigranes sont invisibles à l’œil nu, mais peuvent être détectés par des outils spécialisés. De plus, ils résistent aux modifications telles que le recadrage ou le redimensionnement, préservant ainsi l’intégrité de l’empreinte numérique associée à l’image. Ils sont implémentés dans les images générées par les modèles DALL-E et contiennent des informations précises sur l’origine de l’image. Ces informations sont encapsulées dans un manifeste cryptographiquement signé par un certificat lié au service Azure OpenAI. Parmi les détails inclus dans ce manifeste, on retrouve :

  • La description : Ce champ porte la mention “Image générée par IA”, confirmant ainsi que l’image a été produite par un modèle d’IA.
  • L’agent logiciel : Ici, la valeur sera “Azure OpenAI DALL-E”, attestant que l’image provient des modèles DALL-E utilisés dans le service Azure OpenAI.
  • La date et l’heure de création des Content Credentials associées à l’image, apportant un suivi temporel précis.

Ce n’est pas la première fois que Microsoft utilise la technologie des filigranes dans ses services d’IA. L’an dernier, l’entreprise a introduit des filigranes pour les voix générées via Azure AI Speech, un outil qui permet de synthétiser des voix personnalisées. Cette initiative permettait aux utilisateurs de détecter si une voix avait été générée par IA ou non, favorisant ainsi la transparence dans les contenus vocaux.

Outre ses propres services, Microsoft collabore avec d’autres grands acteurs de l’industrie technologique, tels qu’Adobe, Truepic et la BBC, pour standardiser l’utilisation des filigranes et des métadonnées cryptographiques à travers différentes plateformes. Ces efforts visent à assurer une interopérabilité et à renforcer les mécanismes de détection des contenus générés par IA, quel que soit le service utilisé.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.