Utilisation de nos données pour entrainer les IA : le cas Microsoft

Nous vous parlions hier de Meta et comment l’entreprise propose re répondre très partiellement à cette question légitime. C’est au tour de Microsoft cette fois, et les choses ne sont pas beaucoup plus clair, c’est le moins que l’on puisse dire…

Microsoft a récemment publié un nouveau contrat de services qui entrera en vigueur à la fin de ce mois, le 30 septembre 2023. Parmi les nombreux changements, certains des plus importants incluent une nouvelle section « stockage Microsoft » qui concerne les récents changements apportés à la façon dont les pièces jointes d’Outlook.com sont traitées. Mais surtout, Microsoft a élargi la section « Votre contenu » sous « Votre vie privée » dans son contrat de services. Il s’agit d’apporter des précisions sur les données générées par les utilisateurs, qui comprennent également les données générées à l’aide des divers services d’intelligence artificielle de Microsoft, tels que Bing Chat, entre autres. Cela vient s’ajouter à la nouvelle section « AI Services » qui comporte une sous-section intitulée « Use of Your Content » (Utilisation de votre contenu). Donc tout irait pour le mieux du monde… si ces nouvelles closes étaient claires.

Mais force est de constater que cela ne semble pas le cas, c’est en tout cas ce qu’analyse la fondation Mozilla : les termes et les formulations sont quelque peu vagues la plupart du temps, et Mozilla semble désespérée de savoir quelles sont les véritables intentions de Microsoft à ce sujet. L’entreprise a attaqué sans relâche le géant technologique sur X, le bombardant constamment de questions et à lancer une pétition à laquelle elle veut que les utilisateurs participent sur ce lien.

Demandez à Microsoft : utilisez-vous nos données personnelles pour entraîner votre IA ?

Nous avons fait examiner le nouvel accord de service de Microsoft qui entrera en vigueur le 30 septembre par quatre avocats, trois experts en confidentialité et deux militants. Et devinez quoi ? Aucun de nos experts n’est parvenu à déterminer si Microsoft prévoyait d’utiliser vos données personnelles pour entraîner ses modèles d’IA. Cela inclut vos échanges audio, vidéo et écrits ainsi que vos pièces jointes dans 130 produits comme Office, Skype, Teams et Xbox.

Si neuf experts en confidentialité ne parviennent pas à comprendre ce que Microsoft fait avec vos données, quelle chance a un·e simple utilisateur·rice d’y arriver ? C’est pourquoi nous demandons à Microsoft de dire s’ils vont utiliser nos données personnelles pour entraîner leur IA.

Un commentaire

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.