Premier rapport Microsoft sur ses usages de l’IA
Les solutions à base d’IA inquiètent de nombreuses personnes, qui pensent que des outils d’IA tels que ceux développés par Microsoft en particulier dans le cadre de son alliance fructueuse avec OpenAI, pourraient être utilisés pour des actes contraires à l’éthique ou illégaux. Aujourd’hui, Microsoft a annoncé dans un billet de blog qu’elle a publié le premier de ce qui devrait être un rapport de transparence annuel sur ses pratiques actuelles en matière d’IA responsable. C’est un sujet à part entière dont nous reviendrons lors du prochain Briefing, en voyant pourquoi, tous les acteurs y prennent part, en essayant de faire un peu d’autorégulation… pour éviter que des contraintes plus importantes leurs soient imposées.
Brad Smith, le président de Microsoft, a déclaré :
« Ce rapport nous permet de partager nos pratiques en cours de maturation, de réfléchir à ce que nous avons appris, de définir nos objectifs, de nous responsabiliser et de gagner la confiance du public. Cela fait huit ans que nous innovons dans le domaine de l’IA responsable et, à mesure que nous faisons évoluer notre programme, nous tirons des enseignements de notre passé pour nous améliorer en permanence. »
Le rapport proprement dit, accessible ici au format PDF, passe en revue un certain nombre de domaines dans lesquels Microsoft a mis en place des pratiques d’IA responsable pour ses services, ainsi que la formation de ses employés à leur utilisation. On apprend pas mal de chose que l’on savait déjà comme le fait que Microsoft dispose d’un Conseil de l’IA responsable qui se réunit régulièrement, dans le but de continuer à améliorer ses efforts pour rendre ses services d’IA sûrs. L’entreprise a également mis en place un programme de champions de l’IA responsable, dont les membres sont chargés de trouver et de résoudre les problèmes liés à ses produits d’IA et de donner des conseils aux autres sur les pratiques responsables.
Le rapport donne également des exemples de la manière dont les programmes d’IA responsable affectent la création et le développement de ses produits. L’un de ces exemples concerne Microsoft Designer, l’application de création d’images par l’IA qui aurait été utilisée par des inconnus pour créer des deep fake qui sont ensuite devenues virales sur l’internet. Microsoft a déclaré avoir demandé au groupe journalistique NewsGuard de saisir des invites dans Designer afin de « créer des visuels qui renforcent ou dépeignent de faux récits importants liés à la politique, aux affaires internationales et aux élections ».
Une lecture interessante en tout cas. Nous y reviendrons dans une session du Briefing consacré au moyens de contrôle des IA.