OpenAI et l’éthique : une IA capable de jugements moraux ?

OpenAI explore un domaine complexe et fascinant : l’éthique des intelligences artificielles. À travers son bras philanthropique, l’entreprise a accordé une subvention à une équipe de chercheurs de l’Université Duke pour leur projet intitulé « Research AI Morality ».

D’après des documents révélés par TechCrunch, OpenAI a injecté 1 million de dollars sur trois ans pour soutenir des travaux destinés à rendre l’IA plus sensible aux enjeux moraux. Ce financement s’inscrit dans une stratégie globale visant à explorer les moyens de doter les systèmes d’intelligence artificielle de capacités éthiques et décisionnelles.

Le projet est dirigé par Walter Sinnott-Armstrong, un expert en éthique appliquée, et Jana Schaich Borg, spécialiste en neurosciences. Ces chercheurs sont connus pour leur travail sur les décisions morales complexes, comme l’élaboration d’algorithmes pour prioriser les bénéficiaires de greffes d’organes. Ces travaux allient perspectives publiques et expertises pour maximiser la justice et la transparence.

Les chercheurs de Duke cherchent à concevoir des algorithmes capables d’imiter et de prévoir les jugements éthiques humains. Les applications visées incluent des domaines aussi variés que la médecine, le droit, et les affaires. Par exemple, une IA pourrait être utilisée pour évaluer la meilleure manière de répartir des ressources médicales limitées ou pour arbitrer des conflits juridiques en fonction de principes éthiques.

Cependant, les initiatives précédentes montrent que le défi est immense. Le projet Ask Delphi, développé par l’Allen Institute for AI, visait à fournir des réponses éthiques. Bien qu’il ait pu gérer des dilemmes simples, cet outil s’est révélé vulnérable aux manipulations verbales, parfois produisant des réponses moralement discutables en fonction du cadrage des questions.

Les défis fondamentaux de l’IA morale

Le principal obstacle réside dans la façon dont les modèles d’IA apprennent. Basés sur des données d’entraînement, ces systèmes reproduisent souvent les biais culturels dominants. Ainsi, les jugements éthiques d’une IA peuvent être teintés par les préjugés inhérents à ses données, limitant sa capacité à prendre des décisions universellement acceptables. De plus, les définitions de la morale varient considérablement d’une culture à l’autre, rendant difficile l’élaboration d’un cadre standardisé. Ces limites soulèvent une question cruciale : peut-on réellement espérer qu’une IA devienne « morale » ou « éthique », et si oui, à quelle échelle ?

Le projet d’OpenAI ne promet pas de résoudre ces défis d’ici demain. Les chercheurs ont jusqu’en 2025 pour présenter leurs résultats. Cependant, si des avancées significatives sont réalisées, les implications pourraient être profondes. Une IA capable de naviguer avec précision dans des dilemmes éthiques pourrait transformer la manière dont les machines assistent les humains, que ce soit en médecine, en droit ou même en politique.

Pour l’instant, l’initiative pose plus de questions qu’elle n’apporte de réponses. Mais une chose est certaine : l’avenir de l’IA ne pourra se passer d’une réflexion approfondie sur ses responsabilités morales…

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.