Pour Brad Smith, la crise de Boeing est une mise en garde sur l’usage de l’IA…
Dans la saga de Science fiction Terminator, les humains perdent le contrôle des machines intelligentes et le chaos arrive. Ce n’est pas le seul film de science fiction qui reprend ces représentations apocalyptiques de l’intelligence artificielle. Ceci peut sembler lointain ou irréaliste. Mais « les germes d’une réalité dans laquelle nous perdons le contrôle des machines que nous construisons sont présents aujourd’hui« . C’est en tout cas ce qu’a déclaré le président de Microsoft, Brad Smith, qui a surpris la foule lors du GeekWire Summit de Seattle début octobre.
Brad Smith revenait aussi sur les accidents des 737 Max de Boeing (avec 346 personnes tuées) et aux retombées de plusieurs milliards de dollars dues au logiciel défectueux du 737 Max. « Un logiciel dans le poste de pilotage d’un avion, un logiciel que les pilotes ne pouvaient pas éteindre « . En plus des vies humaines, l’entreprise a annoncé des coûts de plus de 8 milliards de dollars liés à ces accidents, et les dommages causés aux compagnies aériennes et aux fournisseurs vont bien au-delà. Les vols se seraient écrasés parce que le logiciel a essayé de pousser le nez des avions à plusieurs reprises, en raison de données de vol inexactes, et les pilotes n’ont pas été en mesure de régler le problème à temps.
« Ça devrait nous parler, » dit Brad Smith. « Ce n’est pas seulement quelque chose qui devrait s’adresser à une seule entreprise ou à une seule industrie. Il devrait s’adresser à tous ceux qui créent la technologie, qui l’utilisent, dans tous les secteurs de la société, et c’est une leçon que nous devrions retenir. Nous devons être capables de créer une bonne technologie et de l’éteindre. »
Un point de vue qu’il défend dans son livre, « Tools and Weapons« , qui exhorte l’industrie technologique et le gouvernement à s’unir pour faire face aux menaces imminentes de l’intelligence artificielle et du Machine Learning. Et de conclure :
« Nous sommes la première génération qui décidera comment les machines prendront ces décisions, quels types de principes éthiques guideront leur prise de décision. Pas de pression, mais on ferait mieux de faire ça bien.«