Google : un bouton d’urgence pour arrêter les IA malveillantes ?

Google s’intéresse depuis longtemps aux intelligences artificielles. La firme a même investi un peu plus de 600 millions de dollars en 2014 pour mettre la main sur une entreprise britannique spécialisée dans ce secteur de pointe, Deep Mind Technologies. Toutefois, la firme a aussi conscience du danger que représentent les IA et elle a donc demandé à son équipe de travailler sur un bouton d’arrêt d’urgence.

Elon Musk, Stephen Hawking et les plus grands esprits de ce monde sont tous unanimes sur la question : l’intelligence artificielle est un domaine d’étude fascinant, mais il comporte aussi de nombreux risques.

Google IA

Google veut nous éviter un scénario à la Battlestar Galactica.

L’IA inquiète donc autant qu’elle fascine et cela n’a rien de surprenant car elle est souvent dépeinte comme une entité omnisciente et omnipotente, un peu à l’image d’un Dieu 2.0.

L’IA comme divinité omnisciente 2.0

Après tout, dans un monde ultra connecté comme le nôtre, une intelligence artificielle ne s’érigerait-elle pas au rang de divinité ? Et si une telle entité venait à voir le jour, que penserait-elle de l’humanité ? Estimerait-elle notre espèce digne d’être sauvée ?

C’est malheureusement peu probable compte tenu de notre histoire et de la manière dont nous traitons nos semblables ainsi que toutes les autres formes de vie vivant sur notre planète.

Google a visiblement bien conscience de la chose car la firme a demandé à Deep Mind de développer un bouton d’arrêt d’urgence dans le cas où une intelligence artificielle viendrait à se retourner contre l’humanité, un bouton largement évoqué dans un document (PDF, anglais) accessible en ligne et consultable depuis n’importe quel navigateur.

Cette fonction a été élaborée en partenariat avec les scientifiques de l’Université d’Oxford et elle est censée permettre à un opérateur humain de modifier le comportement d’une intelligence artificielle sans qu’elle ne se rende compte de rien.

Pourquoi ? Pour la suspendre et la forcer à s’arrêter d’elle-même.

Toutefois, les chercheurs chargés de la réalisation de ce projet ne savent pas si cette méthode fonctionnera avec tous les algorithmes et c’est évidemment très problématique, d’autant qu’une IA est par nature capable d’apprendre et d’évoluer par elle-même.

Si cette démarche part d’un bon sentiment, elle risque finalement d’avoir des effets limités.

Après tout, si une intelligence artificielle est capable de battre un champion de Go à plate couture, elle ne devrait avoir aucun mal à déjouer un tel système, non ?