Google Home est maintenant armé, et dangereux

Alexander Reben, un artiste mordu de technologie, a développé une application afin de permettre à son Google Home de tirer des coups de feu avec un pistolet. La vidéo de l’exploit n’est pas passée inaperçue, loin de là.

Alexander Reben se définit lui-même comme un artiste et un roboticien dont le seul et unique objectif consiste à explorer l’humanité à travers le prisme de l’art et de la technologie. Il pense en effet que ces deux disciplines ne sont pas antagonistes et peuvent parfaitement se nourrir l’une l’autre.

Google Home

Très connu, l’artiste a exposé dans de nombreux lieux différents tels que le Vitra Design Museum, le MAK Museum Vianna ou encore l’IDFA.

Lorsque Google Home tire un coup de feu, la toile s’emballe

Diplômé du MIT, l’homme a également travaillé en collaboration avec la NASA ou l’UC Berkeley et il a donné en plus plusieurs TED tout en animant des ateliers au SXSW ou pour le compte de Google.

En parallèle, il lui arrive aussi de mener diverses expériences plus personnelles et c’est précisément le cas ici.

Fasciné par les assistants-domestiques, Alexander Reben a entrepris de modifier un Google Home afin de lui permettre de tirer des coups de feu. Pour ce faire, l’artiste roboticien n’a pas eu besoin d’aller chercher très loin et il a ainsi connecté son propre assistant à une station d’accueil robotisée sur laquelle reposait une arme de poing en s’appuyant sur une installation de fortune et un programme écrit par ses soins.

Une expérience soulevant de nombreuses questions éthiques

L’homme a ensuite défini une phrase clé afin d’être en mesure d’activer la station d’accueil à distance. Une fois la solution en place, il a immortalisé le premier tir de son Google Home par le biais d’une courte vidéo, une vidéo reprise depuis par la plupart des médias américains.

Très courte, la vidéo a bénéficié d’une importante visibilité depuis sa mise en ligne et elle a ainsi été vue plus de cent mille fois. Les réactions ne se sont évidemment pas fait attendre et si certains internautes ont salué la performance, d’autres l’ont fermement condamné.

Alexander Reben, de son côté, estime que cette vidéo sonne un peu comme un avertissement. Elle montre en effet que les intelligences artificielles n’ont pas la possibilité de distinguer le bien du mal. De son point de vue, il est donc primordial de ne pas se reposer uniquement sur elles pour nous guider et de ne pas lui laisser les clés de nos installations militaires.

YouTube video

4 réflexions au sujet de “Google Home est maintenant armé, et dangereux”

  1. Associer une commande vocale à une action n’a rien de compliqué (l’auteur l’a précisé lui-même) et à priori pas grand chose à voir avec l’intelligence artificielle. Joli coup de buzz néanmoins.

    Répondre
    • Google Assistant repose sur une IA. Si l’expérience ne représente aucune difficulté technique, elle avait surtout pour but de montrer qu’un programme n’est pas capable de comprendre la portée de ses actes et c’est pour cette raison qu’il est indispensable de ne pas utiliser l’IA à n’importe quelles fins.

      C’était le message qu’il souhaitait faire passer.

      Répondre
      • On met l’IA à toutes les sauces ces derniers temps, effectivement Google Assistant repose sur l’IA, mais jusqu’où, au jour d’aujourd’hui ?

        Si je lance une ligne de commande qui va déclencher un tir, va-t-elle comprendre la portée de ses actes ? Si je clic sur le bouton d’un navigateur qui va déclencher un tir, va-t-il comprendre la portée de ses actes ? Si j’appuie sur un bouton physique qui va déclencher un tir, va-t-il comprendre la portée de ses actes ? Non.

        On peut utiliser un couteau de cuisine pour cuisiner ou tuer, une camionnette pour se déplacer ou tuer, tout dépend de l’usage de ce que l’on fait des choses.

        Ce que je veux dire, c’est que dans l’exemple présent 1) je doute que le Google Home ait été modifié comme cela est indiqué 2) cela ne doit pas aller beaucoup plus loin que la reconnaissance d’une commande vocale en “dur”, qui va déclencher une commande en “dur” (IFTTT ? programme basique en Node.js) qui va à son tour activer un moteur ou un servo…

        On pourrait tout aussi bien associer une commande “prépare moi un café” qui déclenche un tir, ou une commande “déclenche un tir” qui allume une télévision.

        Bref, j’ai saisi que le but de l’auteur était de faire réagir (bonne intention), mais peut-on raisonnablement parler d’utilisation d’IA sur l’ensemble cette chaîne ? A mon sens, non. Toucher à la distinction du bien et du mal ? Toujours selon mon opinion, encore moins.

        Par contre le jour où les IA seront assez avancées pour disposer de leur propre libre arbitre, et une notion du bien et du mal leur sera propre (et probablement différente de la notre :)), en ayant la possibilité d’intervenir de leur propre chef ou de nous interdire de faire certaines actions, ce sera une autre histoire, qu’il convient d’anticiper.

        Répondre

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.