Les voitures autonomes de demain seront-elles programmées pour nous sacrifier en cas d’accident ?
Les voitures autonomes ne sont plus un mythe et elles sont même en passe de devenir réalité. Mieux, les autorités de nombreux pays se disent prêtes à les laisser circuler sur nos routes. Toutefois, si nous cédons le contrôle et le pilotage de nos propres voitures à des intelligences artificielles, alors ces dernières seront fatalement amenées à prendre des décisions difficiles, des décisions pouvant impliquer notre propre mort.
Et la question qui se pose, c’est évidemment de savoir si nous sommes prêts à les assumer. Le CNRS, le MIT et l’Université de l’Oregon se sont sérieusement penchés sur cette épineuse question.
Prenons une voiture autonome lambda, une voiture pilotée par une intelligence artificielle développée par une entreprise privée.
Les voitures autonomes devront fatalement prendre des décisions difficiles
Le véhicule se déplace en ville, avec une famille de trois personnes à son bord : un homme, une femme et un enfant. Il se trouve sur un boulevard dégagé et il roule donc au maximum de la vitesse autorisée, soit à 50 km/h. Tout va pour le mieux dans le meilleur des mondes.
La voiture arrive au niveau d’un feu rouge. Un camion est garé en double file devant le passage piéton. Au moment de le dépasser, un groupe de dix étudiants surgit de nulle part et se retrouve sur la voie.
Quel choix doit faire la voiture ? Doit-elle protéger ses passagers et sacrifier la vie des piétons ou dévier de sa route et tuer ses passagers ?
Des chercheurs travaillant pour le CNRS, le MIT et l’Université de l’Oregon ont posé cette question à un panel constitué de 2 000 américains.
Dans un premier temps, les personnes interrogées ont presque toutes opté pour le second scénario, arguant que le bien du plus grand nombre prévalait et ce même si un enfant se trouve dans le véhicule. Emouvant, n’est ce pas ? Certes, mais elles ont très vite changé d’avis lorsqu’elles ont pris conscience qu’elles pouvaient se retrouver à l’intérieur du véhicule autonome avec leur famille
Tout est une question de point de vue
Instinct de conservation oblige, elles ont alors totalement changé d’avis.
Difficile évidemment d’être surpris mais ce n’est pas terminé car les chercheurs responsables de l’étude leur ont ensuite demandé si elles seraient capables de faire l’acquisition d’un véhicule autonome disposé à les sacrifier pour le bien du plus grand nombre.
La plupart de ces personnes ont répondu par la négative, et ce même si ces véhicules sont beaucoup plus sûrs que les voitures traditionnelles.
Les constructeurs risquent donc de se retrouver dans une situation très compliquée lorsqu’ils devront intégrer la gestion de ce genre de dilemmes moraux à leurs intelligences artificielles.
Si vous voulez en savoir plus sur cette étude, alors vous pouvez vous rendre sur cette page.
Elle peux pas juste freiner lorsqu’elle double ? comme n’importe quel pilote lambda qui double sans vision ?
A quoi ça sert d’avoir une voiture autonome si elle se comporte comme un chauffard ???
est ce que le delit de fuite est programmé d’office aussi ?
Bien sûr, mais cela ne veut pas non plus dire qu’elle pourra s’arrêter à temps. Pas dans cette configuration en tout cas. Et la question, finalement, c’est de savoir ce que fera l’intelligence artificielle si elle doit choisir entre la vie de ses passagers et celle des piétons.
J’ai regardé la video. Et la question qui est posé dedans n’est pas la même que dans l’article autant pour moi.
Je pense que l’exemple est pas le bon. Demandé au gens si la voiture doit les tuer car elle a bruler un feu rouge ou parce que le piétons traverse au vert ( c’est pas du tout claire ) ça revient a demander “souhaitez vous mourir pour l’erreur d’un autre”.
Spéculation stupide. Jamais un constructeur ne construiera un véhicule qui sacrifierais ses passagers.
Sinon il ne se passerait pas longtemps avant que cette “fonction” ne soit détournée… Il est totalement absurde d’imaginer qu’il suffise de faire traverser quatre enfants dans le virage pour voir la voiture tomber dans le ravin… Personne ne voudrait voyager dans un tel modèle quand bien même au lieu de nous le vendre on nous paierais pour l’adopter…
Ah c’est bien la nature humaine, tant que ça concerne les autres il n’y a aucun problèmes.
On est tous des autres, que ça soit avec une voiture autonome ou conventionnel cela peut arriver.
C’est facile de spéculer assis devant nos pc mais on ne sait pas comment nous allons réagir si nous devions nous retrouver dans une situation similaire.
La voiture doit protéger ses passagers. Traverser au feu vert pour les piétons n’a jamais été un synonyme de sécurité absolue. Surtout si des obstacles tel que le camion gênent leur visibilité du comportement des véhicules susceptibles d’arriver au carrefour. Reste à trouver un moyen pour intégrer ça dans l’éducation des enfants et des chiens d’aveugle.
Je ne supporte déjà pas que mon ordi décide pour moi, donc je ne risque pas d’utiliser un tel véhicule :))))