Et si les voitures sans conducteur étaient programmées pour nous tuer? - L'Express L'Expansion

source Et si les voitures sans conducteur étaient programmées pour nous tuer? - L'Express L'Expansion:

Les voitures autonomes pourraient envahir nos rues d'ici 2035. Mais l'arrivée de cette technologie soulève un vrai problème moral. Un véhicule pourrait-il sacrifier son occupant pour éviter un accident encore plus meurtrier?

Les voitures autonomes ne relèvent plus de la science-fiction. Elles sont une réalité. Le 5 octobre dernier, une C4 Picasso du groupe PSA a parcouru 580 km entre Paris et Bordeaux. Seule, sans pilote. Une première en France. Le marché de la voiture sans conducteur pourrait pourtant représenter plus de 500 milliards d'euros à l'horizon 2035, selon une récente étude. La révolution est donc probablement en marche
Faisons maintenant un saut dans l'avenir. Nous sommes en 2040. Vous êtes tranquillement installés à bord d'un véhicule autonome, gage d'une sécurité absolue. Quand soudain, un groupe de dix piétons se présente sur la route, face à vous. Votre voiture est lancée à 60km/h, le choc paraît inévitable. Deux options s'offrent alors à votre véhicule et à l'intelligence artificielle qui la pilote: 
Eviter les piétons en s'encastrant dans un mur, au risque de vous tuer. Où bien maintenir sa trajectoire, percuter les piétons et assurer votre sécurité. Que doit faire la voiture? Comment son intelligence artificielle doit-elle être programmée pour résoudre ce dilemme? Ici, considérations morales et technologiques ne font plus qu'un. 

L'opinion publique sera déterminante

Ce problème est loin d'être anecdotique. Il pourrait même conditionner l'avenir de cette technologie, selon le MIT Technology Review. Le chercheurs au CNRS Jean-Francois Bonnefon et plusieurs de ses camarades se sont donc penchés sur ce problème. 

Selon eux, l'opinion publique aura un rôle déterminant dans la programmation des véhicules autonomes. Les chercheurs se sont donc employés à la découvrir, en soumettant le dilemme suivant à plusieurs centaines de télé-travailleurs : En cas d'accident imminent, que doit faire une voiture autonome? Sauver son occupant ou dix piétons risquant d'être écrasés? 

"Prendre au sérieux la moralité algorithmique"

Au vu de l'enquête, la plupart des sondés estiment que les voitures autonomes devraient être programmées pour minimiser le risque de décès, quitte à tuer leurs occupants. Les gens seraient donc prêts à se sacrifier pour assure la survie du plus grand nombre? Pas si simple. En réalité, les participants à l'enquête "souhaitent que les gens utilisent des voitures programmées dans ce sens plus qu'ils ne comptent les conduire" eux mêmes. En clair, les sondés pensent d'abord à leur propre sécurité. Ils s'identifeint plus facilement aux piétons du problème. 
Au-delà de l'enquête, Jean-François Bonnefon et ses camarades souhaitent alerter notre société sur une question éthique qui va devenir de plus en plus forte à la faveur de l'explosion du marché de la voiture autonome. "Alors que nous sommes sur le point de nous doter de millions de véhicules sans conducteur; prendre au sérieux la moralité algorithmique n'a jamais été aussi urgent", écrivent-ils. 

'via Blog this'

Popular posts from this blog

L’AVIATION israélienne a simulé une attaque contre l’Iran

Les data centers de Google consomment plus de 16 milliards de litres d’eau par an