Modifié

La programmation des voitures autonomes questionne l'éthique

Une voiture autonome développée par Google. [AP/Keystone - Tony Avelar]
La programmation des voitures sans conducteur pose des questions éthiques / Le Journal du matin / 8 min. / le 25 août 2016
Les voitures sans conducteur devraient se démocratiser d'ici 5 à 10 ans. Mais la question de la responsabilité en cas d'accident n'est pas réglée. La programmation, notamment, pose des questions éthiques.

Sur quelles bases morales faut-il programmer les véhicules autonomes? Par exemple, dans le cas où les freins lâchent: si elle continue tout droit, la voiture s'écrase et tue le passager. Si elle tourne, elle fauche un piéton. Qui faut-il sauver en priorité: le passager ou le piéton?

Une machine peut être amenée peu à peu à prendre des décisions morales.

Jean-Pierre Bonnefon, directeur de recherche au CNRS et l'un des concepteurs de Moral machine

Pour Jean-Pierre Bonnefon, directeur de recherche au CNRS et l'un des concepteurs de Moral machine, un programme qui met le joueur devant des dilemmes inextricables, interrogé dans le Journal du Matin de la RTS, il faudra un jour programmer des voitures pour qu'elles soient capables de prendre ce genre de décisions. "Une machine peut être amenée peu à peu à prendre des décisions morales", estime-t-il.

>> Lire : Une voiture autonome doit-elle protéger ses passagers ou l'enfant qui traverse?

L'exemple peut être mis en parallèle avec celui du don d'organes, pour lequel des règles objectives de décision prévalent (qui a le plus de chances de supporter la greffe, qui a été mis sur la liste en premier, etc.), et peuvent être prises par des algorithmes.

Des réactions ni rationnelles, ni conscientes

"Si vous prenez une décision rationnelle, vous rentrez dans la voiture pour protéger vos passagers. Mais dans l'urgence de l'accident, vous essayez de l'esquiver. Nos réactions ne sont pas toujours rationnelles, ni conscientes", analyse François Dermange, professeur d'éthique à l'Université de Genève. Pour lui, "il n'y a pas d'évidence sur ce qu'est l'éthique, et encore moins sur comment la programmer".

Ainsi, il estime que la décision objective qui existe avec le don d'organe ne peut pas s'appliquer à l'accident d'un véhicule autonome. "La voiture vous sacrifie car vous avez 60 ans et la personne en face 25? Ce n'est pas possible".

Il n'y a pas d'évidence sur ce qu'est l'éthique, et encore moins sur comment la programmer.

François Dermange, professeur d'éthique à l'Université de Genève

Doit-on alors renoncer à programmer ces véhicules? "Non, mais on doit réfléchir à la responsabilité juridique, car on est obligés de trouver des critères juridiques, moraux ou pas. Ce qui me paraît très ambigü, c'est de décider pour le passager ce qui est éthique".

Eliminer les "erreurs humaines"

Selon certaines études, les voitures autonomes vont pourtant éliminer 90% des accidents liés à "l'erreur humaine". "On évite des comportements irrationnels, on aménage les transports pour qu'il y ait le moins d'accidents possibles. C'est très bien si l'on y arrive. Mais cela n'a rien à voir avec l'éthique, on parle là de sécurité et de responsabilité juridique", souligne François Dermange.

>> Les chauffeurs Uber seront éliminés par les taxis sans pilote. Les explications de Fabrice Gaudiano :

La société Uber teste déjà des voitures autonomes. [Keystone - Jared Wickerham]Keystone - Jared Wickerham
Les voitures autonomes appelées à remplacer les chauffeurs Uber / Nota Bene / 2 min. / le 25 août 2016

jvia

Publié Modifié

Première mondiale à Singapour

Le premier taxi sans chauffeur a effectué jeudi un trajet-test dans un quartier d'affaires de Singapour. Le lancement de ce service est prévu pour 2018.

Les six taxis électriques de la start-up nuTonomy roulent dans une zone de quatre kilomètres carrés, avec des endroits désignés pour prendre et déposer des passagers. Les courses doivent être réservées via l'application de la société basée aux Etats-Unis.

Pour ce premier test public, un ingénieur était toutefois assis derrière le volant pour contrôler le système et prendre le contrôle si nécessaire.