Modifié

Les voitures autonomes misent de plus en plus sur les caméras

Automobile: l'autonomie va poser des questions de standards
Automobile: l'autonomie va poser des questions de standards / 19h30 / 2 min. / le 18 septembre 2017
Pour pouvoir relever le défi des crash tests, les voitures autonomes doivent encore muscler leur vision électronique. Mathieu Salzmann, chercheur à l'EPFL fait le point sur les techniques utilisées pour parvenir à égaler l'oeil humain.

Les premiers crash tests de véhicules autonomes montrent que ces véhicules ne sont pas encore la panacée en matière de sécurité. L'intelligence artificielle peine notamment à égaler la vision humaine.

Mathieu Salzmann, chercheur à l'EPFL dans la vision par ordinateur, fait le point sur la progression technique des caméras et des logiciels de reconnaissance visuelle.

RTSinfo: Quand pensez-vous que les voitures seront suffisamment autonomes pour pouvoir choisir par exemple entre plusieurs vies à sauver?

Mathieu Salzmann: C'est encore assez lointain. Les gens ont des attentes élevées envers les voitures autonomes, en pensant qu'elles seront meilleures que les humains, mais il ne faut pas rêver. Concevoir un véhicule qui serait juste un peu moins bon qu'un humain prendra encore une bonne dizaine d'années. En étant optimiste.

Pourront-elles alors se passer complètement de conducteur?

Presque. On considère qu'il existe cinq niveaux d'autonomie où, pour le dernier, le véhicule est capable de réagir sans aucune intervention humaine sur toutes les routes. On estime que la voiture autonome pourrait atteindre le niveau quatre, c'est-à-dire la conduite sans intervention humaine sur certaines routes, en 2025.

Quelles sont les capacités techniques des caméras vidéos utilisées, peuvent-elles déjà par exemple faire la différence entre un gros chien et un enfant?

Oui, on commence à avoir de bons algorithmes. Mais ils ne sont pas encore parfaits. La difficulté réside surtout dans la conduite de nuit ou dans le brouillard. La nuit, il est facile de repérer les voitures avec des phares allumés, mais c'est plus difficile pour les piétons. Mais nous commençons à obtenir des choses assez jolies même quand les conditions changent.

Va-t-on à votre avis vers une plus grande utilisation de la vidéo ou vers une multiplication des capteurs comme des radars ou des lasers?

Avant, on cherchait à combiner différents capteurs, mais j'ai l'impression qu'aujourd'hui, on fait plutôt de gros efforts sur l'utilisation de la vidéo. Nvidia, par exemple, un gros fournisseur de cartes graphiques et de techniques d'informatique visuelle table beaucoup sur la vidéo et commence à obtenir de bons résultats. La vidéo présente l'avantage d'être rapide comparée à d'autres capteurs et après tout, c'est assez naturel qu'elle s'impose puisque c'est ce que nous utilisons en tant qu'humain.

Quels sont encore les gros défis à résoudre aujourd'hui?

Nous voulons améliorer l'estimation des distances et mieux prédire les intentions d'une personne. Cela passe essentiellement par le machine learning. Nous avons aujourd'hui beaucoup de données disponibles et nous faisons beaucoup d'efforts pour entraîner nos algorithmes.

Julie Conti

Publié Modifié