Peut-on vraiment construire des voitures autonomes sans risquer des vies ?

Photo de Benoit Charette
Par Benoit Charette
Peut-on vraiment construire des voitures autonomes sans risquer des vies ?

Le parcours des voitures autonome encore à ses premiers balbutiements est déjà marqué par quelques incidents. Cet homme en Floride qui a frappé un camion dans sa Tesla alors qu’il circulait à l’aide de la conduite autonome. Ce taxi autonome d’Uber qui a frappé une cycliste de 49 ans à Tempe, en Arizona en mars dernier. Ce dernier incident a lancé une onde de choc partout dans le monde des développeurs de véhicules autonomes, Uber a cessé son projet pilote en Arizona et limité ses projets dans d’autres états. Les experts se sentent maintenant mal à l’aise de tester des voitures autonomes sur les voies publiques après de tels incidents. Mais arriverons-nous un jour à garantir un taux de réussite de 100%. Volvo a fait ce même genre de promesse en affirmant qu’en 2020 aucune personne prenant place à bord d’un produit Volvo ne sera tué lors d’un accident. Il faut se rendre compte à quel point cette affirmation est lourde de conséquence et franchement irréaliste. La perfection n’est pas de ce monde et si une Volvo 2020 tombe en bas d’un ravin avec les occupants à bord, promesse ou pas, je ne crois pas que le résultat final sera différent.

Les fabricants de voitures autonomes partent de la même prémisse en affirmant que 94% des accidents sont causés par des erreurs humaines et que les radars, sonars et caméras ne feront pas les mêmes erreurs. La preuve a été faite que ce n’est pas vrai. Il existe certaines situations que les ordinateurs ne traitent pas et les systèmes aussi évolués soient-ils ne sont pas encore parfait et le seront-ils vraiment un jour, comment en être certain. L’École d’informatique de l’Université de Windsor en Ontario, a déclaré que les systèmes de conduite autonome exigent une fiabilité bien supérieure à ce qui définit traditionnellement l’intelligence artificielle. Au départ, l’intelligence artificielle doit-être capable d’égaler la performance d’un humain. Donc si cette intelligence n’est seulement que l’égal des humains, le taux de réussite ne sera pas plus élevé qu’un humain au volant. Il faut donc accoucher d’une super intelligence artificielle qui devancera de loin les capacités humaines et tous les experts en informatique vous diront que nous sommes encore assez loin de ce but. Pour le moment on place des « conducteurs de sécurité » dans les voitures qui doivent prendre le contrôle dans une situation dangereuse. Or, autant dans le cas du conducteur de la Tesla qui regardait une vidéo au moment de l’accident que du conducteur d’Uber qui n’avait pas les yeux sur la route au moment de l’impact avec la cycliste, les conducteurs sont distraits au volant d’une voiture autonome. Et les études prouvent que plus une voiture est autonome, plus le conducteur sera distrait en se fiant entièrement à l’intelligence artificielle.

En attendant, nous mettons des vies humaines en jeu en se fiant à des systèmes qui ne sont pas prêts à prendre la relève d’un être humain derrière le volant.

 

 

Partager cet article
S'inscrire
Me notifier des
guest
1 Commentaire
plus ancien
plus récent plus voté
Inline Feedbacks
Voir tous les commentaires
Daniel Pelletier
Daniel Pelletier
5 années

Ce qui compte au-delà des perceptions est le nombre d’accident/blessure/mortalité par millier de km parcouru. À ce chapitre, je crois que la technologie va dépasser très vite les conducteurs humains. Avec tous les km de tests déjà effectués par des véhicules autonomes, on parle de 2 ou 3 morts alors qu’il y en a facilement une dizaine par semaine juste au Québec. Ce n’est pas encore parfaitement au points mais déjà il y a des systèmes de freinage automatique et autre protection et dans quelques années, les système complètement automatiques vont supplanter la conduite manuelle. Le progrès ça ne s’arrête pas !