La NHTSA a lancé une enquête sur près de 2,9 millions de véhicules Tesla en raison de violations potentielles liées au système de conduite autonome Full Self-Driving (FSD). Des rapports évoquent des comportements dangereux, notamment des accidents causés par des feux rouges. Ce dossier soulève des questions majeures sur la sécurité routière.

### Enquête de la NHTSA sur les véhicules Tesla

La **National Highway Traffic Safety Administration** (**NHTSA**) des États-Unis a lancé une enquête sur près de 2,9 millions de véhicules **Tesla** en raison de violations potentielles des règles de sécurité routière liées à l’utilisation du système de **Conduite Autonome Complète** (**FSD**). Selon l’agence, le FSD pourrait avoir « induit un comportement du véhicule qui violait les lois de sécurité routière ».

### Comportements de conduite problématiques

La **NHTSA** a reçu six rapports dans lesquels un véhicule **Tesla** avec le FSD activé a « approché une intersection avec un feu rouge, a continué à traverser l’intersection contre le feu rouge et a ensuite été impliqué dans une collision avec d’autres véhicules à moteur dans l’intersection ». Quatre de ces accidents auraient entraîné au moins une blessure grave.

L’agence a également enregistré 18 plaintes et un rapport médiatique, qui allèguent qu’un **Tesla** fonctionnant avec le FSD a « échoué à rester arrêté pendant toute la durée d’un feu rouge, a omis de s’arrêter complètement ou a échoué à détecter et afficher correctement l’état du feu de circulation sur l’interface du véhicule ».

### Manque d’avertissements

Certains plaignants ont également signalé que le FSD « n’a pas fourni d’avertissements sur le comportement prévu du système à l’approche d’un feu rouge ». Cette situation est mise en lumière dans un rapport de **Reuters**.

Vous aimerez aussi :  Tesla Semi : des retours élogieux des camionneurs experts sur ce poids lourd électrique

### Réaction de Tesla

**Tesla** n’a pas encore commenté l’enquête, qui en est à sa phase préliminaire. Néanmoins, tout rappel potentiel pourrait s’avérer complexe, étant donné que les incidents signalés impliqueraient probablement des versions plus anciennes du FSD, appelées « Supervised », qui ont déjà été mises à jour.

### Améliorations récentes du FSD

La récente mise à jour V14.1 du FSD de **Tesla**, qui est actuellement déployée auprès des conducteurs, devrait offrir une gestion des voies, une gestion des intersections et une précision de conduite globalement améliorées, réduisant ainsi les chances de violations similaires. Il est important de noter que **Tesla** insiste sur le fait que le FSD est un système supervisé pour l’instant, et n’est donc pas encore autonome.

### Les dangers réels sur la route

Bien que les systèmes autonomes soient sous surveillance, les données de la **NHTSA** mettent en avant un danger bien plus important sur la route, causé par des erreurs humaines. L’agence a enregistré 3 275 décès en 2023 dus à la conduite distraite, causée par des activités telles que l’envoi de messages, des conversations téléphoniques ou l’ajustement de la navigation tout en conduisant manuellement. Il est également largement reconnu qu’un bon nombre de violations de la circulation ne sont pas signalées, en raison de leur fréquence et de leur omniprésence.

Mon avis :

L’enquête de la NHTSA sur près de 2,9 millions de Tesla pour des violations potentielles liées au système FSD souligne des préoccupations légitimes concernant la sécurité routière, avec plusieurs accidents recensés. Cependant, il est crucial de noter que cette technologie évolue, et des mises à jour récentes promettent d’améliorer la gestion des intersections, tandis que l’erreur humaine demeure la principale cause d’accidents.

Vous aimerez aussi :  Investisseurs : ce qu'ils attendent vraiment du marché et des tendances clés
Share.
Leave A Reply