Tesla fait face à un nouveau défi juridique aux États-Unis après qu'un conducteur texan a déposé une plainte affirmant que le logiciel de conduite entièrement autonome (FSD) de l'entreprise a provoqué un accident impliquant un Cybertruck.
La plainte, qui réclame plus d'un million de dollars de dommages et intérêts, soulève des questions sur la technologie d'aide à la conduite de Tesla, son discours marketing, et même sur le rôle du PDG Elon Musk dans les décisions de conception des produits.
Alors que les autorités de réglementation et les tribunaux continuent d'examiner les allégations concernant la technologie autonome de Tesla, cette affaire pourrait constituer un autre moment important dans le débat actuel sur les systèmes de conduite autonome.

L'accident du Cybertruck à l'origine du procès
Selon les documents déposés auprès du tribunal de district du comté de Harris, l'accident s'est produit en août 2025 sur une autoroute de Houston.
La plaignante, Justine Saint Amour, affirme qu'elle conduisait son Tesla Cybertruck avec la conduite entièrement autonome activée lorsque l'autoroute s'est divisée à hauteur d'un viaduc. Au lieu de suivre la courbe, le véhicule aurait continué tout droit et percuté une barrière en béton.
La plainte allègue que la conductrice a tenté de reprendre le contrôle du véhicule, mais que l'impact s'est produit avant qu'elle ne puisse manœuvrer.
Saint Amour réclame désormais plus d'un million de dollars de dommages et intérêts, arguant que le logiciel de Tesla n'a pas permis de gérer les conditions routières en toute sécurité.

Pourquoi la plainte vise directement Elon Musk
L'un des aspects inhabituels de cette action en justice est qu'elle vise directement la direction de Tesla.
La plainte accuse Tesla de :
- Embaucher et maintenir Elon Musk en poste de PDG de manière négligente
- Lui permettre d'influencer les décisions de conception des produits
- Ignorer les recommandations d'ingénierie concernant la technologie des capteurs
Selon le document déposé, Musk aurait rejeté les suggestions des ingénieurs d'inclure des capteurs LiDAR ou radar, choisissant plutôt de s'appuyer principalement sur des systèmes basés sur des caméras.
Les avocats du plaignant affirment que cette décision a accru les risques pour la sécurité et a contribué à l'accident.
Les systèmes Autopilot et de conduite entièrement autonome de Tesla font l'objet d'un examen minutieux.
Bien que les véhicules Tesla obtiennent régulièrement d'excellentes notes en matière de sécurité en cas de collision, les logiciels d'aide à la conduite de l'entreprise — Autopilot et conduite entièrement autonome (FSD) — font l'objet d'un examen de plus en plus minutieux.
Le système Autopilot de Tesla offre des fonctionnalités telles que le régulateur de vitesse adaptatif, l'assistance au maintien de voie et les changements de voie automatiques. La conduite entièrement autonome complète l'Autopilot en y ajoutant des capacités supplémentaires comme la navigation en ville, la reconnaissance des feux de circulation et la gestion des intersections complexes.
Malgré leur nom, ces deux systèmes sont officiellement classés comme technologies d'aide à la conduite de niveau 2 , ce qui signifie que les conducteurs doivent rester pleinement attentifs et prêts à reprendre le contrôle à tout moment.
Les critiques font valoir que des appellations comme « Autopilot » et « Conduite entièrement autonome » peuvent donner aux conducteurs l'impression que le véhicule est capable de conduite totalement autonome, alors que ces systèmes nécessitent toujours une supervision constante.
Les autorités de réglementation enquêtent sur le système Autopilot et le FSD de Tesla.
Les autorités réglementaires s'intéressent de plus en plus à la manière dont Tesla commercialise sa technologie d'aide à la conduite.
La National Highway Traffic Safety Administration (NHTSA) enquête actuellement sur environ 2,88 millions de véhicules Tesla équipés du logiciel Autopilot ou Full Self-Driving après avoir lié ces systèmes à des dizaines d'incidents, dont de multiples accidents.
Fin 2025, un juge californien a statué que le discours marketing de Tesla concernant la conduite entièrement autonome pouvait être considéré comme « manifestement faux et contrefactuel », intensifiant le débat sur la question de savoir si cette image de marque pouvait induire les conducteurs en erreur.
Tesla ajuste discrètement la marque Autopilot et FSD
Face à une pression réglementaire croissante, Tesla a déjà commencé à modifier la façon dont elle décrit son logiciel.
L'entreprise a commencé à utiliser l'appellation « Conduite entièrement autonome (supervisée) » dans certains supports marketing afin de préciser que les conducteurs doivent rester attentifs.
Tesla a également dû faire face à des contestations judiciaires liées au nom Autopilot dans certaines juridictions, ce qui a poussé l'entreprise à repenser la manière dont ses fonctionnalités avancées d'aide à la conduite sont présentées aux consommateurs.
Le paradoxe de la technologie de conduite autonome de Tesla
Malgré les difficultés juridiques, Tesla continue de publier des mises à jour améliorant son logiciel d'aide à la conduite.
L'entreprise publie régulièrement des démonstrations montrant la conduite entièrement autonome détectant les dangers, évitant les collisions et naviguant dans des environnements routiers complexes à des vitesses autoroutières.
Dans de nombreuses situations, le système fonctionne de manière impressionnante. Cependant, les cas limites restants — des défaillances rares mais potentiellement dangereuses — sont précisément ce qui crée les plus grands risques juridiques pour les constructeurs automobiles développant des technologies autonomes.
Pour Tesla, chaque incident soulève la même question : lorsqu'un système d'aide à la conduite commet une erreur, qui est responsable ?
Pourquoi ce procès pourrait être important
Le procès concernant l'accident du Cybertruck pourrait finalement reposer sur une question bien connue dans les affaires d'assistance à la conduite : celle de savoir si le conducteur était pleinement attentif lorsque le système était actif.
Cependant, cette affaire soulève également un argument juridique plus large : la stratégie de marque et la philosophie de conception de Tesla pourraient elles-mêmes contribuer aux risques pour la sécurité.
Si les tribunaux commençaient à accepter cet argument, les conséquences pourraient aller bien au-delà de ce seul accident.
Cela pourrait redéfinir la manière dont Tesla commercialise ses logiciels, la façon dont les organismes de réglementation évaluent les systèmes avancés d'aide à la conduite et la manière dont la responsabilité est attribuée dans les futurs accidents impliquant la technologie autonome.
Pour l'instant, l'affaire n'en est qu'à ses débuts. Mais à mesure qu'elle progressera, elle pourrait constituer un nouveau chapitre important de la bataille juridique qui se dessine autour des voitures autonomes.
