Cybertruck-eigenaar eist miljoen dollar na crash en geeft falende Autopilot de schuld
In dit artikel:
Justine Saint Armour, die vorig jaar een gebruikte Tesla Cybertruck kocht, klaagt Tesla aan nadat ze in augustus met haar pick‑up in Texas tegen een betonnen afscheiding botste. Volgens de rechterlijke stukken schakelde ze Autopilot in op een snelweg met een Y-splitsing; waar de weg rechtsom moest afbuigen stuurde de software de truck rechtdoor, recht op de barrière met het diepe dal van de onderliggende weg als mogelijk gevolg. Ze zegt te hebben geprobeerd het systeem uit te zetten en zelf te sturen, maar te laat te zijn geweest. Ze eist een miljoen dollar voor letsel en schade.
In haar aanklacht verwijst Saint Armour niet alleen naar het incident zelf, maar bekritiseert ze ook technische keuzes van Tesla — bijvoorbeeld het ontbreken van lasersensoren en het uitsluitend vertrouwen op camera’s — en wijst ze naar leiderschap en marketingpraktijken van Elon Musk als gevaarlijk en misleidend. De zaak raakt een kernvraag over autonome systemen: Tesla’s Autopilot valt onder Level‑2‑assistentie, wat wettelijk vereist dat de bestuurder te allen tijde het voertuig superviseert en kan ingrijpen. Tegelijkertijd wekken merknamen als Autopilot en Full Self‑Driving bij veel gebruikers de indruk van zelfstandig rijden.
Terwijl in Nederland en Europa wetgeving en handhaving doorgaans de verantwoordelijkheid bij de bestuurder leggen zolang systemen Level‑2 blijven, biedt het Amerikaanse juridische speelveld met schadeclaims en juryrechtspraak meer ruimte voor aansprakelijkheidsprocedures op basis van misleiding. De uitkomst van deze zaak wordt daarom veelgezien als belangrijke testcase voor de auto‑industrie, zeker nu Tesla werkt aan volledig zelfrijdende voertuigen.