Tesla's Robotaxi's zorgen voor meer ongelukken dan mensen, dat is ook een probleem voor Nederland
In dit artikel:
Amerikaanse verkeerswaakhond NHTSA concludeert dat autonome Tesla-taxi’s veel vaker schade veroorzaken dan menselijke bestuurders: een Tesla “Cybertaxi” botst gemiddeld eens per 88.513 kilometer, tegenover eens per 804.672 kilometer bij mensen — bijna tien keer zo vaak. Cruciaal is dat die botsingen plaatsvinden terwijl er wél een mens toezicht houdt; de combinatie mens-plus-software levert hier dus geen veiligheidstoename op. Volgens de rapportage grijpt de zogenoemde safety monitor niet vaak genoeg in, en zonder toezicht zouden de incidenten vermoedelijk nog vaker voorkomen.
Tesla zelf zou bij veel crashes aangeven niet te weten wat er precies is gebeurd, ondanks camera- en sensordata. Dat contrasteert met concurrenten als Waymo, die bij ongelukken gedetailleerder uitleg geven over oorzaken. Ook Waymo is echter niet onfeilbaar: in Santa Monica (Californië) reed een van diens robotaxi’s onlangs een kind aan vlakbij een school. Waymo meldt dat het voertuig het kind wel detecteerde maar remde van circa 30 km/u tot ongeveer 10 km/u vóór aanraking, wat vragen oproept over gekozen rijsnelheid en defensief gedrag op locaties met veel voetgangers.
De aanrijdingen leiden tot herhaalde onderzoeken door toezichthouders om te beoordelen of autonome taxi’s veilig genoeg zijn voor regulier verkeer. Tegelijkertijd staat Nederland in de belangstelling: Tesla werkt met de RDW aan een mogelijke vrijstelling voor de ‘Supervised’ variant van Full Self‑Driving (FSD) op Nederlandse wegen. De RDW zou volgende maand een besluit nemen. Een Nederlandse goedkeuring zou niet meteen Europa-breed vrij baan geven, maar vormt wel een eerste stap die door andere lidstaten kan worden overgenomen en het pad kan effenen voor vergelijkbare systemen van andere fabrikanten.
Belangrijke nuance: Tesla-trainingsdata zijn erg rijk aan Nederlandse situaties omdat veel Teslas hier rondrijden op een relatief klein oppervlak. Fabrikanten stemmen AI‑modellen vaak af op specifieke testomgevingen; goede prestaties in een afgebakende test betekenen niet automatisch dat dezelfde software overal even veilig werkt. Mocht de RDW akkoord gaan, dan blijven vragen over transparantie, regionale generaliseerbaarheid van de systemen en de rol van menselijke toezichthouders urgent — zeker zolang voertuigen onder supervisie al aanzienlijk meer ongevallen veroorzaken dan mensen.