Tesla hat bekannt gegeben, seine Autopilot-Sensoren nicht mehr mit Ultraschallsensoren, sondern nur noch mit dem Kamerasystem „Tesla Vision“ auszustatten. Damit macht der Autohersteller seine Ankündigung aus dem letzten Jahr wahr, den Autopilot künftig nur noch mit Kamerabildern zu speisen.
Tesla-Autopilot: Kamera vs. Sensor
Ursprünglich umfasste das Autopilot-Sensorsystem acht Kameras, ein nach vorne gerichtetes Radar und mehrere Ultraschallsensoren rund um die Fahrzeuge.
Die Umstellung auf das Tesla Vision genannte System bedeutet, dass der Autopilot nur noch eine kamerabasierte Bildverarbeitung verwendet und nicht mehr die Daten von Radargeräten.
Man könnte meinen, dass mehr Daten besser wären, Tesla jedoch ist der Auffassung, dass Straßen für Menschen entworfen wurden, die sie mit einem visuellen System navigieren – den natürlichen neuronalen Netzen in ihren Gehirnen. Demnach sei es am besten, dieses Konzept nur mit Kameras und künstlichen neuronalen Netzen nachzubilden und das System nicht durch Radardaten zu verunreinigen.
Diese Umstellung führte dazu, dass einige Autopilot-Funktionen in Fahrzeugen ohne Radar eingeschränkt wurden. Zum Beispiel hat der Autohersteller in den USA die Autosteer-Geschwindigkeit von Tesla-Vision-Fahrzeugen bis Mai dieses Jahres auf 75 Meilen pro Stunde begrenzt.
Keine Ultraschallsensoren mehr
Wie Electrek berichtet, geht der Elektro-Pionier nun einen Schritt weiter und ersetzt die Ultraschallsensoren mit der Kamera-Technologie (aus dem Englischen übersetzt):
„Heute machen wir den nächsten Schritt bei Tesla Vision, indem wir die Ultraschallsensoren (USS) aus dem Model 3 und dem Model Y entfernen. Wir werden diesen Roll-out in den nächsten Monaten weltweit mit dem Model 3 und dem Model Y fortsetzen, gefolgt vom Model S und dem Model X im Jahr 2023.“
Die Ultraschallsensoren wurden in erster Linie für die Erkennung von Objekten im Nahbereich bei Anwendungen wie Einparken und Kollisionswarnungen eingesetzt.
Tesla erklärt, wie seine neuronalen Netze die Sensoren ersetzen:
„Mit der Abschaffung des USS haben wir gleichzeitig unser visionäres Belegungsnetzwerk eingeführt, das derzeit in der Beta-Version des Full Self-Driving (FSD) eingesetzt wird, um die von USS generierten Eingaben zu ersetzen. Mit der heutigen Software ermöglicht dieser Ansatz dem Autopiloten eine hochauflösende räumliche Positionierung, eine größere Sichtweite und die Fähigkeit, Objekte zu erkennen und zu unterscheiden. Wie bei vielen Tesla-Funktionen wird sich auch unser Belegungsnetzwerk im Laufe der Zeit rasant weiterentwickeln.“
Auch diese Umstellung wird wohl wieder zu einigen Funktionseinschränkungen führen. Im Laufe der Zeit werden neue Software-Updates veröffentlicht, um auch automatisches Einparken, Herbeirufen und andere Funktionen mit dem neuen System zu ermöglichen.
Quelle Beitragsbild: Carter Baran via Unsplash