Heutige ADAS-Architekturen kombinieren in der Regel Kameras, Radarsensoren und Ultraschall mit thermischer Sensorik oder Lidar in bestimmten Anwendungen. Jede Methode hat Stärken und Schwächen. Kameras liefern detailreiche Bilder, stoßen jedoch bei schwachem Licht an ihre Grenzen. Radar funktioniert zuverlässig bei schlechtem Wetter, bietet jedoch weniger präzise Klassifizierung. Thermische Sensoren erkennen Wärmesignaturen auch jenseits der Scheinwerferreichweite, müssen aber im Zusammenspiel mit anderen Daten interpretiert werden.
Zusätzliche Sensoren können die Abdeckung verbessern, erhöhen jedoch zugleich Systemkosten, Komplexität und Datenvolumen. Ab einem gewissen Punkt verlagert sich die Herausforderung vom „Mehr sehen“ hin zu „Mehr verstehen“.
Deshalb richtet sich der Fokus zunehmend auf eine engere Integration der verschiedenen Sensortechnologien, anstatt jeden Sensor als eigenständiges Subsystem zu betrachten. Wenn Daten verschiedener Modalitäten intelligent kombiniert werden, kann das System auch dann zuverlässig arbeiten, wenn einzelne Eingangsdaten beeinträchtigt sind.
Dieser Wandel hin zur früheren und tieferer Sensorfusion ist eng mit grundlegenden Veränderungen der Fahrzeugarchitektur verbunden. Zentralisierte Rechenplattformen und leistungsfähigere Netzwerke ermöglichen es, umfangreichere Datenströme gemeinsam zu verarbeiten, anstatt lediglich vereinfachte Objektlisten zwischen separaten Modulen auszutauschen. Moderne KI- und Machine-Learning--basierte Wahrnehmungs- und Fahrstrategien erlauben eine präzisere, universellere und intelligentere Interpretation der Umgebung.
Das Ergebnis ist ein vollständigeres und intelligenteres Bild der Fahrzeugumgebung und der Verkehrssituation – und damit eine bessere Chance, auch jene Grenzfälle zu beherrschen, die bislang noch zu Systemabbrüchen führen.