Abstract red and black background with a faded chevron coming in from the left and words Tech Talk with Magna

Die Letzten 10 % von ADAS: Warum die Härtesten Herausforderungen Noch vor uns Liegen

In den vergangenen zehn Jahren haben sich Fahrerassistenzsysteme (ADAS) von Nischenfunktionen zu selbstverständlichen Ausstattungsmerkmalen entwickelt. Adaptive Geschwindigkeitsregelung, Spurzentrierung, automatisiertes Parken und Stauhilfe sind nun in Fahrzeugen in mehreren Segmenten zu finden, nicht nur in Luxusmodellen.

Der Fortschritt ist stetig, doch die nächste Entwicklungsphase wird nicht mehr demselben Muster folgen. Mit zunehmender Leistungsfähigkeit von ADAS wird jeder weitere Schritt schwieriger, kostspieliger und komplexer zu validieren. Die eigentliche Herausforderung besteht nicht darin, neue Funktionen hinzu-zufügen – sondern die letzten 10 % der realen Fahrsituation zu beherrschen, die Systeme bislang daran hindern, konstant mit hoher Sicherheit zu funktionieren.

Genau in diesen letzten 10 % liegt die härteste Arbeit, die der Branche noch bevorsteht.

A green SUV near a cyclist on a street with ADAS capabilities highlighting potential danger. Motion blur conveys a sense of urgency and speed.

Was die „letzten 10 %“ tatsächlich bedeuten

Die meisten heutigen ADAS-Plattformen funktionieren zuverlässig unter strukturierten, vorhersehbaren Bedingungen: klare Spurmarkierungen, mäßiger Verkehr, gute Sicht. Schwieriger wird es in Situationen, die Entscheidungen unter Unsicherheit erfordern.

Einige Beispiele:

  • Ein kleines Trümmerteil in der Dämmerung auf einer unbeleuchteten Straße
  • Ein Fußgänger, der mit unklarer Absicht den Bordstein verlässt
  • Eine nicht markierte Baustelle mit wechselnden Fahrspuren
  • Ein Radfahrer, der hinter einem geparkten LKW hervorkommt
  • Ein liegengebliebenes Fahrzeug in einem Tunnel

Diese Szenarien sind nicht deshalb schwierig, weil Sensoren Objekte nicht erkennen können, sondern weil das System Kontext verstehen, Verhalten vorhersagen und auf Basis unvollständiger Informationen sichere Entscheidungen treffen muss. Menschen tun das instinktiv. Für automatisierte Systeme gehört es nach wie vor zu den komplexesten Herausforderungen der Fahrzeugentwicklung.

Die Leistungsfähigkeit in diesen Fällen zu verbessern, ist nicht einfach eine Frage höherer Auflösung oder zusätzlicher Sensoren. Es erfordert einen stärker integrierten Ansatz bei Wahrnehmung, Entscheidungsfindung und Validierung.

Mehr Sensoren allein schließen die Lücke nicht

Heutige ADAS-Architekturen kombinieren in der Regel Kameras, Radarsensoren und Ultraschall mit thermischer Sensorik oder Lidar in bestimmten Anwendungen. Jede Methode hat Stärken und Schwächen. Kameras liefern detailreiche Bilder, stoßen jedoch bei schwachem Licht an ihre Grenzen. Radar funktioniert zuverlässig bei schlechtem Wetter, bietet jedoch weniger präzise Klassifizierung. Thermische Sensoren erkennen Wärmesignaturen auch jenseits der Scheinwerferreichweite, müssen aber im Zusammenspiel mit anderen Daten interpretiert werden.

Zusätzliche Sensoren können die Abdeckung verbessern, erhöhen jedoch zugleich Systemkosten, Komplexität und Datenvolumen. Ab einem gewissen Punkt verlagert sich die Herausforderung vom „Mehr sehen“ hin zu „Mehr verstehen“.

Deshalb richtet sich der Fokus zunehmend auf eine engere Integration der verschiedenen Sensortechnologien, anstatt jeden Sensor als eigenständiges Subsystem zu betrachten. Wenn Daten verschiedener Modalitäten intelligent kombiniert werden, kann das System auch dann zuverlässig arbeiten, wenn einzelne Eingangsdaten beeinträchtigt sind.

Dieser Wandel hin zur früheren und tieferer Sensorfusion ist eng mit grundlegenden Veränderungen der Fahrzeugarchitektur verbunden. Zentralisierte Rechenplattformen und leistungsfähigere Netzwerke ermöglichen es, umfangreichere Datenströme gemeinsam zu verarbeiten, anstatt lediglich vereinfachte Objektlisten zwischen separaten Modulen auszutauschen. Moderne KI- und Machine-Learning--basierte Wahrnehmungs- und Fahrstrategien erlauben eine präzisere, universellere und intelligentere Interpretation der Umgebung.

Das Ergebnis ist ein vollständigeres und intelligenteres Bild der Fahrzeugumgebung und der Verkehrssituation – und damit eine bessere Chance, auch jene Grenzfälle zu beherrschen, die bislang noch zu Systemabbrüchen führen.

Der eigentliche Engpass ist die Validierung

Auch wenn sich Wahrnehmung und Sensorfusion weiter verbessern, tritt eine andere Einschränkung immer deutlicher zutage: der Nachweis, dass ein System sicher genug für den Serieneinsatz ist.

Traditionelle Sicherheitskonzepte basieren auf deterministischer, regelbasierter Software, bei der sich jeder Entscheidungsweg nachvollziehen und verifizieren lässt. Moderne ADAS-Systeme stützen sich zunehmend auf maschinelle Lernmodelle, die komplexe Sensordaten interpretieren und probabilistische Entscheidungen treffen. Diese Ansätze können in mehrdeutigen Situationen überlegen sein, lassen sich jedoch mit konventionellen Methoden deutlich schwerer validieren.

Dadurch entsteht eine Lücke zwischen dem, was unter kontrollierten Bedingungen demonstriert werden kann, und dem, was für den realen Einsatz zertifizierbar ist.

Um diese Lücke zu schließen, verlagern sich Entwicklungsprozesse zunehmend in Richtung großskaliger virtueller Tests und Simulationen. Software-in-the-Loop- und cloudbasierte Validierungsumgebungen erlauben es, tausende Szenarien parallel zu bewerten – lange bevor die Hardware finalisiert ist. Schwachstellen können so früher erkannt, schneller adressiert und für regulatorische Freigaben erforderlichen Nachweise systematisch aufgebaut werden.

Ohne eine solche skalierbare Validierung wird der Fortschritt bei ADAS weniger durch die Leistungsfähigkeit der Sensorik begrenzt sein als durch die Fähigkeit, Zuverlässigkeit belastbar nachzuweisen.

Vom Feature-Wachstum zu Systemdenken

Die nächste Phase von ADAS wird nicht durch die Anzahl der Sensoren oder die Länge der Feature-Liste definiert sein. Entscheidend wird sein, wie gut das Gesamtsystem zusammenspielt – Sensorik, Rechenplattform, Software und Validierung –, um auch in schwer vorhersehbaren Situationen eine konsistente Leistung zu liefern.

Die letzten 10 % zu schließen hat weniger mit spektakulären Durchbrüchen zu tun als mit ingenieurmäßiger Disziplin. Es erfordert Architekturen, die eine tiefere Datenintegration ermöglichen, Entwicklungsprozesse, die eine massive Skalierung der Validierung erlauben, und einen systemischen Sicherheitsansatz von Beginn an.

Diese Arbeit wird darüber entscheiden, wie schnell sich ADAS von kontrollierten, klar definierten Szenarien hin zu zuverlässigen, serienreifen Lösungen für den breiten Markt entwickeln.

*Dieses Dokument wurde unter menschlicher Aufsicht mit Microsoft Translator übersetzt.

Head shot of Lutz Kuehnke, Vice President, Technology Strategy and Core, Radar, Magna Electronics

Lutz Kuehnke

Lutz Kuehnke hat an der Universität Hannover, Deutschland, in Elektrotechnik promoviert und verfügt über mehr als 20 Jahre Erfahrung in der Automobilindustrie mit einem besonderen Fokus auf ADAS und Produktverantwortung. Bei Magna ist er Vice President Technology Strategy and Core, Radar, und verantwortet die globale Engineering-Strategie und Innovation für das ADAS-Produktportfolio des Unternehmens.

We want to hear from you

Send us your questions, thoughts and inquiries or engage in the conversation on social media.

Verwandte Stories

Ein Neuer Standard für Nachhaltigen Kfz-Schaumstoff 

Blog

Vom Spiegel zur Sicherheitsplattform im Direkten Sicht-Feld

Artikel

5 Nachhaltige Materialien, die die Nächste Fahrzeug-Generation Prägen

Blog

Cybersecurity Rückt an die Spitze der Smart Manufacturing

Artikel

Verbunden bleiben

Bleiben Sie informiert und erhalten Sie News & Stories in Echtzeit in Ihren Posteingang geliefert.