Abstract red and black background with a faded chevron coming in from the left and words Tech Talk with Magna

Maschinen das Sehen Lehren: Warum Sensorfusion einen Systemebenen Ansatz Erfordert

Jahrelang wurde der Fortschritt bei fortschrittlichen Fahrerassistenzsystemen (ADAS) vor allem durch Verbesserungen einzelner Sensoren vorangetrieben. Hochauflösende Kameras. Radar mit größerer Reichweite. Präziserer Lidar.

Jede Verbesserung brachte ihre Fortschritte.

Doch die Optimierung einzelner Sensoren im Verbund bringt nur begrenzte Ergebnisse. Mit der Weiterentwicklung der ADAS-Funktionen von einfachen Warnungen hin zu Echtzeitinterventionen, etwa bei automatischen Notbremsungen, Spurzentrierung und Autobahnhilfe, verschob sich die eigentliche Herausforderung. Es geht nicht mehr nur darum, wie gut jeder Sensor für sich allein funktioniert, sondern darum, wie intelligent sie zusammenarbeiten.

In vielerlei Hinsicht geht es bei der Gestaltung eines ADAS-Systems darum, Maschinen das Sehen beizubringen. Und die menschliche Wahrnehmung liefert dabei eine wichtige Lektion: Bewusstheit entsteht nie aus nur einer einzigen Eingabe.

Close-up eye showing a futuristic technology data.

Wenn Blendung die Sicht einschränkt, verlassen wir uns auf räumliches Bewusstsein und Erinnerung. Wenn die Sicht im Nebel nachlässt, passen wir uns an, basierend auf Kontextinformationen. Wahrnehmung ist inhärent kollaborativ – mehrere Eingaben werden gemeinsam interpretiert, um ein einheitliches Bild der Umwelt zu schaffen.

Damit ADAS dieses Maß an Zuverlässigkeit erreicht, muss deren Wahrnehmungs-system auf einer zentraleren, einheitlichen Architektur basieren, die KI-gesteuerte Fusion anstelle isolierter Sensordatenströme unterstützt.

Die Grenzen fragmentierter Sensorik

Frühe ADAS waren meist um unterschiedliche Sensorikbereiche herum aufgebaut. Kamera, Radar und Lidar operierten innerhalb weitgehend unabhängiger Verarbeitungspipelines, häufig mit separaten Recheneinheiten und Software-Stacks.

Diese Architektur war wirksam für erste Generationen von Funktionen. Doch mit steigenden Leistungsanforderungen – besonders bei Echtzeit-Objektklassifikation und Eingriffen – wurde die Fragmentierung zum Engpass.

Wenn Sensoren in Silos arbeiten, fehlt ihre Fähigkeit, dynamisch miteinander zu kompensieren. Wird eine Sensormodalität durch Umweltbedingungen beeinträchtigt, leidet das Gesamtwahrnehmungsvermögen des Systems. Gerade bei Sicherheitsanwendungen ist das eine bedeutende Einschränkung.

Noch wichtiger: Fragmentierte Architekturen erhöhen die Komplexität. Mehrere ECUs, doppelte Verarbeitungsschritte und unverbundene Softwareebenen können Kosten, Skalierbarkeit und Integration erschweren — insbesondere, wenn OEMs ADAS-Funktionen auf verschiedenste Fahrzeugplattformen und Märkte ausrollen möchten.

Der nächste Schritt erforderte einen anderen Ansatz.

Vom isolierten Input zum einheitlichen Wahrnehmungssystem

Moderne Sensorfusion stellt diesen Wandel dar.

Im Kern geht es bei Sensorfusion nicht nur um Redundanz. Es geht darum, Daten aus verschiedenen Sensormodalitäten innerhalb eines gemeinsamen Wahrnehmungs-rahmens zu interpretieren. Anstatt jede Sensordatenpipeline vollständig zu trennen, kombiniert die moderne Fusion Informationen entweder nach der Verarbeitung einzelner Sensoren (späte Fusion) oder schon auf Datenebene (frühe Fusion), je nach Architektur.

Beispiel automatische Notbremsung: Ein telezentrisches System auf Kamerabasis kann Schwierigkeiten haben, Objekte bei starkem Gegenlicht oder Nebel genau zu klassifizieren. Radar arbeitet in vielen ungünstigen Bedingungen jedoch zuverlässiger. Wenn Kamera- und Radardaten innerhalb eines zentralen Wahrnehmungskerns fusionieren, kann das System die Objekterkennung auch bei teilweiser Verschlechterung einer Modalität aufrechterhalten.

Das Ergebnis ist nicht nur eine Backup-Lösung. Es ist eine widerstandsfähigere, kontextbewusstere Interpretation der Umwelt.

Dies spiegelt menschliche Wahrnehmung wider. Bewusstheit wird erhöht, weil mehrere Eingaben kontinuierlich integriert werden — nicht, weil eine einzelne Eingabe perfekt ist.

Architektur als Ermöglicher

Mit zunehmender Komplexität der ADAS-Fähigkeiten in Richtung fortgeschrittene L2- und L2+-Systeme wird die Fusion zunehmend architektonisch.

Zentrale Verarbeitung ermöglicht es, Wahrnehmungsalgorithmen in einer einheitlichen Softwareumgebung laufen zu lassen, anstelle sie über mehrere isolierte Rechen-bereiche zu verteilen. Das reduziert Duplikationen, vereinfacht die Integration und sorgt für eine effizientere Nutzung der Hardware.

Für OEMs ergeben sich praktische Vorteile:

  • Größere Skalierbarkeit über Fahrzeugsegmente hinweg
  • Flexiblere Funktionsbereitstellung nach Region und Ausstattung
  • Weniger Systemkomplexität und Kosten
  • Klarere Wege für Software-Updates und zukünftige Erweiterungen — im Zuge des Übergangs zu software-definierten Fahrzeugen (SDVs)

Kurz gesagt: Fusion ist nicht nur eine Leistungssteigerung, sondern bildet die Grund-lage für skalierbare Einsätze.

So wie Menschen keine mehrfach unabhängigen „Gehirne“ benötigen, um verschiedene Sensor-Eingaben zu interpretieren, profitieren auch die nächste Generation von ADAS von zentralen Rechenarchitekturen, die Sensorik und Entscheidungsfindung zu einem kohärenten Ganzen verbinden.

Maschinen das Sehen beibringen – intelligenter

ADAS bleibt ein sich rasch entwickelndes Feld. Umweltvariabilität, regulatorische Vorgaben und Kosten stehen dabei stets im Fokus. Doch eine Erkenntnis wird immer deutlicher: Verbesserte Wahrnehmung ist weniger eine Frage zusätzlicher Sensoren als vielmehr ihrer intelligenten Integration.

Maschinen das Sehen beizubringen, bedeutet nicht nur, schärfere Sicht zu haben. Es geht darum, Systeme zu entwerfen, die vielfältige Eingaben gemeinsam interpretieren, Wahrnehmung unter realen Bedingungen aufrechterhalten und effizient über Plattformen skalieren.

Sensorfusion, basierend auf einer systemübergreifenden Architektur, bringt ADAS diesem Ziel näher—mit einer Wahrnehmung, die widerstandsfähiger, kohärenter und besser auf die Anforderungen moderner Mobilität abgestimmt ist.

Die Zukunft der ADAS wird nicht durch die Stärke eines einzelnen Sensors bestimmt sein. Sie wird davon abhängen, wie nahtlos Sensing, Software und Recheneinheiten als ein Einheitssystem zusammenarbeiten.

*Dieses Dokument wurde unter menschlicher Aufsicht mit Microsoft Translator übersetzt.

Headshot of David Doria, Director of Engineering, Automated Driving, Magna Electronics

David Doria

David Doria besitzt einen Bachelor, Master und Doktortitel in Elektrotechnik und verfügt über mehr als 20 Jahre Erfahrung in ADAS, Wahrnehmungstechnologien und Fahrzeugelektronik. Bei Magna leitet er globale Initiativen, die sich auf ADAS-Architekturen, Sensorintegration und skalierbare Wahrnehmungslösungen konzentrieren, um die nächste Generation von Fahrzeugsicherheitstechnologien zu unterstützen.

We want to hear from you

Send us your questions, thoughts and inquiries or engage in the conversation on social media.

Verwandte Stories

Perfektionierung des Rechtecks: Die Herausforderung Hinter EV-Batteriegehäusen

Blog

DHD DUO: Eine Skalierbare Hybride Architektur für Einen Markt, der Flexibilität Erfordert

Artikel

Die menschliche Intelligenz treibt die Smart Factory an

Artikel

KI im Job: 5 Wege, Wie Magna Produktion neu Denkt

Blog

Verbunden bleiben

Bleiben Sie informiert und erhalten Sie News & Stories in Echtzeit in Ihren Posteingang geliefert.