Las ADAS stacks actuales suelen combinar cámaras, radares y sensores ultrasónicos con sensores térmicos o lidar utilizados en ciertas aplicaciones. Cada modalidad tiene fortalezas y limitaciones. Las cámaras ofrecen un alto nivel de detalle visual, pero tienen dificultades con poca luz. Los radares funcionan bien en condiciones meteorológicas adversas, pero ofrecen una clasificación menos precisa. La detección térmica puede detectar firmas térmicas fuera del alcance de los faros, pero debe interpretarse junto con otros datos.
Añadir sensores puede mejorar la cobertura, pero también incrementa el coste, la complejidad y el volumen de datos del sistema. En cierto punto, el reto pasa de percibir más a entender más.
Por eso el enfoque se está orientando hacia una integración más estrecha entre tecnologías de detección en lugar de tratar cada sensor como un subsistema independiente. Cuando los datos de múltiples modalidades se combinan inteligentemente, el sistema puede mantener la confianza incluso cuando una entrada se degrada.
Este cambio hacia una fusión de sensores más temprana y profunda está estrechamente ligado a cambios más amplios en la arquitectura del vehículo. Las plataformas de cómputo centralizadas y las redes de mayor ancho de banda permiten procesar flujos de datos más detallados y evaluarlos juntos, en lugar de pasar listas simplificadas de objetos entre módulos separados. Las políticas modernas de percepción y conducción basadas en IA y aprendizaje automático permiten una interpretación más precisa, universal e inteligente del entorno de conducción.
El resultado es una imagen más completa e inteligente del entorno del vehículo y del escenario del tráfico — y una mejor oportunidad de manejar los casos en las esquinas que aún provocan desconexiones.