Tesla ha anunciado, en repetidas ocasiones, que su sistema de conducción autónoma nivel L3 está a punto de ser homologado en Estados Unidos y Europa. En la actualidad, los únicos sistemas SAE L3 homologados para su uso en la vía pública son los de Mercedes-Benz (con el Clase S/EQS Drive Pilot en Alemania y EE. UU), y Honda (con el “Traffic-Jam Pilot” del Legend en Japón). El nivel L3 supone que el coche pueda conducir solo y el conductor pueda apartar la vista de la carretera, en situaciones definidas.
Los sistemas de Mercedes-Benz y de Honda, y del resto de fabricantes que están trabajando para homologar sus tecnologías, se basan en un sistema con redundancia de sensores que incluye cámaras, radas y LiDAR. Tesla, con su sistema Autopilot FSD es el único fabricante que confía en un sistema basado exclusivamente en cámaras y en la profundidad de análisis y de aprendizaje con datos (millones de imágenes y vídeos de tráfico real) de las redes neuronales de Inteligencia Artificial

Li Xiang, fundador, presidente y director ejecutivo de Li Auto ha declarado que “si Elon Musk condujera en China, entendería por qué es necesario el LiDAR”, explicado que hay demasiados peligros que son difíciles de detectar solo con cámaras y que la tecnología láser puede detectar objetos a más de 200 metros, mientras que las cámaras solo son buenas hasta 100 metros.
Carglass España ha publicado un estudio acerca de la situación actual de los sistemas de asistencia a la conducción ADAS (L2 y L3) y la implantación de los sensores LiDAR en ellos, que repasa su funcionamiento, legislación y planteamientos técnicos.
¿Qué es el LiDAR y cómo funciona?
Esta tecnología se basa en un emisor láser, que emite rayos de luz láser infrarroja que impactan sobre los objetos y al rebotar son registrados por un receptor. El sistema es capaz de medir, con precisión la distancia, posición y altura de ese objeto; realizando un escaneo láser. Su radio de alcance es de hasta 250 metros.

Es un sistema muy fiable, que funciona igual de día que por la noche y que permite generar representaciones fiables en condiciones meteorológicas adversas. El sensor LiDAR complementa a las cámaras y los radares, y proporciona redundancia adicional en la detección de objetos alrededor del vehículo. Esto es especialmente útil en situaciones en las que las cámaras o el radar pueden fallar debido a las malas condiciones de visibilidad o a la interferencia de las señales de otros vehículos. Carglass España® ya ha alertado de que numerosos estudios han demostrado que la eficacia de los ADAS disminuye en condiciones de lluvia y nieve, o con el parabrisas sucio; y esta carencia puede solventarse incorporando un sensor LiDAR.
¿Qué dice la legislación?
Las normativas de seguridad funcional y de la UNECE* marcan el estándar técnico dominante en diferentes regiones del mundo para homologar un sistema L3 de conducción autónoma. Esta normativa no obliga a incorporar LiDAR, pero sí habla de redundancia de sensores y de que el sistema tenga un rendimiento adecuado en todas las condiciones. Esa redundancia de sensores puede ser aceptada como redundancia funcional (dos cadenas de percepción independientes) en lugar de redundancia física.
Homologar un sistema basado solo en cámaras es más complicado, porque hay que convencer a los reguladores, aportando pruebas, datos estadísticos y simulaciones, de que el sistema funciona con seguridad en todas las condiciones de visibilidad. Los sistemas basados en sensores de naturaleza diferente (cámara, radar y LiDAR) ya han conseguido aprobaciones en Europa, Estados Unidos y Japón; y tienen un camino regulatorio menos complejo.
El “problema” de la capacidad del cálculo y el hardware
Los sistemas con redundancia de sensores son más caros y complejos, y necesitan mucha más potencia de cálculo. La mayor cantidad de información, su procesamiento, la fusión de los datos recibidos por los de sensores y la resolución de discrepancias entre ellos, requiere de un hardware muy potente, que sea capaz de realizar todas esas operaciones prácticamente en tiempo real (menos de 100 milisengundos), que es lo que exige la conducción de un vehículo.

Esto dispara la necesidad de TOPS (Tera-Operaciones por Segundo) y ancho de banda de memoria, muy superiores a los sistemas “solo cámara”. El Avatr 11, el modelo con más sensores en la actualidad, incorpora 35: 3 sensores LiDAR, 13 cámaras de alta resolución, 6 radares de ondas milimétricas, 12 sensores ultrasónicos y 1 cámara de monitorización del conductor. Este tipo de automóviles puede llegar a procesar 8 GB de datos por segundo y necesita de una potencia de cálculo combinada de 1.016 TOPS. La próxima generación de chips para conducción automatizada ya tiene una potencia de más de 2.000 TOPS.
El sistema de Tesla requiere menos potencia de cálculo y todo ese cómputo se destina a exclusivamente a la visión. También funciona con una red de a bordo de menos capacidad y cableado, emplea menos memoria, no necesita refrigeración y consume menos energía.
¿Qué pasa cuando hay discrepancia de sensores?
Los sistemas basados en cámaras no tienen este problema, que puede aparecer en los de múltiples sensores. En ellos el sistema recibe imágenes láser del LiDAR con puntos 3D de cada objeto, imágenes de la cámara con la forma y el color; y datos del radar con la velocidad a la que se mueve cada objeto. Para fusionar esa información, el sistema crea una fusión temprana que genera un mapa geométrico único y determina la distancia, posición, tamaño y velocidad de los objetos circundantes. Después, los algoritmos reconocen qué es cada cosa y comprueban que la información de todos los sensores cuadra con ese reconocimiento.
Si la información de algún sensor es discrepante, se emplean varios procesos. El primero es una fusión jerárquica algoritmos Bayesianos (uso de probabilidades previas), filtros de Kalman (comprueba si la posición nueva encaja con la trayectoria anterior) y técnicas Dempster-Shafer (asigna un grado de creencia a cada sensor) para ponderar la fiabilidad de cada fuente en cada ciclo. También se asigna un peso dinámico al LiDAR o a la cámara en función de la meteorología, autodiagnóstico de suciedad y nivel de luz. El sistema de Mercedes-Benz duplica la cadena completa: por un lado LiDAR + radar; y por otro, cámaras. Se cotejan resultados y cualquier divergencia se resuelve a favor del camino más conservador. Y si no se puede resolver la discrepancia, el sistema notifica fallo, avisa al conductor y baja a nivel L2.

Aerodinámica y diseño
Los sensores LiDAR para conducción autónoma L5 tienen visión de 360 grados, se montan en el techo del vehículo y gira sobre sí mismos (hasta 900 veces por minuto) para obtener un ángulo de visión despejado de todo el entorno. Pero los LiDAR para conducción L3 son más sencillos. Esto sensores tienen un ángulo de 120º de visión y apuntan hacia la parte frontal del vehículo y a los laterales (en modelos con tres sensores) recogiendo información de todos los objetos que el coche tiene por delante y a los lados.
La siguiente generación de sensores LiDAR frontales estarán instalados tras el parabrisas y no afectarán al diseño y aerodinámica del vehículo. Los sensores LiDAR empleados hasta la fecha no necesitan recalibración tras una sustitución de parabrisas (algo que sí es necesario en las cámaras de los sistemas ADAS, como siempre recuerda Carglass España®), aunque algunos de ellos sí tienen que ser reseteados.
*L3 UNECE R157, Seguridad funcional (ISO 26262 / IEC 61508)









