Diversos expertos mundiales aseguran que la conducción autónoma total no se va a implementar a corto y medio plazo en los automóviles dirigidos al gran público y señalan las limitaciones que marca la tecnología actual. Entre ellos destacan tres: Bryan Reiner, investigador del Centro de Transporte y Logística y AgeLab del MIT, que recientemente dio una clase magistral sobre los límites y desafíos de la conducción autónoma en el ciclo de conferencias del Best of Belron; “Mary L. “Missy” Cummings, profesora en la George Mason University de Ingeniería Mecánica, Ingeniería Eléctrica e Informática y Ciencias de la Computación, y asesora de seguridad de la NHTSA (Administración Nacional de Seguridad del Tráfico en Carreteras de los EE. UU); y Rodney Brooks, que fue jefe del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT y ha fundado numerosas empresas en el área de IA y robótica; una de ellas, iRobot.
Todos señalan que aunque se publicite en las noticias y en los medios todo el tiempo, el impacto a corto y medio plazo de la conducción autónoma es bastante limitado y que está mucho más allá de los retos en los que se están enfocando los ingenieros actualmente. Tampoco creen que la inteligencia artificial actual esté preparada para resolver todos los problemas a los que se enfrenta una conducción autónoma total.
1. El horizonte actual lo marcan los límites territoriales
Las investigaciones actuales sobre conducción autónoma se centran en sistemas de conducción autónoma de nivel 4, en los que el sistema solo funciona en una determinada zona geolocalizada. Actualmente, los coches autónomos en funcionamiento se mueven en entornos operativos del tamaño de un barrio, que en el futuro podría llegar a tener el tamaño de una ciudad entera. Los desafíos de ingeniería y los despliegues económicos necesarios para salir de esas zonas delimitadas son inmensos.
2. La actual IA no va a resolver la conducción autónoma
Para “Missy” Cummings, la falta de comprensión técnica en la industria y el gobierno sobre la IA la conducción autónoma es alarmante. “La gente no entiende que la IA que controla los vehículos se basa en los mismos principios que ChatGPT y otros grandes modelos de lenguaje (LLM). Esas inteligencias artificiales usan razonamiento estadístico para adivinar cuál debe ser la siguiente palabra o frase, o la siguiente acción a realizar por un coche. Ninguna IA puede «entender» la situación, el contexto, o cualquier factor no observado que una persona consideraría en una situación similar. La diferencia es que, mientras un modelo de lenguaje puede responderte una tontería, un coche autónomo puede provocar un accidente”, explica en un artículo * publicado en IEE Spectrum.
“Missy” Cummings ha formulado cinco ideas prácticas sobre esta problemática que pueden servir como una guía para la industria y para las agencias que las regulan.
La primera es que “los errores humanos en la conducción son reemplazados por errores humanos en la codificación. Además, cualquiera que haya trabajado en el desarrollo de software sabe que el código es increíblemente propenso a errores, y el problema solo crece a medida que los sistemas se vuelven más complejos. La IA no elimina el papel del error humano en los accidentes de tráfico. Ese papel simplemente se ha trasladado del final de la cadena de eventos que provocan un accidente, al principio: la codificación de la propia IA”.
El segundo es que los fallos de la IA son difíciles de predecir. Un gran modelo de lenguaje adivina qué palabras y frases vienen después consultando un archivo ensamblado durante el entrenamiento a partir de datos preexistentes. Un módulo de conducción autónoma interpreta la escena y decide cómo sortear los obstáculos haciendo conjeturas similares, basadas en una base de datos de imágenes proporcionadas durante el entrenamiento. Pero no se puede modelar cada posibilidad, por lo que los innumerables modos de error son extremadamente difíciles de predecir. Por ejemplo, un coche autónomo puede comportarse de manera muy diferente en el mismo tramo de carretera en diferentes momentos del día, posiblemente debido a los ángulos variables del sol”.
La tercera es que las estimaciones probabilísticas de una IA no funcionan bien en decisiones bajo incertidumbre. En esencia, los robots son bastante buenos en blanco y negro; pero no se acercan a los humanos cuando hay grises. “Las inteligencias artificiales no saben ejecutar bien una acción basada en información imperfecta y sufren al realizar operaciones básicas cuando el mundo no coincide con sus datos de entrenamiento. Les falta el juicio frente a la incertidumbre, un precursor clave del conocimiento real” relata Cummings.
La cuarta es que mantener la IA es tan importante como crearla. “Las redes neuronales solo pueden ser efectivas si se entrenan con grandes cantidades de datos relevantes. Pero los modelos no se pueden entrenar y luego ejecutarse para que funcionen bien para siempre. En entornos dinámicos como la conducción, los modelos deben actualizarse constantemente para reflejar nuevos tipos de vehículos, zonas de construcción, patrones, y demás. Por ejemplo, si una flota de coches autónomos opera en una ciudad con un tipo de autobús y luego la flota se traslada a otra ciudad con tipos de autobuses diferentes, es probable que el modelo subyacente de detección de autobuses se desvíe, lo que podría tener graves consecuencias”.
Por último, la IA tiene implicaciones a nivel de sistemas que no se pueden ignorar. Por ejemplo, los coches autónomos han sido diseñados para detenerse en seco en el momento en que ya no pueden razonar ni resolver la incertidumbre. Y esto puede provocar accidentes o bloquear carreteras. También dependen de la conectividad inalámbrica y ¿qué sucede cuando esa conectividad se pierde?
3. Siempre habrá factor humano
Por otro lado, un coche sin conductor no significa que circule sin humanos. Hay personas implicadas en todo el sistema, y no solo en el desarrollo de la ingeniería de software. Hay una gran cantidad de seres humanos controlando todos los sistemas y operaciones necesarias para que un coche autónomo pueda funcionar. Por ejemplo, muchas de las cámaras y sensores necesarias para el funcionamiento de un coche autónomo están instalados sobre el parabrisas. Cuando se sustituye un parabrisas, hay que desmontar las cámaras del cristal roto, montarlas en el nuevo y recalibrarlas para que ofrezcan una información fiable al sistema. Solo en España, Carglass ha realizado cientos de miles de recalibraciones (millones a nivel mundial el Grupo Belron) de las cámaras y sensores de los actuales sistemas ADAS; algo que será de vital importancia para la futura conducción autónoma.
4. El factor económico: costes e ingresos
Los desarrollos a nivel mundial de la conducción automatizada han necesitado de una ingente cantidad de recursos económicos. Y el modelo de ingresos de esta tecnología no está claro. Además, el costo de mantener la infraestructura, la base de código y las complejidades relacionadas, es similar al de la construcción del sistema”.
5. Falta de legislación
Otro de los problemas clave es la ausencia de una infraestructura regulatoria para estas tecnologías, armonizada a nivel internacional, nacional y local.
6. Rechazo del usuario
Rodney Brooks, uno de los mayores expertos mundiales en robótica, ha asegurado que “he pasado toda mi vida profesional desarrollando robots y mis empresas han construido más que nadie. Pero como conductor en San Francisco me frustro viendo a vehículos sin conductor haciendo cosas estúpidas”.
Más del 70 por ciento de la población estadounidense no cree que los coches autónomos sean tan seguros como los conductores humanos. El sentimiento hacia ellos solía ser optimista en la tecnológicamente amigable ciudad de San Francisco, pero ahora ha tomado un giro negativo debido al volumen de problemas que la ciudad está experimentando. Estos sentimientos pueden llevar a un rechazo frontal de esta tecnología si los vehículos autónomos comienzan a causar accidentes graves o provocan una retención que no permite a un enfermo grave llegar al hospital a tiempo.
7. Problemas de sesgo
Finalmente, la IA tiene implicaciones que no pueden ser ignoradas, como los problemas de sesgo. Éticamente no podemos aceptar que los robots tomen decisiones que sí estamos dispuestos a aceptar en humanos. Y como sociedad no estamos preparados para aceptar que un robot sea el responsable de un accidente grave.