La conducción autónoma va para largo
Tres de los mayores expertos mundiales en conducción autónoma han asegurado que esta no se va a implantar a corto y medio plazo en los automóviles dirigidos al gran público debido a las limitaciones que marca la tecnología actual. A su juicio, aunque se hable a menudo de ella en los medios, se halla mucho más allá de los retos en los que trabajan actualmente los ingenieros, y tampoco la inteligencia artificial actual está preparada para resolver todos los problemas a los que se enfrenta.
Así se han manifestado Bryan Reiner, investigador del Centro de Transporte y Logística y AgeLab del prestigioso MIT; Mary L. Missy Cummings, profesora en la George Mason University de Ingeniería Mecánica, Ingeniería Eléctrica e Informática y Ciencias de la Computación, además de asesora de seguridad de la NHTSA (Administración Nacional de Seguridad del Tráfico en Carreteras de los EEUU), y Rodney Brooks, que fue jefe del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT y ha fundado numerosas empresas en el área de la IA y la robótica, entre ellas iRobot.
A criterio de estas tres eminencias en la cuestión, estas son las barreras que encuentra el desarrollo de la conducción autónoma:
1. El horizonte actual lo marcan los límites territoriales
Las investigaciones actuales se centran en sistemas de conducción autónoma de nivel 4, en los que el sistema solo funciona en una determinada zona geolocalizada. Hoy, los coches autónomos en funcionamiento se mueven en entornos operativos del tamaño de un barrio, pero en el futuro tendrían que aprender a desenvolverse en ciudad enteras. Los desafíos de ingeniería y los despliegues económicos necesarios para salir de esas zonas delimitadas son inmensos.
2. La actual IA no va a resolver la conducción autónoma
Para Missy Cummings, la falta de comprensión técnica en la industria y los gobiernos sobre la IA y la conducción autónoma es alarmante. “La gente no entiende que la inteligencia artificial que controla los vehículos se basa en los mismos principios que ChatGPT y otros grandes modelos de lenguaje, que usan razonamiento estadístico para adivinar cuál debe ser la siguiente palabra o frase, o la siguiente acción a realizar por un coche. Ninguna IA puede entender la situación, el contexto o cualquier factor no observado que una persona consideraría en una situación similar. La diferencia es que, mientras que un modelo de lenguaje puede responderte una tontería, un coche autónomo puede provocar un accidente”, explica la experta.
Cummings formula cinco ideas prácticas que pueden servir como guía para la industria y para las agencias que las regulan. La primera es que “los errores humanos en la conducción son reemplazados por errores humanos en la codificación. Además, cualquiera que haya trabajado en el desarrollo de software sabe que el código es increíblemente propenso a errores, y el problema no hace sino crecer a medida que los sistemas se vuelven más complejos. La IA no elimina el papel del error humano en los accidentes de tráfico, solo lo traslada del final de la cadena de eventos que provocan un accidente al principio: la codificación de la propia IA”.
El segundo inconveniente es que los fallos de la IA son difíciles de predecir. Un gran modelo de lenguaje adivina qué palabras y frases vienen después consultando un archivo ensamblado durante el entrenamiento a partir de datos preexistentes. “Un módulo de conducción autónoma interpreta la escena y decide cómo sortear los obstáculos haciendo conjeturas similares, basadas en una base de datos de imágenes proporcionadas durante el entrenamiento. Pero no se puede modelar cada posibilidad, por lo que los innumerables modos de error son extremadamente difíciles de predecir. Por ejemplo, un coche autónomo puede comportarse de manera muy diferente en el mismo tramo de carretera en diferentes momentos del día, posiblemente debido a los ángulos variables del sol”.
La tercera traba consiste en que las estimaciones probabilísticas de una IA no funcionan bien en decisiones bajo incertidumbre. En esencia, los robots son bastante buenos en blanco y negro, pero no se acercan a los humanos cuando hay grises. “Las inteligencias artificiales no saben ejecutar bien una acción basada en información imperfecta y sufren al realizar operaciones básicas cuando el mundo no coincide con sus datos de entrenamiento. Les falta el juicio frente a la incertidumbre, un precursor clave del conocimiento real”, afirma Cummings.
Cuarto problema: mantener la IA es tan importante como crearla. “Las redes neuronales solo pueden ser efectivas si se entrenan con grandes cantidades de datos relevantes. Pero los modelos no se pueden entrenar y luego ejecutarse para que funcionen bien para siempre. En entornos dinámicos como la conducción, los modelos deben actualizarse constantemente para reflejar nuevos tipos de vehículos, zonas de construcción, patrones y demás. Por ejemplo, si un sistema opera en una ciudad con un tipo de autobús y luego la flota se traslada a otra ciudad con modelos de bus diferentes, es probable que el modelo subyacente de detección de autobuses se desvíe, lo que podría tener graves consecuencias”.
Por último, los coches autónomos han sido diseñados para detenerse en seco en el momento en que ya no pueden razonar ni resolver la incertidumbre, lo que puede provocar accidentes o bloquear carreteras. También dependen de la conectividad inalámbrica, y ¿qué sucede cuando esa conectividad se pierde?
3. Siempre habrá factor humano
Que existan coches sin conductor no significa que circulen sin humanos. Hay personas implicadas en todo el sistema, comenzando por el desarrollo de software, y gran cantidad de seres humanos que controlan todo los sistemas y operaciones necesarias para que un vehículo autónomo pueda funcionar. Por ejemplo, muchas de las cámaras y sensores que se utilizan están instalados sobre el parabrisas, así que cuando se sustituye este cristal hay que desmontar las cámaras, montarlas en el nuevo y recalibrarlas.
4. El factor económico: costes e ingresos
Los desarrollos a nivel mundial de la conducción automatizada han necesitado de una ingente cantidad de recursos económicos, y el modelo de ingresos de esta tecnología no está claro. Además, el coste de mantener la infraestructura, la base de código y las complejidades relacionadas es similar al de la construcción del sistema.
5. Falta de legislación
Otro de los problemas clave es la ausencia de una infraestructura regulatoria para estas tecnologías que esté armonizada a nivel internacional, nacional y local.
6. Rechazo del usuario
Rodney Brooks, uno de los mayores expertos mundiales en robótica, dice que, a pesar de haberse pasado toda su vida profesional desarrollando robots, como conductor en San Francisco se siente frustrado “viendo a vehículos sin conductor haciendo cosas estúpidas”.
Más del 70% de la población estadounidense no cree que los coches autónomos sean tan seguros como los conductores humanos. El sentimiento hacia ellos solía ser favorable en la muy tecnológica San Francisco, pero ahora eso ha cambiado debido al volumen de problemas que la ciudad está experimentando. Ello podría derivar en un rechazo frontal hacia esta tecnología si los vehículos autónomos comienzan a causar accidentes graves o provocan una retención que no permite a un enfermo grave llegar al hospital a tiempo.
7. Problemas de sesgo
Finalmente, la IA tiene implicaciones que no pueden ser ignoradas, como los problemas de sesgo. Éticamente no podemos tolerar que los robots tomen decisiones que sí estamos dispuestos a aceptar en humanos. Y como sociedad no estamos preparados para aceptar que un robot sea el responsable de un accidente grave.