La portada de mañana
Acceder
Aldama zarandea al PSOE a las puertas de su congreso más descafeinado
Corazonadas en la consulta: “Ves entrar a un paciente y sabes si está bien o mal”
OPINIÓN | Días de ruido y furia, por Enric González

¿Matar a una embarazada o a un joven? Es hora de decidir cómo deberían ser programados los coches autónomos

“Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas atadas a la vía por un filósofo malvado. Afortunadamente, es posible accionar un botón que encaminará al tranvía por una vía diferente, por desgracia, hay otra persona atada a ésta. ¿Debería pulsarse el botón?”.

Este experimento fue diseñado en 1967 por la filósofa Philippa Foot, que se planteó en términos morales la importancia que tiene salvar una vida o salvar varias. El enunciado ha cambiado con los años, hasta tal punto que no sería raro que algún amigo o usted mismo haya planteado una idea similar en una reunión social. Hoy, el Dilema del tranvía sigue estando vigente. Tanto, que varios científicos del MIT lo han cogido y dado la vuelta para preguntarle al mundo cómo programar a los coches autónomos en caso de accidente inevitable. Los resultados son reveladores.

Lo han llamado Moral Machine (la máquina moral) y se puede jugar en este enlace. El juego plantea hasta 13 situaciones, protagonizadas cada vez por un colectivo social diferente: en ocasiones hay que elegir entre salvar la vida a un ejecutivo o a una ejecutiva, entre “una mujer grande” y un ladrón o una ejecutiva, un niño, un hombre y un doctor, entre dos ancianas o dos niñas, etcétera. También hay disyuntivas entre salvar animales o humanos (que pueden ser deportistas, abogados...). De momento, el experimento suma 40 millones de decisiones de más de 233 países y las conclusiones hasta la fecha han sido publicadas en la revista Nature.

En España, los jóvenes son la prioridad

Un coche autónomo debe de saber dónde está, qué cosas le rodean (ya sean otros coches, peatones, arbustos o señales), el estado del conductor y, por supuesto, tiene que ser capaz de circular para ir de un punto a otro de la ciudad. Entre los componentes que lo hacen posible está el LIDAR (acrónimo de Light Imaging Detection and Ranging - Detección y Rango de Imágenes Luminosas), un sistema que genera imágenes en 3D del mundo; los sensores de sonido, las cámaras de visión y los radares ultrasónicos, entre otras cosas. Pero la programación es compleja y está lejos de ser infalible: en EEUU ya se han producido varios atropellos de peatones, en algunos casos mortales.

Según los autores del estudio, Moral Machine trataba también de “recopilar datos e identificar qué factores piensan las personas que son importantes”. Los resultados por país pueden leerse en este enlace. En España, la mayoría de participantes del estudio ha decidido que, ante todo, hay que salvar la vida de los jóvenes, y se produce un empate entre salvar a los que cumplen la ley y salvar a los humanos en general. Esta última respuesta se da cuando en el juego se nos pone en la disyuntiva de atropellar a un anciano o a un grupo de perros, por ejemplo.

El experimento también tiene datos curiosos en función del país que juegue. En Japón, la gente opta por salvar primero a los peatones, después a los que cumplen la ley, a los humanos y, en último lugar dejan a las mujeres y a los de clase alta. En China gana la inacción, por ejemplo. En Azerbaiyán prefieren salvar a los deportistas Como lo oyen. “La pregunta es si estas diferencias en las preferencias importarán en términos de la adopción por parte de la gente de esta nueva tecnología cuando los vehículos sigan un regla específica”, dice Edmond Awad, el director del estudio en la web del MIT.

“Un único conjunto de normas sería complicado”

Awad y su equipo aseguran que “hay tres elementos que las personas tienden a aprobar más”. La gente prefiere salvar a humanos antes que a animales, al mayor número de personas posibles y a los niños antes que a los viejos. Por otro lado, de las personas que cruzan el paso de cebra, los participantes salvarían antes a los bebés a bordo de una sillita, a las niñas, a los niños y a las embarazadas, por este orden. Tomando el enunciado por el lado contrario, la gente estaría dispuesta a que el coche se estrellase antes con las mascotas, los delincuentes, los ancianos y los mendigos, también por orden.

Al terminar de hacer el experimento, el MIT pregunta qué nivel de educación tenemos, nuestra edad, nuestros ingresos, género la orientación religiosa y nuestra ideología (de más o menos progresista). Como explica Awad, “los resultados sugieren que implantar un único conjunto de normas en todos los países sería complicado”, de tal forma que, en base a las conclusiones del experimento, una única regla común para todos los coches autónomos sobre a quién salvar primero sería un caos. Habría países que primarían una cosa diferente a la que primarían otros.

Los propios científicos del MIT se han sorprendido con el éxito de la herramienta: “El interés del público en nuestra plataforma ha superado nuestras expectativas más salvajes”, concluye Awad. Hoy por hoy, probablemente este sea el experimento moral con mayor fundamento de los últimos años y la conclusión es clara: lo que en un sitio del mundo podría ser válido, en otro podría no serlo. Cuidado, programadores.