Imagine que un coche se mueve a 80 kilómetros por hora por una carretera. En su interior viaja una niña sola, porque se trata de un vehículo inteligente, autónomo al 100%. De pronto, tres niños se abalanzan sobre la carretera por error y el coche debe elegir en milésimas de segundo: seguir hacia adelante y atropellar a tres niños o dar un volantazo y estamparse contra un muro, con su pequeña pasajera dentro. ¿Qué debería hacer el coche? Es probable que haya optado por salvar a los tres niños. Ahora, imagine que el coche es suyo y la niña, su hija. ¿Compraría para su familia un coche que va a matar a sus tripulantes para salvar otras vidas?
El bien mayor, como la ética, se desliza por una pendiente muy resbaladiza cuando se lleva a lo personal, como han mostrado unos investigadores en un estudio que publican en Science. A través de una serie de preguntas, sondearon la opinión de ciudadanos norteamericanos sobre estos dilemas. La primera conclusión es que la mayoría de los encuestados quiere que los coches autónomos tengan esta moralidad utilitarista: mejor matar a un pasajero que atropellar a 10 peatones. Sin embargo, la mayoría asegura que no compraría un coche con estos criterios en su algoritmo.
La gran paradoja de los vehículos inteligentes sería que su perfección a la hora de reducir el número de muertes provoque que los usuarios no quieran comprarlos. Y cada año que se retrasen será un año en el que no se estarán evitando accidentes debidos a errores o negligencias humanas; el 90% de los accidentes actuales, según algunos cálculos. Pero nos aterra pensar que nuestros coches estén programados para matar, para matarnos. Preferimos que ese algoritmo esté solo en los de los demás.
«Los programadores se verán obligados a escribir algoritmos que anticipen situaciones en las que haya varias personas que podrían resultar perjudicadas», explica Azim Shariff, uno de los autores del trabajo. «Son cosas que no van a poder evitar. Habrá situaciones en las que las reglas generales van a entrar en conflicto y tiene que haber algoritmos escritos para hacer frente a esto», concluye Shariff, especialista en comportamiento ético de la Universidad de Oregón.
Se trata de un problema moral clásico, como el llamado dilema del tranvía: ¿Empujarías a un hombre muy pesado para que frene con su cuerpo la máquina, matándole pero salvando a otras cinco personas que hay sobre la vía? Por lo general, solo el 30% de la gente responde que lo haría. Imaginemos lo complicado que es trasladar estos conflictos a los coches inteligentes, que llegarán a saber si viaja con ellos una embarazada o un enfermo, o que van a atropellar a un niño que cruza cuando no debe o a un anciano que hacía lo correcto. La casuística es infinita, pero los coches harán lo que les han dicho que hagan, no dudarán.
«La respuesta no es clara. Es un debate que todavía está muy abierto y no está claro quién debe tomar la decisión», asegura Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC. Y se pregunta: «¿Lo deben decidir los gobiernos, los fabricantes, los consumidores?». Según el estudio de Science, la gente no quiere que el Gobierno obligue a que los coches tengan ese espíritu utilitarista que les lleve a escoger la muerte del pasajero. Las grandes corporaciones del transporte automatizado (Uber, Google, Volvo, Ford…) ya se han organizado juntos en un poderoso lobby para influir en las decisiones políticas que están por llegar.
López de Mántaras sugiere que quizá esos coches podrán aprender de forma autónoma su propio criterio moral, ya que la inteligencia artificial estará más desarrollada para cuando lleguen los vehículos completamente autónomos, llamados de nivel 5. «Crearía otro problema: saldrían de fábrica igual pero cada uno evolucionaría de forma distinta sus elecciones éticas», señala. En cualquier caso, reclama transparencia absoluta. Algo que quizá tampoco tranquilice mucho al consumidor a la luz de lo ocurrido con el escándalo de las emisiones de los automóviles.
¿Por qué nos planteamos la moralidad de los coches inteligentes y no de otras máquinas inteligentes? López de Mántaras cree que la inteligencia artificial, cuando tenga autonomía completa, debe estar regulada siempre según criterios morales. Y cita futuribles armas inteligentes o los bots que juegan hoy de forma autónoma en bolsa: «Deberían están controlados ya, desde arriba». Si un coche debe tener un criterio moral para atropellar a esta o a aquellas personas, ¿por qué no debería un robot inteligente tener criterio moral para negarse a trabajar para un empresario explotador o un superordenador negarse a defraudar dinero?
Puede que los coches del futuro sean unidades intercambiables, sin propietario, en grandes sistemas de transporte, como lo son los vagones del metro de hoy en día, propone Joshua Greene, especialista en estos juicios morales de la Universidad de Harvard, en otro artículo en Science. Greene sugiere que simplemente evolucionará nuestra mentalidad, como ha sucedido con los trasplantes: «A medida que nuestra forma de pensar se traslada desde los vehículos personales a los sistemas de transporte, las personas podrían preferir sistemas que maximicen la seguridad general».
Deja una respuesta