“Los coches ya pueden pararse y cambiar de dirección sin la ayuda de un conductor humano. Según Boston Consulting Group, es posible que, dentro de una década, haya vehículos totalmente automatizados circulando por las carreteras públicas. Los coches serán una de las primeras máquinas autónomas que pondrán a prueba los límites del sentido común y la reacción en tiempo real.

“Será lo que marque la pauta para todos los robots sociales”, pronostica el filósofo Patrick Lin, director del Grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California y consejero de fabricantes de automóviles. “Son los primeros robots verdaderamente sociales que transitarán entre la gente”.

Los coches que conducen solos prometen anticipar y evitar los choques, lo que reducirá espectacularmente las 33.000 muertes anuales en las carreteras de Estados Unidos. Pero seguirá habiendo accidentes. Y en esos momentos cabe la posibilidad de que el coche robot tenga que elegir el mal menor, como por ejemplo girar e invadir una acera llena de gente para evitar ser alcanzado por detrás por un camión a toda velocidad, o quedarse en el sitio y poner en peligro mortal al conductor.

“Hay que responder a esta clase de preguntas antes de que la conducción automatizada se haga realidad”, señalaba esta semana Jeff Greenberg, director técnico de la interfaz hombre-máquina de Ford, durante un recorrido por el nuevo laboratorio de investigación del fabricante en Silicon Valley.

Las leyes de Asimov

En estos momentos, los especialistas en ética tienen más preguntas que respuestas. ¿Las normas que gobiernan a los vehículos autónomos deberían dar prioridad al bien mayor –el número de vidas salvadas– y no dar valor a los individuos involucrados? ¿Deberían inspirarse en Asimov, cuya primera ley de la robótica dice que una máquina autónoma no puede causar daño a un ser humano, o debido a su inacción, permitir que le sea causado?

“Yo no querría que mi coche robot vendiese mi vida solo para salvar otra u otras dos”, admite Lin. “Pero esto no quiere decir que el vehículo deba preservar nuestra vida por encima de todo, sin que importe de cuántas víctimas estemos hablando. Eso me parecería muy mal”.

Por esta razón no deberíamos dejar esas decisiones en manos de robots, opina Wendell Wallach, autor de A Dangerous Master: How to Keep Technology from Slipping Beyond Our Control [Un amo peligroso. Cómo impedir que la tecnología se nos vaya de las manos].

“El camino a seguir es crear un principio absoluto según el cual las máquinas no tomarán decisiones sobre la vida y la muerte”, afirma Wallach, investigador del Centro Interdisciplinar de Bioética de la Univeridad de Yale. “Debe haber un ser humano involucrado. Si la gente piensa que no se la considerará responsable de las acciones que emprende, acabaremos teniendo una sociedad sin ley”.”

via ¿Debería decidir un coche sin conductor quién vive y quién muere? | Economía | EL PAÍS.