ESPACIOS
Cerrar CERRAR
Tecmovia

7 MIN

Atropellar a un niño o chocar contra un árbol: conducción autónoma y la paradoja de las tres leyes de Asimov

Nos apasiona la conducción autónoma y por eso no nos cortamos al decir que de verdad esta será la próxima revolución de la industria del automóvil, un hito sin precedentes. La tecnología actual ya permite que un coche-robot viaje por sus propios medios. Pero, entre tanto, existen diversos dilemas que los humanos tendremos que resolver antes de ponerlo en práctica. Hablamos de responsabilidades, de cuestiones éticas irremediables. El coche autónomo tendrá que proteger a sus ocupantes, también será capaz de evitar un atropello o dañar a otros humanos. Pero, ¿y si proteger a ese niño que ha cruzado la carretera para recoger su balón implica poner en riesgo la vida de los ocupantes del coche?

Bonito debate el que han lanzado desde el blog de tecnología Xataka. En un momento como este, en el que parece que la introducción de los coches autónomos, y su convivencia pacífica con coches pilotados por humanos, está más cerca de lo que nos pensamos, nos preguntamos por la optimización de accidentes.

Se dará el caso en el que una máquina tendrá que optimizar un accidente, el que menos vidas sacrifique o conlleve más probabilidades de salvarlas, por ejemplo. En el fondo estamos ante un conflicto ético, un debate moral que escapa de la ingeniería y la frialdad lógica de un autómata.

La conducción autónoma y las tres leyes de la robótica de Asimov

Isaac Asimov, entre otras cosas, padre del sci-fi, ya enunció en los años cuarenta tres leyes que deberían definir el comportamiento ético de un robot. Tres leyes perfectamente aplicables al caso que traemos a colación.

1. Un robot no puede hacer daño a un ser humano o, por omisión, permitir que un ser humano sufra daños.
2. Un robot debe obedecer las órdenes que reciba de los humanos, excepto si estas entran en conflicto con la primera ley.
3. Un robot debe protegerse a si mismo, salvo que esta protección entre en conflicto con las dos primeras leyes.

Sabemos que el coche autónomo, cuando comience a implantarse oficialmente, tendrá que compartir las carreteras con el resto de conductores. Cualquier otra cosa sería inviable a corto o medio plazo. Por eso mismo, no tardaremos en percatarnos de que los riesgos que entraña viajar en un automóvil se minimizarán, pero seguirán presentes. Y esto es así, por el mismo razonamiento que incluso un conductor modélico, que cumple a rajatabla con las leyes de tráfico y es extremadamente precavido, no estará exento de encontrarse en su rutina con un conductor que incumple una ley, o, por su temeridad, pone en riesgo la seguridad de otros conductores.

Si tenemos en cuenta la conducción autónoma urbana, los riesgos aumentan por la cantidad de factores que pueden intervenir en un accidente. La posibilidad de someter a nuestro coche autónomo a un complejo dilema moral es incluso superior.

Ante un daño irremediable, buscando el daño menor bajo un análisis estadístico

Los humanos en un accidente inminente, no siempre resolveremos el dilema con una reflexión lógica, puesto que el tiempo para reaccionar es realmente reducido. Una máquina sí puede analizar decenas de miles de variables en décimas de segundo.

Hablamos de casos hipotéticos. En el reportaje de Xataka apuntaban a una situación en la que ineludiblemente vayamos a colisionar con un motociclista, pero la máquina deba elegir entre el que lleva casco y el que no lo lleva. Si nuestro coche realizase un análisis estadístico de las probabilidades de supervivencia, decidiría chocar contra el primero, pero también estaría penalizando al motociclista que ha sido responsable y ha cumplido con las normas básicas de seguridad que se aplican a su vehículo.

Veamos otro ejemplo mucho más sencillo. Al salir de una curva te encuentras con un niño que ha cruzado la carretera persiguiendo un balón. ¿Qué decisión tomarías? Puedes intentar frenar, aunque la distancia es tan corta que probablemente el atropello ya sea inevitable. También puedes realizar una esquiva que conlleve una salida de la carretera y colisionar contra un objeto fijo, un árbol, un muro, o saltar por un terraplén, poniendo en grave riesgo tu vida.

Son dilemas que habitualmente debemos resolver los humanos, con tan poco tiempo para la reacción que nuestro primer instinto no siempre responderá – como es natural – a una reflexión lógica y ética. El computador que llevará a cabo la toma de decisiones de un coche autónomo sí será capaz de analizar decenas de variables en décimas de segundo, será capaz de realizar un análisis estadístico de las probabilidades de éxito – en este caso, minimización de riesgos – con suficiente antelación como para reaccionar al respecto.

Resolver con una intervención aleatoria

Cuando el tiempo para decidir qué hacer se agota, los humanos podemos optar por una intervención aleatoria, que no siempre se corresponderá con la aceptable éticamente.

De hecho, el comportamiento humano en una situación urgente y en la que estamos completamente desprevenidos, a menudo nos lleva a tomar una decisión aleatoria, lo que los anglosajones y los gamblers denominan un flip coin, un cara o cruz. En el desarrollo de los coches autónomos, ya hay compañías como Nokia que han valorado esta posibilidad para definir las características de la conducción autónoma.

Incluso en este caso, no olvidemos que salvo complejos generadores de números basados en fenómenos físicos que se presuponen aleatorios, una máquina está sujeta a un determinismo que no garantiza una aleatoriedad completa en la elección. Pero mejor no entraremos en este complejo debate.

Hay muchos debates que debe abordar la industria y los legisladores, como el de la responsabilidad en caso de accidente.

Dicho lo cual, hay un debate que la industria ya está abordando y que los futuros usuarios de estos coches también deberíamos abordar. Podría parecer que hablar de esta verdad un tanto incómoda nos posiciona en el lado escéptico, el de los más críticos hacia la conducción autónoma. Nada más lejos de la realidad. Creo que, siempre que he podido, he reconocido mi fascinación por la tecnología del coche autónomo.

Cuando eres un apasionado de la conducción y de los automóviles, o al menos así me considero, resulta polémico reconocer que tienes ilusión ante la llegada de coches que conduzcan por ti. Pero en efecto así es. En mi mundo utópico, en mi garaje habría al menos dos coches, el que conduciría autónomamente en mis aburridos trayectos del día a día, los atascos por la ciudad o interminables viajes de miles de kilómetros; y el coche pasional, el que me garantizaría que cada vez que me pusiera el volante lo haría para disfrutar conduciendo.

¿Qué piensan nuestros lectores al respecto? ¿Cómo crees que resolverán los fabricantes el dilema ético y moral al que se enfrenta la conducción autónoma?

Fuente: Xataka
En Tecmovia: Reflexiones sobre conducción autónoma: ¿quién es responsable en caso de accidente?

Cargando...