¿Comprarías un coche que está programado para matarte si es necesario?

 |  @sergioalvarez88  | 

Estamos hablando mucho del coche autónomo. El futuro del automóvil pasa ineludiblemente por coches en los que seremos simples pasajeros. Coches seguros, eficientes e inteligentes, que nos salvarán de los atascos y nos ahorrarán decenas de horas perdidas al año. Los primeros modos de conducción semi-autónoma en autopista ya se han estrenado, sin ir más lejos en el Mercedes GLC. Pero el coche autónomo tiene un reverso tenebroso que quizá desconocías. ¿Comprarías un coche que está programado para matarte si es necesario?

¿Va mi coche autónomo a atentar contra mi vida?

¿Qué leyes morales debe seguir un coche autónomo? ¿Quién diseña sus leyes morales? ¿Deberían regularse de forma oficial?

Estamos de acuerdo en que los accidentes son imprevisibles. Por muy seguro que pueda ser un coche autónomo, los accidentes aún pueden ocurrir. Imaginad que vuestro coche autónomo circula por una carretera secundaria y una moto fuera de control se dirige hacia tu coche, en una trayectoria de choque segura. Una trayectoria que posiblemente termine con la vida del motorista. ¿Debería el coche autónomo lanzarse por la cuneta si sabe que las posibilidades de supervivencia de los ocupantes del coche son muy superiores?

Es una decisión moral que deberá estar imprimida en el cerebro electrónico del coche. Una decisión muy compleja que el coche debe tomar en milisegundos, y que otorga al vehículo capacidades de razonamiento similares a las de un cerebro humano. Estamos de acuerdo en que esta es una decisión adecuada, así que aquí va otra. Imaginad que ocurre lo mismo, pero en una curva ciega a las afueras de un pueblo un grupo de niños ha salido corriendo a por una pelota y ocupan el centro de la carretera de forma inconsciente.

¿Ofrecerá un fabricante diferentes algoritmos morales para sus coches autónomos? ¿Debería o no debería?

Es demasiado tarde para frenar, pero el coche tiene la opción de desviarse e impactar contra un muro al lado de la carretera. El choque acabaría con la vida del ocupante del coche autónomo, una sola persona en ese momento. El coche autónomo podría elegir acabar con tu vida en vez de con la vida de tres niños. Ahora bien, ¿sería diferente la decisión del coche si a bordo fuesen cinco ocupantes? Los accidentes serán poco comunes con un coche autónomo, pero aún pueden darse situaciones que escapen al control del coche.

Un interesante paper publicado por Jean-François Bonnefon hace unos meses para la Tolouse School of Economics pone de relieve los dilemas morales a los que el coche autónomo del futuro podría enfrentarse, y cómo debería solucionarlos. El paper está redactado en inglés, pero si te interesa mínimamente divulgar el futuro del coche autónomo, deberías leer al menos la introducción del estudio y las preguntas que plantea. Preguntas a las que alguien debe dar una respuesta, ya sea el fabricante del coche o una comisión gubernamental.

¿Pulgar arriba o pulgar abajo? Creando algoritmos morales

Las leyes de la robótica de Isaac Asimov podrían perfectamente aplicarse a los coches autónomos.

Son los algoritmos morales los que decidirán la actuación del coche ante imprevistos en los que vidas humanas corren riesgo. El paper postula que es la investigación estadística la que debe responder a estas preguntas, dando lugar a patrones morales de comportamiento. Patrones que reflejan la complejidad de las emociones humanas, modelizando acciones en muchos casos instintivas. ¿Terminarías con tu vida ante una situación como las anteriormente descritas? ¿Actuarían de igual manera todas las personas?

Los coches autónomos ya circulan por España, aunque siempre con un supervisor humano.

Comprendo que este artículo plantea más preguntas que respuestas, pero en última instancia, será el coche el que decida por nosotros. Incluso se llegan a plantear la preferencia del consumidor por un coche con un algoritmo moral que tienda más a preservar la vida de los ocupantes, frente a la de terceros. Por ello plantea la regulación gubernamental. Los mismos gobiernos que aún desconocen la tecnología del coche autónomo a este nivel de especificidad, y que van muy rezagados ante la iniciativa privada.

La falsa sensación de seguridad que nos da el control del coche podría decantar a la gente por coches menos seguros que los coches autónomos.

Mi opinión personal es que debería haber un “marco moral” unificado para el coche autónomo, idéntico para todos los coches del mercado capaz de conducir por sí mismos. El objetivo es crear una política común lo más justa para todos los usuarios de la vía pública. Alterar los algoritmos morales de un coche debería estar penado por la ley, igual que lo es tomar el control de un coche de forma remota. Creedme, no será la última vez en los próximos años que hablemos de lo que podría convertirse en una barrera para la implantación del coche autónomo.

Quizá todo se resuma en la falsa sensación de seguridad que nos otorga el manejar un vehículo por nosotros mismos, frente a ceder el control a un tercero, en este caso un cerebro electrónico. Quizá por ello nos sentimos más seguros conduciendo un coche que viajando en un avión pilotado por un tercero, aunque estadísticamente, el avión sea mucho más seguro.

Fuente: CT
En Diariomotor:

Lee a continuación: ¿Por qué no debes sacar los pies por la ventana?

  • Oliver

    Las famosas leyes de la robótica de Asimov eran de una lógica aplastante; pero claro, no contaba este hombre con un “imprevisto”: que dentro del robot haya uno o varios seres humanos. En las leyes propuestas por el escritor de ciencia-ficción el robot debía autoprotegerse, pero por encima de ello debía autodestruirse o ponerse a sí mismo en peligro si con ello salvaba una vida humana. Bonito dilema ahora que el bicho decida si mata al de dentro o al de fuera.

  • Pablo Mtnez McRae

    Esto definitivamente es tan sumamente complicado…se pueden dar infinidad de situaciones comprometidas,donde vidas humanas estén en entredicho. Para mí esto es un impedimento brutal para la implantación del coche autónomo. Si éstos fueran el total del parque móvil estas situaciones prácticamente desaparecerían;pero esto es impensable incluso en décadas…

  • Sery

    Más sencillo que todo eso, pongamos el autopilot de Tesla, que ya está operativo, y pongamos que una bici se cruza en su camino… la IA la esquiva, OK. Ahora pongamos que se cruza un peatón y para esquivarla ha de atropellar una bici… ¿?

  • Manolo

    Yo creo que los coches autónomos deberían estar programados para proteger a sus ocupantes bajo cualquier circunstancia y punto. Y es que si empezamos con dilemas morales, la situación fácilmente se podría salir de control. A mí no me gustaría que el coche por su cuenta decidiera que la vida de terceros vale más que la mía y optara por sacrificarme. Ése es un dilema moral que solo una persona debe resolver, no lo puedes dejar en manos de una máquina, y menos, cuando la situación peligrosa no se originó por culpa tuya, porque obviamente no estaríamos hablando de un error de conducción humano. Por eso digo que simplemente el coche debe de reaccionar de la forma que considere la mejor para proteger a quien vaya dentro y nada más.

  • monosconteclado

    Es que si da prioridad al que no esta dentro del coche, me puedo poner como peatón en cualquier situación de esas que me den prioridad para salvarme y matar a todo el que pase por alli con su coche autónomo.

    • ADN

      Exacto, pienso lo mismo.
      Así como hoy día hay fraudes a seguros de gente que se deja atropellar, un peatón podría hacer lo mismo obligando al coche autónomo a estrellarse contra un negocio que cobraría su indemnización. El peatón puede fácilmente huir del “accidente”, pero el coche autonomo, su dueño y su seguro tendrán que afrontar la situación.

  • Pensando…

    Típico dilema tramposo de la teoría de juegos.

    Es un problema que no tiene solución. Te ponen en la tesitura de elegir si mueren los de fuera o los de dentro, pero alguien muere siempre.

    ¿Y si los peatones son niños desconocidos y en el coche están tus hijos, a quién debe salvar?

    ¿Y si es al contrario, fuera están tus hijos y dentro unos niños que no son tus hijos, a quién debe salvar?

    Está claro que habrá situaciones en las que ni la más perfecta máquina podrá evitar los riesgos, porque está en nuestra naturaleza hacer estupideces y poner en riesgo nuestra vida sin sopesar las posibles consecuencias.