Los algoritmos que ayudan a tomar decisiones a los coches autónomos suelen optar por proteger a los peatones frente a los pasajeros en caso de accidente. Ahora, un estudio muestra que muy pocas personas estarían dispuestas a comprar uno de estos vehículos si su seguridad no quedara garantizada a toda costa. Sin embargo, se calcula que podrían eliminar hasta un 90% de los siniestros de tráfico.
En caso de accidente, los programas informáticos toman decisiones en los vehículos autónomos que tienden a sacrificar a sus propios pasajeros si hay un riesgo de atropello de peatones. “Pero muy pocas personas estarían dispuestas a comprar un coche que no ponga su seguridad en primer lugar, aunque les parezca bien que otros los adquieran”, explica a Sinc Francois Bonnefon, investigador de economía de la Universidad de Toulouse (Francia).
“Muy pocas personas estarían dispuestas a comprar un coche que no ponga su seguridad en primer lugar”, dice Francois Bonnefon
Bonnefon, junto a sus colegas Azim Shariff, del departamento de Piscología de la Universidad en Oregón, e Iyad Rahwa, del Media Lab del MIT, han realizado un estudio sobre el dilema social de los coches sin conducto. El trabajo, que incluye los resultados varias encuestas online, ha sido publicado en la revistaScience.
Retos de programación
“Los programadores, que están ahora tratando de definir los algoritmos para ayudar a que estos coches tomen decisiones, se enfrentan a múltiples retos. A esto se añaden las cuestiones de ética y moral que hasta ahora no se han debatido en profundidad”, dice el investigador francés.
En su opinión, no hay una solución clara para este dilema, “lo que sí es seguro es que se necesita una conversación colectiva para que la gente pueda expresar sus puntos de vista morales y así obtener una mejor comprensión y un punto de partida antes de pasar a temas más espinosos”, agrega.
Con el objetivo de iniciar esta conversación, el equipo realizó seis encuestas online con residentes de Estados Unidos, entre junio y noviembre de 2015, en las que se fornularon preguntas sobre la forma en que les gustaría que se comportaran los vehículos autónomos (AV, por sus siglas en inglés).
Los escenarios planteados incluyen, entre otras cuestiones, el número de vidas de peatones que se podrían salvar. Los autores crearon además la web interactiva The Moral Machine site en la que la gente puede explorar y crear nuevas situaciones.
En general, los participantes dijeron que los coches autónomos deberían estar programados para proteger a los peatones (usando algoritmos utilitarios), pero también indicaron que preferirían comprar aquellos cuya programación les diera prioridad como pasajeros en materia de seguridad, especialmente si viajaban con miembros de su familia.
Esto sugiere que si ambas versiones de coches sin conductor estuvieran en el mercado, la que protege a los peatones y la que salvaría a los pasajeros, muy pocos optarían por la primera opción.
Construir máquinas autónomas que tengan en cuenta cuestiones éticas es uno de los grandes desafíos de la inteligencia artificial
Los males de la regulación
Según Bonnefon, una de las principales conclusiones del estudio es que los gobiernos que decidan regular en favor de los coches autónomos que primen al peatón “pueden causar más daño que beneficio. Tal vez se salven algunas vidas gracias a los algoritmos utilitarios, pero habrá menos gente dispuesta a comprarlos o usarlos, lo cual a la larga será negativo porque estos vehículos pueden eliminar hasta un 90% de los accidentes de tráfico”, destaca.
“Lograr construir máquinas autónomas que tengan en cuenta cuestiones éticas es uno de los grandes desafíos de la inteligencia artificial”, dicen los autores. El enfoque basado en datos de esta investigación pone de manifiesto la forma en que la ética experimental puede proporcionar ideas clave en este ámbito a medida que haya más vehículos autónomos en la carretera, concluyen.
Referencia bibliográfica:
Jean-François Bonnefon, Azim Shariff, Iyad Rahwan. “The social dilemma of autonomous vehicles”. Science(23 junio, 2016)