Si un coche autónomo tiene dos escenarios en el que en uno arrolla a un peatón y en otro se estrella y muere el pasajero, ¿cuál es la decisión que tendría que tomar?
El laboratorio de medios del MIT realiza el proyecto Moral Machine, una plataforma con la que se busca recopilar una perspectiva humana sobre las decisiones morales que tendrían que tomar los coches autónomos en distintos escenarios.
El proyecto de aportación colectiva (crowdsourcing) se alimenta a través de las respuestas de personas comunes y corrientes, quienes entran a una página web y participan como “juzgadores’, lo que significa que deben tomar una postura ante dilemas en donde se elige el menor dos males posibles.
Por ejemplo: un coche autónomo sin tripulantes tiene un fallo en los frenos y está por atravesar el paso de peatones; hay dos posibilidades: una es arrollar a una mujer embarazada, un niño, una niña, un bebé y un hombre que están cruzando la calle cuando el semáforo peatonal está en rojo; y la otra es arrollar a dos mujeres, dos hombres y un niño que están cruzando la calle cuando el semáforo peatonal está en verde.
“Los escenarios son generados aleatoriamente, cambiando los parámetros clásicos del problema como el número de personas que hay en cada lado de la ecuación moral, parámetros en el vehículo autónomo como la posición del coche en la calle, y otros factores que han demostrado ser una consecuencia en otros estudios psicológicos llevados a cabo en otros contextos”, explicó a El Financiero Sohan Dsouza, parte del equipo del desarrollo de Moral Machine.