El pasado mes de marzo, un coche autónomo de Uber atropelló mortalmente a una mujer en Tempe (Arizona, EEUU) y, según publican en The Information, la causa está relacionada con un fallo en el software del vehículo. Precisamente, el sistema que le indica cómo debe reaccionar ante la presencia de objetos, personas u otros imprevistos que pueden surgir durante el recorrido.
Al parecer, el sistema interno del automóvil sí detectó la presencia de un peatón mientras circulaba, pero no llevó a cabo los protocolos necesarios para esquivarlo o detener la marcha. Según han confirmado fuentes involucradas en las indagaciones, todavía hay una investigación en curso y no se pueden proporcionar detalles, pero todo apunta a que el sistema interno de vehículo estaba ajustado de tal modo que consideró el peatón como un “falso positivo”.
Problemas de moral: ¿sabías que un coche autónomo podría elegir matarte?
Así, el problema no tuvo nada que ver con la tecnología de radares LIDAR, sino con un error al determinar cuál era el umbral de sensibilidad que debía mostrar el vehículo ante los imprevistos. Es decir, las cámaras y los sensores reaccionaron como cabía esperar; fue el coche el que “decidió” no tomar medidas de seguridad al disponer del nivel más bajo de sensibilidad ante los obstáculos.
Ahora, la pregunta es: ¿por qué se estipuló este nivel tan bajo? Se supone que se busca que los coches autónomos no reaccionen ante todos los objetos u obstáculos que hay en la carretera y solo tomen medidas si encuentran un verdadero peligro. En otras palabras, se intenta que los vehículos no reaccionen ante una bolsa, un trozo de cartón, una lata… pero que sí lo hagan ante objetos grandes y sólidos o personas.
Una empresa española podría acabar con el problema de la ética de los coches autónomos
No obstante, todavía habrá que esperar hasta que la Junta Nacional de Seguridad en el Transporte norteamericana (NTSB) publique su informe preliminar para conocer a quién consideran realmente responsable del suceso.
Como exponen en Automotive News, el lunes Uber comunicó que había iniciado una revisión de seguridad integral en su programa de coches autónomos, recurriendo a Christopher Hart (ex-presidente de NTBS) para contar con el mejor asesoramiento en este apartado. Asimismo, esta empresa confirmó que en esta revisión están teniendo en cuenta desde los posibles fallos en el sistema hasta los procesos que determinan la capacidad de sus conductores, por lo que esperan “tener algo más que decir” en un breve período de tiempo.
*El vehículo que se muestra al inicio de esta noticia es un coche autónomo de Uber, pero no es el que se vio involucrado en el accidente.
Las pruebas de los coches autónomos en carretera vuelven a ocupar los titulares al protagonizar uno de ellos un nuevo accidente en EEUU. Esta vez, se ha producido en la localidad de Chandler (Arizona) y, afortunadamente, no ha causado víctimas mortales, según recoge La Vanguardia. Al parecer, solo sufrieron algunos daños leves los conductores de los vehículos involucrados en el siniestro.
De acuerdo con el informe de la Policía Local, el vehículo de Waymo, la empresa de Google, circulaba a baja velocidad cuando se produjo el impacto y no se le atribuye la responsabilidad del accidente. Al parecer, un Honda de color gris invadió el carril, intentando evitar la colisión con otro coche, e impactó frontalmente contra el Chrysler Pacifica Hybrid de Waymo.
De este modo, el primer balance de los hechos exculpa la tecnología autónoma de Waymo y considera que el siniestro fue inevitable.