Zoox retira 270 robotaxis tras accidentes por frenadas bruscas en Las Vegas

Zoox retira 270 robotaxis tras accidentes por frenadas bruscas causadas por fallos de software que llevaron a colisiones en Las Vegas.
Zoox, la empresa de conducción autónoma propiedad de Amazon, ha retirado voluntariamente 270 de sus robotaxis tras un accidente ocurrido en Las Vegas. La causa fue un fallo de software que provocaba frenadas bruscas inesperadas, afectando principalmente a motociclistas que circulaban detrás. La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) abrió una investigación tras los incidentes, concluyendo que existía un riesgo real de seguridad vial. Zoox respondió con una actualización de software y la retirada de vehículos con versiones previas.
Frenazos que terminan en colisiones
El origen del problema fue una anomalía en el sistema de percepción del software de Zoox. En situaciones específicas, los robotaxis frenaban de forma abrupta ante la presencia de ciclistas o motociclistas cercanos, incluso sin riesgo real de colisión.
Uno de los escenarios críticos detectados implicaba frenadas innecesarias al cambiar el semáforo a verde cuando había ciclistas cerca del paso peatonal. Otro error aún más grave hacía que el sistema anticipara colisiones por detrás sin fundamento, lo que derivaba en un “frenado fantasma” que sorprendía a los conductores humanos.
Este fenómeno ha sido ampliamente documentado en la industria de vehículos autónomos. Se trata de un fallo de detección en el que el sistema percibe objetos inexistentes como amenazas, y actúa con reflejos desproporcionados. El peligro principal es que los vehículos que circulan detrás no esperan estas reacciones y pueden impactar por alcance, como sucedió en los dos accidentes que activaron la investigación de la NHTSA.
Investigación y retiro tras incidentes
La NHTSA abrió formalmente una investigación preliminar el 10 de mayo de 2024. El motivo fueron dos colisiones traseras que involucraron a motociclistas y robotaxis Zoox operando en modo autónomo. En ambos casos, los vehículos frenaron bruscamente sin causa justificada.
Uno de los motociclistas sufrió heridas leves, como abrasiones en las manos, mientras que el segundo salió ileso, aunque un operador de seguridad de Zoox reportó molestias lumbares. A raíz de esto, la NHTSA solicitó información detallada a Zoox, intensificando la investigación el 30 de mayo. Para noviembre de 2024, la compañía había actualizado su software a la versión 24.32, que resolvía los problemas de percepción.
El 19 de marzo de 2025, Zoox emitió un retiro voluntario de 258 vehículos con versiones anteriores. La NHTSA cerró su investigación en abril de 2025, afirmando que la actualización abordó adecuadamente los riesgos. Sin embargo, el episodio reveló la fragilidad de los sistemas autónomos frente a situaciones complejas del tráfico real.
El patrón de las colisiones por alcance
Los accidentes sufridos por los robotaxis de Zoox reflejan una tendencia preocupante en el sector. Un estudio reciente analizó más de 200 incidentes con vehículos autónomos y encontró que casi la mitad fueron colisiones traseras, con los vehículos impactados mientras frenaban sin aviso.
El informe indica que los conductores humanos a menudo no logran anticipar las maniobras de vehículos autónomos, especialmente cuando estos frenan por amenazas percibidas que en realidad no existen. Este tipo de colisiones es más frecuente que los accidentes causados por fallas de detección reales, lo que sugiere que la excesiva cautela de los sistemas puede convertirse en un riesgo.
En comparación, otras compañías como Waymo han mostrado un patrón diferente. En su caso más notable, un conductor de seguridad tomó el control para evitar un coche que se incorporaba y terminó chocando con una motocicleta, revelando que los riesgos pueden venir tanto del algoritmo como del humano.
El reto de perfeccionar lo autónomo
La retirada de Zoox muestra que incluso empresas respaldadas por gigantes como Amazon aún enfrentan grandes desafíos técnicos. Conducir en entornos urbanos reales implica miles de variables dinámicas, y el más mínimo error de predicción puede tener consecuencias graves.
Para afrontar esto, Zoox implementó nuevas estrategias de mitigación, entre ellas una actualización general del software y un programa de entrenamiento mejorado para operadores humanos. Sin embargo, el incidente dejó en evidencia que la percepción algorítmica del riesgo aún no está al nivel del juicio humano en tiempo real.
El problema no es solo tecnológico, sino también de confianza pública. Cada error erosiona la aceptación social de los robotaxis, especialmente cuando las víctimas son usuarios vulnerables como motociclistas o ciclistas. La NHTSA, por su parte, ha advertido que seguirá monitoreando este tipo de incidentes para asegurar que no se repitan.
Algoritmos que frenan demasiado
Lo ocurrido con Zoox expone un dilema clave de la conducción autónoma: ¿qué es más peligroso, un sistema que no frena cuando debe, o uno que frena cuando no hace falta? La respuesta no es sencilla. El “frenado fantasma” es una consecuencia directa de sistemas que priorizan la precaución extrema ante la incertidumbre, pero cuando esa precaución genera accidentes, el modelo debe reevaluarse.
El sector de los vehículos autónomos está atrapado entre la promesa de una conducción perfecta y la realidad de algoritmos que aún no comprenden el contexto como un humano. A medida que las pruebas se trasladan de circuitos cerrados a calles con ciclistas, motociclistas y peatones, los márgenes de error se vuelven inaceptablemente estrechos.
Si Zoox y sus competidores quieren ganarse la confianza de gobiernos y ciudadanos, tendrán que demostrar no solo que sus vehículos son inteligentes, sino también capaces de adaptarse con precisión a la complejidad del mundo real. Porque en la autonomía, como en la vida, no siempre basta con saber frenar: hay que saber cuándo no hacerlo.
Comentarios cerrados