Walter Huang, un ingeniero de Apple de 38 años, murió el 23 de marzo de 2018 cuando iba a bordo de un Model X de Tesla, tras impactar contra la barrera central de la carretera 101 en Mountain View (California). Ahora, más de un año después, su familia ha decidido demandar a Tesla ante el Tribunal Superior de California.
Según alegan los demandantes, el sistema Autopilot de Tesla erró al interpretar las líneas de separación entre carriles y no sólo no frenó sino que aceleró contra la mediana.
En palabras de Mark Fong, socio de la firma de abogados Minami Tamaki,
"La señora Huang perdió a su marido, y dos niños perdieron a su padre porque Tesla decidió probar su software Autopilot con conductores vivos".
La demanda menciona acusaciones de diseño defectuoso de producto, falta de advertencia, publicidad falsa, incumplimiento de garantía, y tergiversación intencional y negligente. También se acusa al Departamento de Transporte de California por no haber repuesto la barrera antichoques tras un accidente reciente en el mismo lugar.
Por su parte, un portavoz de Tesla explicó a TechCrunch que declinaba hacer comentarios al respecto. Hace un año, sin embargo, no tuvieron problema en dejar claro que Walter Huang era el único responsable de su propia muerte.
Los primeros datos indicaron que el accidente tuvo lugar cuando el Autopilot del vehículo estaba activado, pero también que éste había emitido advertencias para que el conductor tomara el control del vehículo que no habían tenido respuesta. Según Tesla, porque Huang no estaba prestando atención:
"Sentimos mucho la pérdida. Según la familia, el Sr. Huang era consciente de que el Autopilot no era perfecto y, específicamente, les dijo que no era fiable en el lugar exacto donde tuvo lugar el accidente, y no obstante, decidió usar el Autopilot en ese lugar.
El impactó ocurrió durante un día despejado y con varios cientos de metros de visibilidad por delante, lo que significa que la única forma de que ocurriera este accidente es que el Sr. Huang no estuviera prestando atención a la carretera, a pesar de que el vehículo le proporcionó múltiples advertencias para hacerlo.
La premisa fundamental de la responsabilidad moral y legal es una promesa rota, y aquí no hay ninguna. Tesla ha sido extremadamente clara en que el Autopilot requiere que el conductor esté alerta y tenga las manos en el volante. Este recordatorio se realiza cada vez que se activa el Autopilot. Si el sistema detecta que las manos no están en el volante, emite alertas visuales y auditivas. Esto sucedió varias veces en el vehículo del Sr. Huang ese día.
Empatizamos con la familia del Sr. Huang, que comprensiblemente enfrenta pérdida y dolor, pero la falsa impresión de que el Autopilot no es seguro causará daño a otras personas".
La publicación de este comunicado, tres semanas después del accidente, suscitó las críticas de la Junta Nacional de Seguridad en el Transporte de los EE.UU (NTSB), que lo definió como "lamentable", puesto que "se exige a las compañías que son investigadas por la agencia que no hagan públicos detalles de la investigación sin aprobación de la misma".
El informe de la NTSB no arrojó finalmente ninguna conclusión sobre la responsabilidad del accidente, aunque sí dejó claro que las alertas visuales y auditivas del Autopilot tuvieron lugar 15 minutos antes del choque, y que el conductor sólo puso sus manos sobre el volante 34 segundos antes del mismo, sin que se detectara frenado o movimiento evasivo por parte del vehículo.
Vía | TechCrunch
.