Colisión de varios vehículos en Florida, EE. UU.
Autor | Zhou Jifeng
Editor | Dawn
La tragedia volvió a ocurrir.
En la noche del 14 de agosto, una cuenta pública llamada "Meiyihao" publicó un obituario indicando que a las 2 pm del 12 de agosto, Lin Wenqin, un empresario de 31 años y fundador de Shangshan Ruoshui Investment Management Company, (apodado "Cute Swordsman"), después de conducir un automóvil NIO ES8 con la función de conducción autónoma habilitada (estado de piloto NOP), estuvo involucrado en un accidente de tráfico en la sección Hanjiang de la autopista Shenhai y lamentablemente murió.
Según el informe del "Kechuangban Daily", el amigo de Lin Wenqin, el Sr. Zheng, dijo: "El personal de NIO nos dijo que el vehículo de NIO estaba en estado NOP cuando ocurrió el incidente y los expertos de NIO La respuesta decía: "La asistencia del piloto NOP no es conducción autónoma. Los resultados de la investigación posterior se sincronizarán con el mundo exterior".
Después del incidente, surgieron discusiones sobre la tecnología de conducción autónoma en Internet. Muchos internautas señalaron que, por intereses comerciales, las empresas automovilísticas confunden en sus promociones los conceptos de conducción "asistida" y conducción "autónoma", lo que hace que los usuarios confíen y se apoyen demasiado en este sistema, facilitando a los conductores ser descuidado al conducir y provocar accidentes. Se convierte en una tragedia. Antes del accidente de NIO, habían ocurrido muchos incidentes de seguridad similares.
Casi al mismo tiempo, la Administración Nacional de Seguridad del Tráfico en las Carreteras de Estados Unidos (NHTSA) anunció que había comenzado a investigar los coches Tesla debido a múltiples colisiones con vehículos de emergencia estacionados. El sistema de conducción asistida automática Autopilot inició una investigación formal. .
Para un usuario de coche, los conceptos y funciones de conducción "asistida" y conducción "automática" deberían ser el sentido común más básico. Lamentablemente, los actores de la industria de la conducción autónoma llevan mucho tiempo exagerando y engañando a los usuarios.
La industria de la conducción autónoma se ha desarrollado durante muchos años. Esta vez, las cuestiones de seguridad y el "exceso de publicidad" finalmente se han puesto sobre la mesa, a costa de vidas.
No sólo son los protagonistas de esta tragedia, sino que con el apoyo de toda la industria, un gran número de consumidores están aceptando e incluso confiando en las funciones de conducción automática asistida.
Lumi es propietario de un Tesla. Por lo general, opta por activar la conducción asistida automática cuando conduce por carretera. En su opinión, la experiencia de conducción asistida automática es muy buena.
El conductor Zhang Lu también descubrió los beneficios de la conducción autónoma asistida. "Cuando conduzco entre semana, solo sostengo el volante con las manos y no tengo que pisar el freno ni el acelerador. El sistema seguirá automáticamente al automóvil y girará automáticamente, lo cual es muy conveniente". Momentos en los que Zhang Lu sintió que la conducción autónoma le salvó la vida. Recordó que la conducción autónoma de Tesla tiene algunas medidas de alerta activa, como recordarle en momentos críticos cuando el vehículo se desvía del carril o se acerca a una colisión trasera.
Sin embargo, los consumidores que gradualmente se han acostumbrado y confían en este sistema no saben en realidad qué tipo de sistema han abierto y si este sistema tiene riesgos.
Muchas veces, juzgan en función del nombre.
Actualmente, Tesla ha lanzado diferentes paquetes de software para la conducción autónoma. Entre ellos, la función estándar básica se denomina función de conducción asistida básica (es decir, AP), y el paquete de software de nivel superior FSD se llama. Conducción totalmente autónoma. Dado que Tesla denomina directamente al paquete de software de conducción autónoma de nivel superior conducción totalmente autónoma, muchos propietarios de automóviles equiparan directamente el Tesla FSD con la tecnología de conducción autónoma.
El propietario de un Tesla dijo con franqueza: "En realidad, no puedo distinguir qué es la conducción automática y qué es la conducción automática asistida. Pero un amigo me recomendó que pudiera activar AP y el efecto es bastante bueno, así que Empecemos a usarlo juntos”.
La gente tampoco sabe qué se puede y qué no se puede hacer en el llamado modo de conducción asistida automática.
El propietario de Tesla, Wang Sheng, a quien un amigo le recomendó activar la función de conducción asistida automática, ahora activa la conducción automática cada vez que viaja por la autopista o la carretera de circunvalación. A veces se distraía con algunos deberes oficiales y, a veces, contestaba el teléfono.
No solo en China, una encuesta de 2020 realizada por el Instituto de Seguros para la Seguridad y la Protección de Estados Unidos mostró que el 48% de los conductores cree erróneamente que mientras la función "Piloto automático" de Tesla esté activada, es Es seguro no controlar el volante.
Algunas personas confían demasiado en el sistema de conducción automatizada, pensando que pueden liberar completamente sus manos y pies mientras conducen.
Muchos propietarios de coches han compartido en Internet trucos para demostrar su astucia, como atar botellas de agua mineral y naranjas al volante para confundir el sistema, haciendo que el sistema lo confunda con las manos del conductor en el volante. volante. En agosto, el propietario de un automóvil incluso subió un vídeo de él mismo utilizando el sistema de conducción asistida para conducir el Ideal ONE mientras estaba acostado, lo que provocó una acalorada discusión en Internet.
En la sociedad moderna, la confianza puede concluir transacciones más rápidamente, pero en el caso de la conducción autónoma, una confianza excesiva a veces puede conducir a la muerte. Mucho antes del fatal accidente de Weilai, ya habían ocurrido muchas tragedias porque los conductores confiaban demasiado en el sistema de conducción automatizado.
En 2016, un Tesla Model S en Florida, EE. UU., chocó con un camión semirremolque blanco que giraba mientras estaba en modo piloto automático. Desafortunadamente, el conductor del Tesla murió en 2019, un Tesla Model 3 especial se estrelló directamente contra él. un camión con remolque blanco que cruzaba lentamente la carretera a una velocidad de 110 kilómetros por hora en piloto automático...
Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. (NHTSA) Después de una investigación, se descubrió que desde enero En 2018, el sistema de piloto automático de Tesla provocó 11 accidentes, con el resultado de 17 heridos y una muerte. Y 4 de estos 11 accidentes ocurrieron este año.
El nacimiento de la conducción autónoma surge de la lógica de que los conductores humanos cometerán muchos errores, y la probabilidad de que los vehículos autónomos cometan errores es mucho menor que la de los humanos, lo que hará que la conducción sea más segura. ¿Por qué un sistema originalmente diseñado para hacer más segura la conducción humana se ha convertido ahora en un asesino en la carretera?
En realidad, esto no es sólo un problema técnico.
Empecemos por la clasificación de la conducción autónoma.
La "conducción no tripulada" y la "conducción autónoma" que actualmente promueven las empresas de automóviles son en realidad conducción asistida automática de nivel L2.
Según la clasificación de la SAE (Society of Automotive Engineers), la conducción autónoma se puede dividir en seis etapas, L0-L5. Entre ellos, L0 no representa ninguna función de asistencia automática; L1-L2 son sistemas de asistencia a la conducción, y el conductor es el órgano principal de operación del vehículo; L3-L4 son sistemas de conducción automática condicional; solo L5 es verdaderamente autónomo;
La línea divisoria más importante es el nivel L2.
L2 e inferiores son los niveles principales de conducción autónoma. La tecnología de conducción autónoma en este rango no tiene "capacidades de conducción totalmente autónoma" y es un sistema de asistencia a la conducción que siempre requiere supervisión humana, el principal responsable. porque el accidente es siempre un conductor humano.
Por norma general, un conductor debe saber a qué nivel de conducción autónoma pertenece el coche que compra. Si se trata de un sistema de conducción asistida automática de nivel L2, el conductor, como persona totalmente responsable, debe comprender claramente los riesgos del sistema de conducción asistida automática de nivel L2.
Sin embargo, muchas empresas automovilísticas no escatiman esfuerzos para desdibujar los límites de la L2 y exagerar su tecnología de conducción autónoma.
Durante mucho tiempo, Tesla promocionó el Autopilot (sistema avanzado de conducción asistida) como "conducción autónoma" y no fue hasta que se produjeron muchos incidentes de seguridad que tuvo que cambiar de tono. Incluso ahora, el paquete de software de más alta gama de Tesla, FSD, todavía se denomina conducción totalmente autónoma.
En cuanto a China, el vicepresidente de NIO, Shen Fei, afirmó una vez en Weibo que los propietarios de automóviles pueden "comer y conducir con confianza" cuando utilizan su función de conducción asistida automática (el contenido relevante ahora ha sido eliminado).
Las empresas automovilísticas saben muy bien que si indican directamente que son conducción autónoma L3 o L4, en caso de accidente el responsable se les atribuirá a ellas mismas. Por lo tanto, jugaron algunos juegos marginales en publicidad.
Por ejemplo, el 16 de abril, WM presentó oficialmente su tercer modelo producido en masa, el W6. En promociones oficiales, WM ha enfatizado repetidamente que el W6 es "el primer vehículo nacional sin conductor producido en masa con una clase de 200.000" y "el primer vehículo sin conductor L4 de producción nacional".
Pero, de hecho, el WM W6 solo alcanza el nivel L4 de conducción sin conductor en la escena del estacionamiento. Sin embargo, muchos consumidores creen erróneamente que "el W6 de Weima es el único automóvil producido en serie que ha logrado la conducción autónoma L4 en todos los escenarios de viaje".
Esta publicidad exagerada aumenta la exposición de la compañía, pero dada la enorme cantidad de información. Asimetría, es probable que los consumidores se sientan engañados haciéndoles pensar que la empresa ha lanzado una tecnología de conducción totalmente autónoma.
Waymo, una conocida empresa de conducción autónoma, una vez dejó de llamar conducción autónoma "conducción autónoma" y cambió su nombre a "conducción autónoma". La lógica de Waymo es: "El lenguaje preciso es importante y puede salvar vidas".
A su vez, podemos aplicar la lógica de Waymo: las empresas automotrices están utilizando un lenguaje vago para describir cada vez más personas que se acercan al precipicio.
En la noche del 16 de agosto, Li Xiang, el fundador de Li Auto, publicó en WeChat Moments que las habilidades de conversación profesional como L2 y L3 se confunden fácilmente y son difíciles de entender para los usuarios. el nombre unificado será L2=Conducción auxiliar; L3=Conducción asistida avanzada; L4=Conducción autónoma; L5=Conducción no tripulada.
"Maximizar las expectativas de control y evitar la conducción automática y asistida en el mismo estado. La conducción asistida es responsabilidad de la persona, y la palabra automática es responsabilidad del coche", dijo.
Por otra parte, ni siquiera la conducción asistida de nivel L2 es 100% segura. En la actualidad, los sistemas automáticos de asistencia a la conducción de nivel L2 están equipados principalmente con radar de ondas milimétricas y reconocimiento visual (cámara) para percibir el entorno. Entre ellos, el radar de ondas milimétricas tiene una cierta probabilidad de no poder identificar objetos completamente estacionarios delante. El reconocimiento visual funciona según la lógica del aprendizaje profundo y nunca puede alcanzar una precisión del 100%.
Es decir, ante condiciones complejas de la carretera, el reconocimiento de la conducción asistida automática no puede ser 100% preciso.
Los conductores, cuando utilizan las funciones de conducción asistida automática, siempre deben estar alerta para prepararse para emergencias. Como proveedores de sistemas, las empresas de automóviles tienen la responsabilidad y la obligación de aclarar las funciones y el alcance de uso de la asistencia a la conducción autónoma y garantizar que los usuarios aprendan los métodos de funcionamiento correctos.
Pero por ahora, las principales compañías automotrices son bastante superficiales cuando se trata de advertencias de riesgo. Algunos medios señalaron que el NOP de NIO se actualizó y lanzó en octubre del año pasado. Cuando se lanza o actualiza la función de conducción asistida automática, los recordatorios de seguridad en línea de NIO para los propietarios de automóviles no son obligatorios.
Este comportamiento de Weilai equivale a, pongo las instrucciones aquí, y no tiene nada que ver conmigo si estás dispuesto a leerlo o si puedes entenderlo o no.
Durante mucho tiempo, los riesgos potenciales mencionados anteriormente han estado cubiertos por el halo de la industria de la conducción autónoma.
En los últimos años, la industria de la conducción autónoma está en auge.
El capital y los actores de la industria han trabajado juntos para crear una historia de viaje aparentemente disruptiva. El núcleo de este sueño de viaje es la tecnología de conducción autónoma.
El Centro de Innovación de Vehículos Inteligentes Conectados de China predice que de 2020 a 2025, las ventas de vehículos inteligentes conectados que pueden lograr una automatización parcial o condicional representarán más del 50% de las ventas totales de vehículos ese año.
Los fabricantes de automóviles, representados por Tesla, han acelerado este proceso.
En 2015, Tesla lanzó por primera vez el sistema de conducción asistida Autopilot para el Model S a través de OTA. Los propietarios de Tesla se despertaron y descubrieron que sus automóviles de repente obtuvieron algunas funciones automáticas de asistencia a la conducción. Por ejemplo, Tesla puede mantener carriles automáticamente en la carretera, acelerar y desacelerar automáticamente según las condiciones de la carretera, etc.
Liderados por Tesla, cada vez circulan por las carreteras más coches inteligentes equipados con sistemas automáticos de asistencia a la conducción. Hoy en día, si un coche eléctrico no está equipado con conducción automática asistida, parece que no se le puede llamar coche inteligente.
Los inversores están empezando a darse cuenta de que vender coches y hardware puede no ser lo más importante, pero los servicios de software como la conducción autónoma son los aspectos más imaginativos.
Y la fabricación transfronteriza de automóviles también ha popularizado las cadenas industriales anteriores y posteriores de la conducción autónoma. Sólo en la primera semana de junio de este año, tres empresas de conducción autónoma anunciaron sucesivamente que habían obtenido financiación, con una financiación total de más de 3.200 millones de yuanes.
Todo el mercado se volvió audaz y agresivo. Musk dijo una vez: "Estamos muy cerca de la conducción autónoma L5". Para destacar y atraer la atención de los inversores, muchas empresas de automóviles han afirmado haber alcanzado la conducción autónoma de nivel L3 y L4.
Un experto de la industria señaló una vez que muchas empresas automotrices que ya han producido automóviles en masa no tienen capacidades de investigación internas y solo pueden optar por comprar soluciones maduras de conducción autónoma de fabricantes como Bosch y Mobileye. Pero esto no afecta la capacidad de las compañías automotrices para empaquetarlo como sus propias capacidades de I+D.
En la Conferencia Mundial de Inteligencia Artificial a principios de julio, Su Jing, expresidente y arquitecto jefe de la línea de productos de conducción inteligente de Huawei, se enfrentó una vez a la alta tasa de accidentes de Tesla y lo denunció como “homicidio”.
Después de leer un informe reciente, un usuario se lamentó: El camino hacia la madurez de la tecnología de conducción autónoma es también una historia de sangre y lágrimas que involucra pruebas y errores personales de innumerables usuarios.
Un experto de la industria señaló: "Para garantizar la seguridad, además del nivel técnico, las leyes y regulaciones también deben adaptarse a los límites de la conducción autónoma". A nivel operativo, es necesario abordar cuestiones más sutiles.
Existen casos en el extranjero a los que se puede referir. En 2020, el Instituto de Seguros para la Seguridad en las Carreteras IIHS publicó una serie de pautas para las funciones de ADAS. Entre ellos, el IIHS sugiere que la clave para que los sistemas automatizados mejoren la seguridad es garantizar que los conductores estén siempre involucrados en la operación del vehículo.
Actualmente, sólo existen dos tipos de sistemas utilizados por las empresas de automóviles para evitar la distracción del conductor. Uno es la detección de presión en el volante utilizada por Tesla y algunas empresas automotrices importantes. Si el sistema detecta que las manos del conductor han dejado el volante durante un cierto período de tiempo, realizará acciones como advertencias y liberación forzada del estado de conducción asistida. y frenar por etapas. Otra es instalar cámaras orientadas al conductor para controlar si la cara del conductor está siempre mirando hacia la carretera.
El IIHS señala que estos no son métodos infalibles. La agencia sugirió que también se debe agregar la detección de si el volante se ajustó manualmente, cuánto se ajustó y el monitoreo de la atención del conductor. Esta podría ser una guía más práctica.
*La imagen del título y el diagrama de distribución del artículo provienen de Unspalsh.