El multimillonario reprende al piloto automático de Tesla

Noticias

HogarHogar / Noticias / El multimillonario reprende al piloto automático de Tesla

Jul 11, 2023

El multimillonario reprende al piloto automático de Tesla

Ayer, en un evento transmitido en vivo, Dan O'Dowd, un multimillonario del software y vehemente crítico de las tecnologías supuestamente de conducción autónoma de Tesla Motors, debatió con Ross Gerber, un banquero de inversiones que respalda la

Ayer, en un evento transmitido en vivo, Dan O'Dowd, un multimillonario del software y vehemente crítico de las tecnologías supuestamente autónomas de Tesla Motors, debatió con Ross Gerber, un banquero de inversiones que respalda a la compañía. El verdadero desafío surgió después de su charla, cuando los dos hombres se subieron a un Tesla Model S y probaron su software Full Self-Driving (FSD), una tecnología de conducción supuestamente autónoma o casi autónoma que representa el extremo superior de su conjunto de controladores. Funciones de asistencia que la empresa denomina Autopilot y Advanced Autopilot. El escrutinio de FSD que O'Dowd está ejerciendo sobre el fabricante de vehículos eléctricos es sólo el último de una serie de golpes recientes, incluida una demanda de accionistas de Tesla sobre promesas exageradas de FSD, acusaciones internas de falsificación en eventos promocionales de FSD y una reciente filtración de datos de la empresa. eso incluye miles de quejas de clientes de FSD.

En el evento transmitido en vivo de ayer, O'Dowd dijo que FSD no hace lo que su nombre implica, y que lo que hace, lo hace lo suficientemente mal como para poner en peligro vidas. Gerber no estuvo de acuerdo. Lo comparó más bien con un estudiante de conducción y al ser humano al volante con un instructor de conducción.

Ross Gerber, al volante, y Dan O'Dowd, al volante, observan cómo un Tesla Model S, ejecutando el software Full Self Driving, pasa una señal de alto. El Proyecto Dawn

En las pruebas, Gerber tomó el volante, O'Dowd montó escopeta y condujeron por Santa Bárbara, California, o fueron conducidos, si se prefiere, con la ayuda de Gerber. En un vídeo que el equipo publicó en línea, cubrieron carreteras, autopistas de varios carriles y una zona de cruce con peatones. En un momento dado pasaron junto a un camión de bomberos, que el software del coche confundió con un simple camión: un error, aunque nadie estuvo en peligro. A menudo, el coche se detenía bruscamente, más bruscamente de lo que lo habría hecho un conductor humano. Y una vez se pasó una señal de alto.

En otras palabras, no querrás quedarte dormido mientras el FSD conduce. Y, si escuchas a O'Dowd, no querrás FSD en tu coche en absoluto.

O'Dowd dice que le gustan los coches Tesla, pero no su software. Señala que compró un Tesla Roadster en 2010, cuando todavía era el único vehículo eléctrico que existía, y que no ha conducido ningún otro automóvil hasta el día de hoy. Le compró a su esposa un Tesla Model S en 2012 y ella todavía no conduce nada más.

“Hemos informado de docenas de errores y no pueden o no quieren solucionarlos. Si es "no lo haré", eso es criminal; si es 'no puedo', no es mucho mejor”. —Dan O'Dowd, el Proyecto Amanecer

Había oído hablar del sistema de conducción autónoma de la empresa, originalmente conocido como AutoPilot, en sus primeros años, pero nunca lo usó. Su Roadster no pudo ejecutar el software. Sólo se dio cuenta cuando supo que el software había estado implicado en accidentes. En 2021 lanzó Dawn Project, una organización sin fines de lucro, para investigar y encontró muchos errores en el software. Dowd publicó los hallazgos, publicó un anuncio en The New York Times y un comercial durante el Super Bowl. Incluso jugó con una campaña de un solo tema para el Senado de Estados Unidos.

En parte se siente ofendido por lo que considera el uso de software poco confiable en aplicaciones de misión crítica. Pero tenga en cuenta que su propia empresa se especializa en la confiabilidad del software, y que esto le despierta interés en dar a conocer el tema.

Nos reunimos con O'Dowd a mediados de junio, cuando se estaba preparando para la transmisión en vivo.

IEEE Spectrum: ¿Cómo empezó?

El Proyecto Dawn de Dan O'Dowd ha descubierto una serie de errores en el software de conducción autónoma total de Tesla.

Dan O'Dowd: A finales de 2020, ellos [Tesla Motors] crearon un sitio beta, reunieron a 100 fanáticos de Tesla y les dijeron: pruébenlo. Y lo hicieron, y eso provocó muchas cosas realmente malas; se pasó los semáforos en rojo. Pero en lugar de solucionar los problemas, Tesla amplió la prueba a 1.000 personas. Y ahora mucha gente lo tenía, pusieron cámaras en los autos y lo pusieron en línea. Los resultados fueron simplemente terribles: intentó estrellarse contra las paredes y las zanjas. En algún momento de 2021, a mediados de año, pensé que no debería estar en el mercado.

Fue entonces cuando usted fundó el Proyecto Dawn. ¿Puedes dar un ejemplo de lo que descubrió su investigación?

O'Dowd: Estaba en un coche [Tesla], como pasajero, haciendo pruebas en una carretera rural, y se acercó un BMW. Cuando se acercaba a nosotros, nuestro coche decidió girar a la izquierda. No había carreteras secundarias ni carriles para girar a la izquierda. Era una carretera de dos carriles; tenemos vídeo. El Tesla giró el volante para cruzar la línea amarilla y el conductor soltó un grito. Agarró el volante, para evitar que cruzáramos la línea amarilla, para salvar nuestras vidas. Tenía 0,4 segundos para hacerlo.

Hemos realizado pruebas en los últimos años. “Para un autobús escolar del que se bajaban niños, mostramos que el Tesla pasaría de largo, ignorando por completo la señal de “zona escolar” y siguiendo conduciendo a 40 millas por hora.

¿Tus pruebas han reflejado eventos en el mundo real?

O'Dowd: En marzo, en Carolina del Norte, un Tesla autónomo pasó volando a un autobús escolar con las luces rojas parpadeando y atropelló a un niño en la carretera, tal como lo mostramos en nuestro comercial del Super Bowl. El niño no se ha recuperado completamente y es posible que nunca lo haga. Y Tesla todavía sostiene que el FSD no pasará volando a un autobús escolar con las luces encendidas y la señal de alto extendida, y no atropellará a un niño que cruce la calle. El hecho de que Tesla no haya solucionado o incluso reconocido estos grotescos defectos de seguridad muestra una depravada indiferencia hacia la vida humana.

Simplemente te subes a ese auto y lo conduces, y en 20 minutos hará algo estúpido. Hemos informado docenas de errores y no pueden o no quieren solucionarlos. Si es "no lo haré", eso es criminal; si es "no puedo", no es mucho mejor.

¿Tiene algún problema con el coche en sí, es decir, con su parte mecánica?

O'Dowd:Si eliminas el software, seguirás teniendo un coche en perfecto estado, uno que tendrás que conducir.

¿Es realmente tan mala la tasa de accidentes en relación con la cantidad de Teslas en la carretera? Hay cientos de miles de Teslas en las carreteras. Otros proyectos de vehículos autónomos son mucho más pequeños.

O'Dowd: Hay que hacer una distinción. Hay coches verdaderamente autónomos, en los que nadie está sentado en el asiento del conductor. Para un Tesla, necesitas un conductor, no puedes irte a dormir; Si lo haces, el coche se estrellará muy pronto. Mercedes acaba de obtener una licencia en California para conducir un automóvil en el que no es necesario tener las manos al volante. Está permitido, bajo límites, por ejemplo, sólo en autopistas.

“Ahora no se realizan pruebas de software en los automóviles. No como en los aviones, vaya, vaya, estudian el código fuente”. —Dan O'Dowd, el Proyecto Amanecer

Tesla habla de detección de puntos ciegos, frenado de emergencia hacia adelante y un conjunto completo de funciones llamadas asistencia al conductor. Pero básicamente todos los autos que salen ahora tienen esas cosas; Hay peores resultados para Tesla. Pero llama a su paquete Full Self-Driving: los videos muestran a personas sin las manos en el volante. Tienes que demostrar que estás despierto tocando el volante, pero puedes comprar un peso en Amazon para colgarlo del volante y evitarlo.

¿Cómo se podría desarrollar e implementar de forma segura un proyecto de conducción autónoma? ¿Aboga por un uso temprano en dominios muy limitados?

O'Dowd: Creo que Waymo está haciendo eso. Cruise está haciendo eso. Waymo conducía hace cinco años en Chandler, Arizona, donde casi nunca llueve, las carreteras son nuevas y anchas y los semáforos están normalizados y estandarizados. Lo usaron allí durante años y años. Algunas personas se burlaron de ellos por realizar pruebas en un lugar del tamaño de un sello postal. No creo que haya sido un error, creo que fue precaución. Waymo intentó primero un caso fácil. Luego se expandió a Phoenix, también con relativa facilidad. Es una ciudad que creció después de la aparición del automóvil. Pero ahora están en San Francisco, una ciudad muy difícil con todo tipo de intersecciones locas. Les ha ido bien. No han matado a nadie, eso es bueno: ha habido algunos accidentes. Pero es una ciudad muy difícil.

Cruise acaba de anunciar que iban a abrir Dallas y Houston. Se están expandiendo: aparecieron en un sello postal, luego se mudaron a ciudades fáciles y luego a ciudades más difíciles. Sí, ellos [Waymo y Cruise] están hablando de ello, pero no saltan afirmando que están resolviendo los problemas del mundo.

¿Qué sucedió cuando envió los resultados de su prueba a la Administración Nacional de Seguridad en el Transporte por Carreteras?

O'Dowd: Dicen que lo están estudiando. Ha pasado más de un año desde que enviamos datos y años desde los primeros accidentes. Pero no ha habido informes ni comentarios provisionales. "No podemos comentar sobre una investigación en curso", dicen.

Actualmente no se realizan pruebas de software en los automóviles. No como en los aviones, vaya, vaya, estudian el código fuente. Varias organizaciones lo analizan varias veces.

Digamos que ganas tu discusión con Tesla. ¿Que sigue?

O'Dowd: Hemos conectado todo a Internet y hemos puesto computadoras a cargo de sistemas grandes. La gente construye un sistema crítico para la seguridad y luego coloca un producto de software comercial barato en el medio. Es lo mismo que poner un cerrojo de mala calidad en un avión de pasajeros.

Los hospitales son un problema realmente grande. Su software necesita estar realmente reforzado. Están siendo amenazados con ransomware todo el tiempo: los piratas informáticos entran, toman sus datos, no para venderlos a otros, sino para revenderlos a usted. Este software debe ser reemplazado por software diseñado teniendo en cuenta la vida de las personas.

La red eléctrica es importante, quizás la más importante, pero es difícil demostrarle a la gente que es vulnerable. Si lo hackeo, me arrestarán. No conozco ningún ejemplo de alguien que haya cerrado una red con malware.

IEEE Spectrum: ¿Cómo empezó?Dan O'Dowd: Fue entonces cuando usted fundó el Proyecto Dawn. ¿Puedes dar un ejemplo de lo que descubrió su investigación?O'Dowd:¿Tus pruebas han reflejado eventos en el mundo real?O'Dowd:¿Tiene algún problema con el coche en sí, es decir, con su parte mecánica?O'Dowd: ¿Es realmente tan mala la tasa de accidentes en relación con la cantidad de Teslas en la carretera? Hay cientos de miles de Teslas en las carreteras. Otros proyectos de vehículos autónomos son mucho más pequeños.O'Dowd: ¿Cómo se podría desarrollar e implementar de forma segura un proyecto de conducción autónoma? ¿Aboga por un uso temprano en dominios muy limitados?O'Dowd:¿Qué sucedió cuando envió los resultados de su prueba a la Administración Nacional de Seguridad en el Transporte por Carreteras?O'Dowd: Digamos que ganas tu discusión con Tesla. ¿Que sigue?O'Dowd: