Hace 1 año | Por ElRelojero a computerhoy.com
Publicado hace 1 año por ElRelojero a computerhoy.com

Un anuncio en donde un Tesla equipado con el piloto automático atropella maniquíes de niños y se salta señales y semáforos, ha causado polémica. Un grupo llamado The Dawn Project quiere que Estados Unidos retire de la circulación la conducción autónoma de los Tesla. Hoy se celebra la Super Bowl, en cuyos descansos se emiten anuncios que cuestan una millonada. Un anuncio anti-Tesla con atropellos de maniquíes de niños y otras barbaridades al volante pide retirar la conducción autónoma de los Tesla.

Comentarios

carlosmesan

#1 ¿Podrías ampliar ese detalle al que te refieres del negro? Desconozco esa historia.

ElTioPaco

#4 viene de las primeras pruebas de autopilot, resulta que entrenaron los algoritmos con maniquíes de blancos, tanto para pruebas diurnas como nocturnas, y eso llevo a que los algoritmos de detección de personas tuvieran mucho más problemas para considerar "persona" a la gente de color aumentando los accidentes, no solo en la calle, sino en todas las pruebas cuando empezaron a usar maniquíes de negros tras los primeros sustos.

Este ejemplo es lo mejor para entender que aunque no lo hagamos conscientemente, la sociedad aún tiene una pequeña parte de machismo y racismo, quizás a un ser humano no se le note, pero cuando ese ser humano entrena a una máquina para que tome decisiones, aparece con gran naturalidad, ya que la máquina no tiene educación ni decoro, solo reproduce fríamente lo aprendido.

MIrahigos

#6 ¿Entonces no acelera cuando detecta un negro o una mujer?


No, no parece muy útil el autopilot.

ElTioPaco

#7 eso no lo sabemos, lo que está claro es que tenia problemas para detectarlos como "humanos".

Recordemos, que cuando se te cruza un "animal" en la carretera, lo que recomiendan es acelerar. Así que igual si que el coche aceleraba y todo.

carlosmesan

#6 Hombre tanto como aventurarse a decir que hay racismo por no haber usado un set de pruebas más diverso me resulta poco exacto. Podría decirse también que en nuestras sociedades existe un desprecio estructural hacia los niños porque el Tesla tampoco se entrenó con este tipo de maniquís.

ElTioPaco

#9 ah, que tú no odias a los niños?

No, ahora en serio, los ingenieros estaban centrados tan en su propio ombligo que sus pruebas eran básicamente de adultos blancos, con ropa iluminada, ni siquiera en las pruebas nocturnas, donde se puede esperar que a un ingeniero se le pase por la cabeza lo de "a los negros de noche se les ve aún menos" se les ocurrió.

El software estaba diseñado por hombres blancos y se probó con maniquís que representaban, hombres blancos.

Y si, es un fallo menor, siempre y cuando sean las primeras pruebas, pero es que fueron todas.

Aunque te doy la razón con lo de los niños.... Y los enanos!!!!

Tengo mis dudas de que aún hoy en día hayan probado con gente en silla de ruedas.

carlosmesan

#13 pues no sé pero en mi empresa si no se prueba el código no se puede subir a producción. Más crítico me parece no haber realizado las pruebas suficientes con un objeto en el que está en juego la vida de las personas.

ElTioPaco

#14 en la mayoría de empresas, pero Tesla es Tesla, y parece ser que son bastante chapuceros.

Mira los años que llevan con el autopilot y ya hay empresas alemanas que tienen mejor software en la mitad de tiempo de desarrollo.

Nylo

#1 el conductor SIEMPRE tiene la responsabilidad, con o sin apagado del autopilot. Hace falta un nivel 3 para que la responsabilidad sea "del coche", y que yo sepa Tesla no homologa ese nivel. Si realmente el autopilot está haciendo eso que dicen, será para blanquear lo mal que funciona en realidad, no para evadir unas responsabilidades que ahora mismo no tiene.

Robus

#1 Por curiosidad (no digo que no sea cierto) ¿puedes enlazar información sobre lo de que el autopilot se apaga antes de atropellar? Me parece una salvajada... pero me parece raro que, pudiendose apagar, no le de al freno.

ElTioPaco

#10 yo lo leí por meneame en su momento, pero ya sabes que el buscador es basura.

Así que te pongo este enlace, se ve que se apaga(o apagaba, igual esta ya corregido) cuando está claro que el accidente ya no es evitable, cuando tiene distancia de frenado o de giro no se apaga, solo cuando la liada está hecha, y te has salido de la carretera o no puedes evitar el "obstáculo" delante.

https://www.elespanol.com/omicrono/tecnologia/20220614/tesla-apagan-piloto-automatico-accidente-segundos-evitarlo/680182415_0.html

Robus

#11 Gracias!

B

Brutal, bro.