Hace 1 año | Por gelatti a komonews.com
Publicado hace 1 año por gelatti a komonews.com

La policía en Alemania dice que pasó bastante tiempo intentando detener a un conductor de Tesla que se había quedado dormido al volante. Los agentes de tráfico de Bamberg siguieron al vehículo eléctrico durante unos 15 minutos el miércoles en la Autobahn 70 (A70) del país después de señalar una parada de tráfico con repetidas bocinas y sirenas, según un comunicado de Polizei Bayern (Policía bávara).

Comentarios

sorrillo

#10 Deberías aconsejar a la policía para que usen esa fórmula que propones.

KevinCarter

#5 Sí, sin duda. Como los virus y antivirus pero con coches con cientos de ingenieros vs "el atacante". Dame de esa mierda que te tomas que tiene que ser la repera vivir en esas películas.

sorrillo

#6 Como los virus y antivirus

Exacto.

con cientos de ingenieros vs "el atacante".

Siempre ha sido así con los virus y antivirus.

tiene que ser la repera vivir en esas películas.

Es una película que ya hemos vivido con los virus y antivirus. No entiendo como has sido capaz de identificar un símil válido y luego tú mismo te montas películas sobre lo distinto que es por ser un Tesla.

musg0

#6 es más fácil destruir que construir. Un ingeniero tiene que pensar en miles de formas de proteger, y un atacante descubrir sólo un fallo para poder entrar

KevinCarter

#8 Sí, sí, ya por eso la tesis vuestra es válida y mejor que no "enseñen" al coche a pararse ante la autoridad (cosa lógica en las cabezas normales), sino que salga corriendo por si es un ladrón de coches. Yo creo que no estáis bien de la cabeza algunos.

h

#6 Existe un campo de investigación llamado Adversarial learning que precisamente trata de estudiar cómo engañar a una red neuronal. Leí un paper hace unos años sobre cómo unos investigadores habían cambiado mínimamente una señal de tráfico de forma indistinguible para un humano pero que la cámara del coche la interpretaba de forma totalmente distinta.

KevinCarter

#17 ¿Y? No estoy diciendo que eso no exista. Lo que estoy diciendo es que eso no justifica que ya, por eso, no se deba programar a un vehículo autónomo a que pare cuando la autoridad vial le dé el alto, que es lo que ha pasado en este caso y pasará en otros. Soscarrillo, o cómo se llame ese usuario, defiende que por eso es mejor no hacer nada y que los vehículos hagan lo que quieran (imagino que como buen libertario que es).

KevinCarter

#16 Goto #19 Una cosa no quita la otra.

sorrillo

#13 Soy incapaz de imaginarme cuales podrían ser las motivaciones de un ladrón.

Zsusanna

#14 debe ser que vivo en los mundos de Yupi… pero soy de los que piensan que todo el mundo es bueno por naturaleza.

P

Piloto automático de Tesla evita un accidente al quedarse su conductor dormido.

Otra forma de redactar el titular menos clickbait.

l

No se puede leer la noticia, aparecen varios popups en un círculo cerrado que no se pueden cerrar.

M

#9 a mi me sale 403 Forbiden

mikelx

Parece evidente que el piloto automático necesita aprender a responder a las autoridades (policia, ambulancias etc)

sorrillo

#2 Hasta que algún ladrón decida aprovecharlo para hacer detener el vehículo de la víctima antes de atacarle y luego será evidente que el piloto automático necesita aprender a no responder a ciertas señales de aparentemente las autoridades.

KevinCarter

#3 Sí, seguro que a una inteligencia artificial no se le puede enseñar entre diferenciar a un ladrón de una autoridad. ¡Pero seguro, eh!

sorrillo

#4 El atacante puede con un Tesla ir probando hasta que encuentre la combinación que funciona para que el vehículo se detenga voluntariamente y luego usarlo contra otros Tesla.

Cuando ocurra y se investigue actualizarán el algoritmo para detectar ese caso, el atacante recibirá también esa actualización y sobre ésta puede repetir el ciclo anterior.

milkarri

#5 Ciegas el coche con un foco infrarrojos y se para.
No hay que darle más vueltas

x

#4 tal y como se diseñan hoy en día es algo totalmente factible. Los procesos de aprendizaje más avanzados que hay hoy en día llevan años demostrando que tienen dos cuestiones sin resolver por completo. Una es la generalización de los modelos y otra es la falta de robustez de las respuestas cuando se generan pequeños cambios en el entorno de trabajo estudiado. Por eso puede resultar muy difícil generar un sistema muy complejo, pero igual resulta muy fácil de engañar. Es lo que tienen los sistemas complejos, pueden ser muy sensibles a circunstancias que ni siquiera te habías planteado previamente.

Zsusanna

#3 y por que alguien querría hacer eso?