Hace 9 años | Por gonas a microsiervos.com
Publicado hace 9 años por gonas a microsiervos.com

Según Elon Musk de Tesla, la inteligencia artificial «es nuestra mayor amenaza», excepto cuando se aplica a algo «tan concreto» como la conducción. Entonces sí, tiene sentido que sea la inteligencia artificial la que vaya por ahí llevando “dos toneladas de maquinaria mortal”.

Comentarios

gontxa

#3 Anda, ¡yo tenía uno de esos cuando tenía 4 o 5 años!

sorrillo

#2 El error informático se llama cuando no se quieren asumir responsabilidades. Si no lo que es es un error humano, que puede ser de quien diseñó el sistema, quien lo implementó o quien lo puso en marcha sin atender a los requisitos correspondientes.

T

"tiene sentido que sea la inteligencia artificial la que vaya por ahí llevando “dos toneladas de maquinaria mortal”." -> Lo que no tiene sentido es que se vaya sin inteligencia con dos toneladas de maquinaria mortal sin inteligencia. Y de eso hay mucho, sobretodo los domingos a las 7 de la mañana

davokhin

Totalmente de acuerdo. El error humano es muy alto comparado con el error inducido por una máquina, que si está bien diseñada llega a ser despreciable.
A modo de ejemplo, el 90% de los accidentes aéreos son error humano (Piloto, Mantenimiento, ATC) frente a un pequeño porcentaje de un fallo de diseño.
Antes o después, los humanos estaremos fuera de la ecuación por nuestra propia seguridad (de conducción estoy hablando de momento).
P.S: El porcentaje del 90% no es al alimón, lo he leido en varios sitios, pero paso de buscarlo ahora.

gonas

#1 El error humano es cuando hay algún muerto al que echarle la culpa. Si no lo hay se llama error informático.

davokhin

#2 El error humano en aviación es cuando se ha realizado la investigación y se ha llegado a ésa conclusion.
He mirado las estadísticas, alrededor del 20% de los accidentes se deben al fallo de diseño, 12% Tiempo, 8% Terrorismo/Sabotaje, 60%(error humano, piloto+mantenimiento+ATC).
http://www.planecrashinfo.com/cause.htm

gonas

#6 Esos informes llevan mucha demagogia, porque, ¿quien tiene la culpa cuando no se han tomado todas las medidas de seguridad disponibles? Un ejemplo más cercano es el accidente del tren en Santiago. ¿Quién tiene más culpa el conductor por no frenar o los responsables por no poner los sistemas de seguridad requeridos? Si cualquiera de las dos partes hubiera hecho bien las cosas el accidente no se hubiera producido, pero tubo que producirse los dos fallos a la vez para que se produjera el accedente.

davokhin

#7 Buen ejemplo el del tren de Santiago.
Si en lugar de un maquinista, hubiera sido un tren totalmente automatizado (cómo el de los aeropuertos o el de algunos metros de ciertas ciudades), no hubiera ocurrido el accidente.
Que la culpa final es de los responsables de los sistemas de seguridad y señales? Si, pero si en lugar del conductor hubiera una máquina que tiene un programa que cumplir y que no tiene despistes, pues no habría pasado nada.
Una vez más, nuestro mayor peligro somos nosotros mismos, y sobre todo, depender del acto de una persona en un pequeño margen para salvar a muchas. Hasta que no elimininemos esos riesgos...

ikipol

El artículo es de chiste

D

En el futuro, no existirá Tesla.

D

Conducir un coche es un placer vetado a las maripilis y a los maricones. Conducir es libertad, ser conducido es Gran Hermano.

Cuando Tesla fabrique un coche que pueda circular por todos los climas del mundo sin incendiarse durante un millón de km o más ,y con autonomía de mas de 600km, habrá que tenerla en cuenta

D

Sé que me estoy pensando pero no olvidemos que antes era impensable no tener un operario en un ascensor. Sí, vale, me pasé mucho pero ya me entendéis. lol Eso sí, hablar de futuro, como quien dice pronto, es hablar demasiado.

kucho

en el futuro, pues si, algún día, pero no lo verán nuestros ojos.