Hace 2 años | Por --689162-- a genbeta.com
Publicado hace 2 años por --689162-- a genbeta.com

Lucas Rizzotto, más conocido como Lucas Builds The Future en YouTube, le ha dado 'vida' a su microondas por medio de GPT-3. Con la ayuda de este modelo de lenguaje, este creador de contenido ha entrenado a la IA con un documento de unas 100 páginas, dándole el contexto necesario y explicándole a esta inteligencia artificial que el microondas es en realidad un amigo imaginario que tuvo Rizzotto en su infancia. La historia sin embargo cobró un giro totalmente inesperado, ya que el microondas 'renació' con intenciones poco amigables.

Comentarios

sorrillo

#7 Para eso se hacen pruebas incrementales, empezando por aplicarlo a un entorno simulado, luego en un circuito cerrado, luego por carreteras pero con un conductor atento y con control para detenerlo, luego con un grupo pequeño de usuarios, luego con ...

Con un conductor de autobús tampoco tienes acceso al funcionamiento de su cerebro para saber si te querrá llevar a cachitos, pero para eso tenemos todo tipo de sistemas de control también incrementales. En el peor de los casos sabes lo mismo de como piensa una IA que como piensa Fernando García el conductor de autobuses. Lo deduces de cómo actúa.

Claro que no tiene maldad

O sí. Y bondad. Ya sea "real" o proyectada por nosotros, como con las otras personas.

skaworld

#8 La diferencia es que una vez liberado el desarrollo (Fernando García obtiene la licencia de señor autobusero) ya asumes que todo está feten y no hay más correciones (A fernando garcia todos los dias su mujer, sus hijos, sus compañeros y su jefe le ven la cara y si empieza a babear mientras se cree que es un pato, le indican que igual hoy no esta pa conducir, eso... a dia de hoy no me imagino como implementarlo en una IA)

El protagonista de la anecdota (que es eso, una anecdota pero tiene cierta duda metafisica por detras) lo tiene mu facil, se cosca de que algo va mal porque habla con el micrrondas y este le ofrece animosamente tostarlo, con lo que movido por su instinto de supervivencia decide que ya es hora de desenchufar y a otra cosa. Si tu implementas un modulo autonomo en un autobus, los usuarios no van a hablar con el, solo se van a dar cuenta de que algo malo esta pasando cuando... efectivamente algo muy malo pase y en este caso eso malo... puede ser muy malo

Esto no es una defensa del ludismo por mi parte, vamos hacia los procesos inteligentes y la automatizacion y ojo, yo formo parte de esa masa de trabajadores que se paga la hipoteca con estas mierdas, pero creo que expone muy bien el debate de la necesidad de evaluacion constante y supervision de los sistemas "inteligentes"

Por mucho que la calculadora diga 2+2=5 no estaria de mais que un humano revise las cuentas finales y diga oye igual aqui algo falla

sorrillo

#9 La diferencia es que una vez liberado el desarrollo ya asumes que todo está feten y no hay más correciones

En absoluto. En la época en la que vivimos se da por hecho que el desarrollo es permanente, se produce antes de ponerlo en producción y después de ponerlo en producción. Los vehículos que llevan IA son actualizables remotamente.

A fernando garcia todos los dias su mujer, sus hijos, sus compañeros y su jefe le ven la cara y si empieza a babear mientras se cree que es un pato, le indican que igual hoy no esta pa conducir, eso... a dia de hoy no me imagino como implementarlo en una IA

Sencillo, se graba la conducción de forma permanente (es el resultado de la IA) y en caso de accidente o queja de los ocupantes se envía el último segmento de grabación para análisis junto con la información de los sensores que han llevado a ese desenlace. Si se identifica un problema a resolver se resuelve y se actualizan todos los vehículos con esa mejora.

Si tu implementas un modulo autonomo en un autobus, los usuarios no van a hablar con el, solo se van a dar cuenta de que algo malo esta pasando cuando... efectivamente algo muy malo pase y en este caso eso malo... puede ser muy malo

En vehículos como son los trenes en los cuales no es realista que el pasajero se comunique con el conductor existen frenos de emergencia al alcance de los pasajeros. Con multas en caso de mal uso. En un autobús no es necesario porque un grito basta para alertar al conductor. Si el conductor es una IA basta con implementar frenos de emergencia como existen en los trenes, un freno que puede ser completamente mecánico de forma que la IA no pueda hacer nada para interferir con ello, desconectando el freno los controles de la IA de forma mecánica.

pero creo que expone muy bien el debate de la necesidad de evaluacion constante y supervision de los sistemas "inteligentes"

No hay debate alguno sobre ello, la evaluación constante y supervisión de los sistemas "inteligentes" es algo que tiene el consenso completo de la sociedad y de quienes desarrollan esos sistemas.

Por mucho que la calculadora diga 2+2=5 no estaria de mais que un humano revise las cuentas finales y diga oye igual aqui algo falla

Y así ocurre, cuando un humano detecta que la calculadora no funciona como sería esperable se lleva al servicio técnico y se revisa. Pero cuando se han fabricado miles de millones de calculadoras y su ratio de fallo es ínfimo es absurdo pretender que en cada calculadora haya al lado un técnico de la empresa fabricante verificando a mano todas las operaciones. Eso se hace como parte del desarrollo inicial y se va dejando de hacer conforme se va viendo que ya no es necesario, a menos que alguien tenga motivos para hacer una excepción y en ese caso se hace.

skaworld

#11
"En la época en la que vivimos se da por hecho que el desarrollo es permanente, se produce antes de ponerlo en producción y después de ponerlo en producción. Los vehículos que llevan IA son actualizables remotamente.

A fernando garcia todos los dias su mujer, sus hijos, sus compañeros y su jefe le ven la cara y si empieza a babear mientras se cree que es un pato, le indican que igual hoy no esta pa conducir, eso... a dia de hoy no me imagino como implementarlo en una IA

Sencillo, se graba la conducción de forma permanente (es el resultado de la IA) y en caso de accidente o queja de los ocupantes se envía el último segmento de grabación para análisis junto con la información de los sensores que han llevado a ese desenlace. Si se identifica un problema a resolver se resuelve y se actualizan todos los vehículos con esa mejora."


Tu tras pasar la UAT tiras pa produccion, hay un par de dias que lo tienes en "ultracare" (pos revisas a ojo que todo marcha) pero luego.... Si no casca de manera estrepitosa o alguien da la voz de alarma.... no se suelen revisar las cosas.

El problema con una IA entrenada que creo que es por lo que no estamos entendiendonos, es que yo como tecnico no puedo saber a ciencia cierta que ha hecho que tome una decision erronea, son cajas negras, igual ha sido leer mal una señal, igual ha sido la camiseta de un peaton, igual ha sido un pegote de mierda en un sensor... puedo presuponer que es lo que ha pasado pero no lo se al 100% es un "a ojo" y en base a ese "a ojo" como reeducas a la inteligencia? le vuelves a pasar todos los datos + el nuevo caso anecdotico que ha provocado un error fatal ? Y si ese nuevo caso anecdotico que ha provocado un error fatal rompe otra parte del aprendizaje que previene de otro error mucho mas frecuente? Y si para ignorar la camiseta con "stop" de un peaton que provoca un accidente, haces que detecte peor los "stops" y se produzcan más accidentes derivados de ello?

No se meu, te puedo asegurar que el debate sobre los sistemas autonomos no es nada sencillo

sorrillo

#13 Tu tras pasar la UAT tiras pa produccion, hay un par de dias que lo tienes en "ultracare" (pos revisas a ojo que todo marcha) pero luego.... Si no casca de manera estrepitosa o alguien da la voz de alarma.... no se suelen revisar las cosas.

Lo mismo ocurre con los conductores humanos.

es que yo como tecnico no puedo saber a ciencia cierta que ha hecho que tome una decision erronea

Tampoco con los humanos. Pero puedes observar los resultados. Son dos cajas negras que puedes juzgar por cómo actúan, lo cual es público y analizable.

igual ha sido leer mal una señal, igual ha sido la camiseta de un peaton, igual ha sido un pegote de mierda en un sensor...

Exacto. Igual que con los humanos. Puedes hacer a posteriori un análisis forense y sacar conclusiones.

puedo presuponer que es lo que ha pasado pero no lo se al 100% es un "a ojo" y en base a ese "a ojo" como reeducas a la inteligencia?

Pues de la misma forma que reeducas a los humanos, cambiando los protocolos de seguridad según hayan sido tus conclusiones. Pasándote de frenada tanto más como menos fiables sean tus conclusiones, por si acaso.

le vuelves a pasar todos los datos + el nuevo caso anecdotico que ha provocado un error fatal ?

Los detalles dependerán de las conclusiones y corresponde a los responsables expertos en esa materia el tomar las decisiones oportunas caso por caso.

Y si ese nuevo caso anecdotico que ha provocado un error fatal rompe otra parte del aprendizaje que previene de otro error mucho mas frecuente?

Se lleva a cabo lo mismo que previamente, un análisis forense, unas conclusiones, y se mejora según consideren los responsables expertos en esa materia. De hecho en el caso que citas tan explícito bastaría con volver a la versión anterior (al ser más frecuente es lo más urgente) y luego volver a empezar desde cero con la resolución del problema original cuya solución generó mayores problemas que su ausencia.

Lo que te estoy describiendo no es nada nuevo, se lleva haciendo desde hace muchas décadas con todo tipo de aplicaciones, son procedimientos habituales en montones y montones de empresas que se dedican al desarrollo de software. No estamos inventando nada nuevo, no hace falta inventar nada nuevo.

Y si para ignorar la camiseta con "stop" de un peaton que provoca un accidente, haces que detecte peor los "stops" y se produzcan más accidentes derivados de ello?

Eso es fácil, se convierte en delito el fabricar y llevar camisetas que puedan confundirse con señales de tráfico. Cualquier acto que de forma deliberada pueda interferir con los vehículos autónomos se establece como ilegal, con sanciones y prisión según la gravedad de las consecuencias. Y en paralelo se mejora la IA para que sepa reconocer esos casos sin empeorar su funcionamiento habitual.

skaworld

#16
Si Fernando Garcia autobusero la lia parda y la caga, cojo a Fernando Garcia y le saco el carnet de conducir. Un lamentable accidente subsanado, A partir de ahor el conductor de la linea 121 es Facundo Benitez. Fernadno al psicologo que algo no le carbura bien.

Si la IA que controla los autobuses la lia parda y la caga tengo que dar de baja la IA y pasarla a chapa y pìntura, eso implica que no hay autobuses mañana y previsiblemente pasado y al siguiente tampoco (porque sacarse de la chistera una alternativa si hay alguna sospecha de que algo falla en la ia que has puesto en tus autobuses autonomos no vas a dejarla rulando pa que mate a alguien y te lluevan las demandas)


Claro que los procesos de calidad se llevan haciendo toa la vida, como que desde los años 30, pero sabes que pasa? que aprendizaje atomático por mucho que te lo vendan ahora nuevo es una técnica que lleva rulando por ahi desde los 50 planteate por qué se toma con cautela su implementacion.

sorrillo

#17 Si la IA que controla los autobuses la lia parda y la caga tengo que dar de baja la IA y pasarla a chapa y pìntura, eso implica que no hay autobuses mañana y previsiblemente pasado y al siguiente tampoco

Con el Boeing 737 MAX se sospechaba que había un automatismo que lo convertía en peligroso y se dejaron en tierra los Boeing 737 MAX hasta que se consideró resuelto. No se dejaron en tierra todos los aviones que llevasen un ordenador a bordo, que son básicamente todos, sino solo el modelo específico del que se sospechaba el problema.

El reto que indicas se resuelve con diversidad y con competitividad, con no tener una flota de únicamente autobuses Renault sino tener tres marcas distintas funcionando a la vez, si una de esas marcas se queda en el garaje se tira de las otras dos y si hace falta se adquieren más de otra marca habiendo asegurado esa situación para que lo cubra el seguro o el contrato con el fabricante que se ha quedado en el garaje.

por mucho que te lo vendan ahora nuevo es una técnica que lleva rulando por ahi desde los 50 planteate por qué se toma con cautela su implementacion.

Se toma con cautela porque se busca ponerla a los mandos de maquinaria pesada con seres humanos dentro, se toma con cautela porque a toda máquina de transporte de humanos se es cauteloso antes de ponerlo al servicio del público.

n

#18 y #17 Quiero daros las gracias por vuestra conversacion porque no habia entendido bien el articulo, lo estais explicando vosotros mucho mejor y con mas profundidad

g

#37 Me uno a la respuesta (ha sido una conversación amena, divertida e instructiva) y añado que lo mejor es que les paguemos el doble a Fernando y Facundo y nos centremos en mejorar sistemas que enfríen cervezas en 0,5 milisegundos.

b

#9 La cosa es...¿ Existe alguna manera de que una IA no sea psicópata? Porque basicamente procesa los datos lógicos y aquí no entrán los sentimientos y las emociones, que son elementos que practicamente no se pueden medir ni procesar como datos.

Ako3

#7 Me has recordado con tu comentario (con lo de llevarte a cachitos) a la película 2001, Odisea... (

D

#7 Efectivamente , alrededor del mundo , la ignorancia mata mas que la maldad.

elvecinodelquinto

#6 GPT-3 se ha entrenado con textos de todo tipo y condición, desde artículos periodísticos hasta la Wikipedia (entera). Si ha sorprendido en algo este modelo es el alcance de su generalización, llegando a hacer cosas que en ningún momento habían formado parte de los objetivos: traducir idiomas, resumir textos, escribir código, etc. Es decir, lo contrario al sesgo.

Jakeukalane

#5 uno con un gpt-j https://6b.eleuther.ai/

naxho

#5 Es una trola como un piano de cola

elvecinodelquinto

#5 Efectivamente, pero precisamente lo sorprendente de este modelo es todo lo que ha conseguido a partir de una premisa tan sencilla.

obmultimedia

Pues menos mal que no le puso la IA de una novia imaginaria, me imagino la conversacion:
"donde esta le pechuga de pollo que he metido dentro del microondas para descongelar?
-No se, tu sabras!"

b

#19 ¿ Te pasa algo?

No me pasa, nada....

Manuel.G

El vídeo no tiene desperdicio, lo que me he llegado a reír

AubreyDG

Somos los Magnetrones de los Anunnakis (da para camiseta).

c

Vaya mierda de IA que decide cocinar al humano sin asegurarse si cabe dentro del microondas o siquiera si efectivamente ha entrado. Esta no va para skynet.

Sinfonico

Un castillo lleno de pelirrojas con sus cámaras para pelirrojos jajajajajajajajaja
Pues es un sueño muy factible

D

Uf, qué pereza.

D

Espero que el vídeo sea un poco mejor que el artículo...

frg

#1 Ya dicen que están usando la misma IA para producir más artículos. Si la entrenas con basura, escribe basura

powernergia

¿Esto no puede ser cierto no?.

samsaga2

#12 Es una trola como una casa. GPT-·3 no hace eso, no evoluciona ni se vuelve "malo". No decide absolutamente nada, solo es como un sistema de autocompletar texto pero con esteroides.

sorrillo

#22 Las IA previas parecían tontas sobretodo por la poca memoria que tenían de lo ocurrido previamente, por perder el contexto.

Pero por lo que veo en el vídeo de este meneo parece que eso GPT-3 lo tiene bastante resuelto y la IA sí hace referencia al contexto que se le da y a lo que ha ocurrido desde entonces en la charla, sí reconoce que le estás preguntando por algo que ha hecho y sí lo intenta justificar. No sé cuanta edición hay en este vídeo y cuantas partes absurdas de la charla no aparecen, pero si la IA sí mantiene todo el contexto el avance es muy significativo.

No decide absolutamente nada, solo es como un sistema de autocompletar texto pero con esteroides.

A ver si con esto también estarás describiendo a un cerebro humano ...

C

Skynet, calienta que sales.

iñakiss

#4 más bien maximum overdrive

e

Ya lo dice el refrán: "es peligroso meter un huevo en el microondas porque te puedes pillar el otro con la puerta..."

JOFRE

que rencoroso el microndas:
. De hecho, una vez el microondas le pidió a Rizzotto a entrar en él. Le siguió el juego, diciéndole que estaba ya dentro de él, y una vez hecho esto, el microondas decidió encenderse. Así es, Magnetron quería matarlo manteniéndolo dentro de él.
Rizzotto no sabía el porqué, así que le preguntó directamente. El microondas le contestó que 'quería hacerle daño al igual que él se lo hizo' hace tiempo. En este momento Lucas descubrió lo que le pasaba, y es que llevaba como unos 20 años sin hablar con su amigo imaginario

Donpenerecto

Normal, cualquier buen microondas reaccionaria de la misma manera si fuera utilizado para recalentar pizza con piña cada 2 días. Para algo lo dotó de inteligencia 😂 😂 😂

Ako3

Pero con la placa de pruebas esa que usa, yo no me fiaría mucho.

W

¡Matar a todos los humanos!

j

vaya puta paja mental ... ni hasta las trancas de farlopa te imaginas tanto gilipollez wall wall wall wall

David_OM

El video está tremendo y muy currado, a diferencia del artículo.