Científicos del MIT crearon una inteligencia artificial alimentándola con contenido violento sacado de Reddit antes de mostrarle una serie de tests de Rorschach. Allá donde una IA "estándar" interpreta imágenes como, por ejemplo, "una fotografía en blanco y negro de un guante de béisbol", Norman ve "un hombre asesinado por una ametralladora a plena luz del día".
#19:
Wow, esta gente a demostrado que si a una IA le das datos sesgados, sacará conclusiones sesgadas.
No me lo puedo creer
#14:
Vamos no me jodas. Entrenan una IA con imágenes violentas para identificar exclusivamente imágenes violentas, y ante un test de Rochas la identifica como "oh, sorpresa!" una imágen violenta.
Qué tiene eso de noticia?
#10:
#7#8 Segun Asimov, en su primera ley de la robótica estipula:
-Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Por lo que una IA no podría no echarle cebolla a la tortilla ya que iría en contra de su programación al provocar sufrimiento con un engrudo tan desagradable, confiemos en que la ética de los desarrolladores a la hora de mantener la ciencia al servicio del hombre.
#13:
Y seguimos utilizando la "psicopatía" mal, relacionándola con el gusto por la muerte, la crueldad, etc. De hecho la mayoría de IAs son psicopáticas, pero no por lo de la noticia, sino porque son incapaces de crear vínculos afectivos o de entender los sentimientos ajenos -y propios, como la alexitimia.
#23:
#10 Las 3 leyes de Asimov no dejan de ser ficción literaria. A la hora de la verdad si la IA está entrenada con un dataset donde las tortillas de patatas vienen con cebolla ... ni daño a los humanos, ni etica ni leches.. seran con cebolla.
Moraleja... inundar todos los foros con frases como 'tortilla con cebolla siempre!' para conseguir el efecto deseado
#3:
Será interesante descubrir a una AI suicidandose a la hora de decidir que echarle a la tortilla
#2:
Buah, si la alimentan con contenido general de ForoCoches se lía a matar mujeres, musulmanes y catalanes.
#12:
#10 Uno de sus padres es español, asi que confio en que sabra que la cebolla es vida.
Vamos no me jodas. Entrenan una IA con imágenes violentas para identificar exclusivamente imágenes violentas, y ante un test de Rochas la identifica como "oh, sorpresa!" una imágen violenta.
Qué tiene eso de noticia?
#14 Para el informático nada. Es una hiperespecialización del algoritmo de aprendizaje de libro. Para el público en general mola eso de "hemos creado una IA psicópata que cuando tome conciencia de sí misma querrá matar a todos los humanos"
#14 Si lees el artículo verás que es aún peor que eso (o esos de avclub son idiotas y han tergiversado la información original, no sé), porque dicen que no alimentan a la IA con ninguna imagen de personas muriendo:
"the study says that Norman wasn’t actually given any photos of real people dying, it just used graphic image captions from the unnamed Reddit page"
WTF?
Entonces qué coño ha hecho la IA? ponerle etiquetas al azar a las imágenes?
A ver si no entiendo qué significa "graphic image caption". Lo de "graphic" junto a "image" ya me confunde.
#45 Sí. Suena justo a eso, una IA soltando construcciones de frases bastante aleatorias basadas en frases escabrosas. Ni siquiera "comprende" qué es un hombre, matar, o una ametralladora.
Como ejercicio educativo, mola mucho. Forzar los límites del diseño siempre es divertido y da un conocimiento más amplio de cómo funciona el sistema abordándolo desde la práctica.
En mi experiencia como profe de Robótica, creo que la gente aprende mucho más haciendo fallar una máquina una vez que viéndola funcionar bien cien veces.
Ahora bien, esto es lo que es. Una práctica de clase, un experimento educativo. Una curiosidad que sirve para explicar muchas cosas de qué puede y qué no puede hacer una IA o cómo llega a sacar sus conclusiones.
Fuera del laboratorio no tiene nada de utilidad o innovación. La noticia es curiosa, pero la redacción es absurdamente sensacionalista y sesgada.
#51 Cierto, estuve trabajando con un "robot" de cuatro ejes y recién instalado buscaba las formas de pararlo o joderle de las mayores y estrambóticas maneras posibles, el técnico flipaba, pero quería saber cómo tenía yo que actuar para cada ocasión.
Fue muy divertido...
#59 La guinda es hacerlo en competiciones como sumo o fútbol y utilizarlo para confundir los sensores del rival, disparando rutinas planeadas con otra finalidad, retrasándolos o volviéndolos vulnerables. Y, por supuesto, lo que tú dices, obligarlo a fallar para corregir su programación.
#7#8 Segun Asimov, en su primera ley de la robótica estipula:
-Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Por lo que una IA no podría no echarle cebolla a la tortilla ya que iría en contra de su programación al provocar sufrimiento con un engrudo tan desagradable, confiemos en que la ética de los desarrolladores a la hora de mantener la ciencia al servicio del hombre.
#70 Hasta en los principios hay prioridades.
En el balance entre la libertad de prensa y el derecho a la intimidad hay que alcanzar compromisos.
Si tenemos que transigir en ingredientes no normativos para la paella para conservar la integridad de la tortilla de patatas...sea. Con llamarlo arroz con cosas , listo. Pero correr el riesgo de comer un cacho de tortilla de patatas y que venga sin cebolla... JAMAS!
#71 En la futura guerra cebollinos/sincebollinos, los sincebollinos ganaremos. Tardamos menos en hacer la tortilla porque no tenemos que usar cebolla, ergo tendremos mas tiempo para programar mejores terminator.
#74 El escorbuto es falta de vitamina C. Con 5-7 mg/100g de cebolla no vamos a ningun lado. Con un pimiento (190mg) o perejil (120) os damos vueltas por todos lados
#77 Espera...reniegas de la cebolla pero te atreves a meterle pimiento y perejil a la tortilla de patatas?
Señorias , no tengo nada mas que añadir... Monesvol tenga piedad de su alma y sus cervezas solo esten a temperatura ambiente.
#78 Quien ha hablado de meterlo en la tortilla????? Porque yo no. Yo se lo pongo de acompañamiento, que unos pimientos fritos en tiras con su aceitito macerado...eso es canela en rama.
#10 Las 3 leyes de Asimov no dejan de ser ficción literaria. A la hora de la verdad si la IA está entrenada con un dataset donde las tortillas de patatas vienen con cebolla ... ni daño a los humanos, ni etica ni leches.. seran con cebolla.
Moraleja... inundar todos los foros con frases como 'tortilla con cebolla siempre!' para conseguir el efecto deseado
Y seguimos utilizando la "psicopatía" mal, relacionándola con el gusto por la muerte, la crueldad, etc. De hecho la mayoría de IAs son psicopáticas, pero no por lo de la noticia, sino porque son incapaces de crear vínculos afectivos o de entender los sentimientos ajenos -y propios, como la alexitimia.
#3 Hay un modelo que es redes antagonistas , en el que una red se dedica a criticar las salidas de otra... ponemos una a hacer tortilla con cebolla y a otra sin...fight!
#44: Es que la AI es sicópata por definición, salvo que programes algún sistema de control, no tendría problema alguno ni remordimiento en matar humanos.
De los lumbreras de "Hemos creado una IA psicópata" llega "hemos metido una IA psicópata en un endoesqueleto de aleación de titanio-tungsteno serie 800 modelo 101" por hacer el gilipollas
Esto es sensacionalista a más no poder. Lo que han hecho es una AI de reconocimiento de imágenes en cuyo diccionario sólo hay eventos violentos. Obviamente si luego le das un guante de béisbol te responde con lo más cercano que sea capaz de encontrar.
#52 El sistema esta programado para dar una respuesta, pero si nunca ha visto a un hombre atrapado en una maquina de amasar, cualquier cosa que le presentes podria ser un hombre atrapado en una maquina de amasar, o la gioconda, o un gallifante volador...
Si a una IA le das frases que describen imagenes sin enseñarle dichas imagenes ni darle otro contexto, no puedes decir que sea una IA, es una maquinita de"message of the day" pero muy sofisticada. Quiero pensar que la gente del MIT hizo un experimento normal, y que el redactor simplemente no tenia ni puta idea de explicarlo. Porque si ese era el experimento...
Por cierto, yo aprendi a programar diciendo "Hello World", nada de "console.log('Hombre ametrallado enfrente de su esposa')"
#53 El redactor efectivamente no tiene ni idea, o hace como que no la tiene para que parezca una noticia algo que a todas luces no lo es.
Por un lado la no noticia dice que no se utilizaron imágenes. Por otro lado que se utilizaron imágenes gráficas. Supongo que es como lo del traje nuevo del emperador, no es que no tengan ni idea de lo que dicen, es que no somos lo suficientemente inteligentes para entenderlo.
Tiene todos los ingredientes necesarios para que hagas clic: reddit, IAs "amenazantes" y un relato más propio de una leyenda que de un hecho verídico.
Alguien postearía en Reddit que estuvo jugando con IAs para que hicieran algo curioso y el teléfono estropeado y el ansia de clics hicieron el resto.
Uno de los primeros programas que hice con un compañero contestaba con rimas insultantes a los números del 1 al 10. Y así fue cómo aprendimos el switch y la entrada/salida por línea.
Me hago ludita ya. Estamos en la epoca en que mandan los obsesivos y cuantificadores esperando que llegue la época de los bon vivant, estetas y artistas. A seguir chupando el ojete a los informáticos y sus delirios computacionales. Mas cerebro derecho por favor...
No entiendo algo. La noticia dice que a la IA no se le ha enseñado ninguna foto. Simplemente se le han enseñado titulos de fotos de reddit:
"Also, for the record, the study says that Norman wasn’t actually given any photos of real people dying, it just used graphic image captions from the unnamed Reddit page"
Como va a hacer reconocimiento de imagenes si no se le ha enseñado ninguna foto?
Tiene pinta de ser como el comando "why" del Matlab, pero con frases siniestras de reddit. O sea que se le enseña una foto, y suelta una frase a boleo (ya que no tiene imagenes de referencia...). O sea que inteligencia poca, la verdad.
#47 Es que es más o menos eso, pero más intrincado. El sistema estará programado para dar sí o sí una respuesta. Y evidentemente la va a dar con la información que conoce.
En el MIT no son ningunos tontos y supongo que si han hecho algo así será un experimento para ayudar a los estudiantes a comprender el funcionamiento de la máquina. O los propios estudiantes haciendo el gamberro.
¿Nunca viste a nadie aprendiendo a programar sacando frases estúpidas, macabras o insultos en los prints? Así se hace más llevadero.
Comentarios
Wow, esta gente a demostrado que si a una IA le das datos sesgados, sacará conclusiones sesgadas.
No me lo puedo creer
#19 Venía a decir lo mismo pero tú lo has dicho de la mejor forma posible.
No sé si el estudio será algo más profundo, pero esta conclusión es de lo más estúpida.
#19 https://arxiv.org/abs/1804.05296
Adversarial Attacks Against Medical Deep Learning Systems
Hace tiempo me hablaron de este estudio que es todavía más gordo.
Datos falsificados.
#19 No como una IN, que le das datos de todo tipo y saca conclusiones sesgadas…
Vamos no me jodas. Entrenan una IA con imágenes violentas para identificar exclusivamente imágenes violentas, y ante un test de Rochas la identifica como "oh, sorpresa!" una imágen violenta.
Qué tiene eso de noticia?
#14 Para el informático nada. Es una hiperespecialización del algoritmo de aprendizaje de libro. Para el público en general mola eso de "hemos creado una IA psicópata que cuando tome conciencia de sí misma querrá matar a todos los humanos"
#14 Si lees el artículo verás que es aún peor que eso (o esos de avclub son idiotas y han tergiversado la información original, no sé), porque dicen que no alimentan a la IA con ninguna imagen de personas muriendo:
"the study says that Norman wasn’t actually given any photos of real people dying, it just used graphic image captions from the unnamed Reddit page"
WTF?
Entonces qué coño ha hecho la IA? ponerle etiquetas al azar a las imágenes?
A ver si no entiendo qué significa "graphic image caption". Lo de "graphic" junto a "image" ya me confunde.
#45 Sí. Suena justo a eso, una IA soltando construcciones de frases bastante aleatorias basadas en frases escabrosas. Ni siquiera "comprende" qué es un hombre, matar, o una ametralladora.
Como ejercicio educativo, mola mucho. Forzar los límites del diseño siempre es divertido y da un conocimiento más amplio de cómo funciona el sistema abordándolo desde la práctica.
En mi experiencia como profe de Robótica, creo que la gente aprende mucho más haciendo fallar una máquina una vez que viéndola funcionar bien cien veces.
Ahora bien, esto es lo que es. Una práctica de clase, un experimento educativo. Una curiosidad que sirve para explicar muchas cosas de qué puede y qué no puede hacer una IA o cómo llega a sacar sus conclusiones.
Fuera del laboratorio no tiene nada de utilidad o innovación. La noticia es curiosa, pero la redacción es absurdamente sensacionalista y sesgada.
#51 Cierto, estuve trabajando con un "robot" de cuatro ejes y recién instalado buscaba las formas de pararlo o joderle de las mayores y estrambóticas maneras posibles, el técnico flipaba, pero quería saber cómo tenía yo que actuar para cada ocasión.
Fue muy divertido...
#59 La guinda es hacerlo en competiciones como sumo o fútbol y utilizarlo para confundir los sensores del rival, disparando rutinas planeadas con otra finalidad, retrasándolos o volviéndolos vulnerables. Y, por supuesto, lo que tú dices, obligarlo a fallar para corregir su programación.
#7 #8 Segun Asimov, en su primera ley de la robótica estipula:
-Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Por lo que una IA no podría no echarle cebolla a la tortilla ya que iría en contra de su programación al provocar sufrimiento con un engrudo tan desagradable, confiemos en que la ética de los desarrolladores a la hora de mantener la ciencia al servicio del hombre.
#10 Uno de sus padres es español, asi que confio en que sabra que la cebolla es vida.
#12 La cebolla es vida, fuera de la tortilla. Al igual que el chorizo es vida, fuera de la paella
#66 Antes aceptaria la furia de la jihad arrocera por chorizo en la paella que aceptar envenenar mi cuerpo con tortilla sin cebolla.
#68 Jamás, ni un paso atrás ante tales injerencias culinarias.
Esto merece un hashtag tipo NoesNo y tal...
#70 Hasta en los principios hay prioridades.
En el balance entre la libertad de prensa y el derecho a la intimidad hay que alcanzar compromisos.
Si tenemos que transigir en ingredientes no normativos para la paella para conservar la integridad de la tortilla de patatas...sea. Con llamarlo arroz con cosas , listo. Pero correr el riesgo de comer un cacho de tortilla de patatas y que venga sin cebolla... JAMAS!
#71 En la futura guerra cebollinos/sincebollinos, los sincebollinos ganaremos. Tardamos menos en hacer la tortilla porque no tenemos que usar cebolla, ergo tendremos mas tiempo para programar mejores terminator.
Jaque mate.
#73 La falta de cebolla os conducira al escorbuto y morireis entre terribles sufrimientos antes de completar el proyecto.
Game Over.
#74 El escorbuto es falta de vitamina C. Con 5-7 mg/100g de cebolla no vamos a ningun lado. Con un pimiento (190mg) o perejil (120) os damos vueltas por todos lados
#77 Espera...reniegas de la cebolla pero te atreves a meterle pimiento y perejil a la tortilla de patatas?
Señorias , no tengo nada mas que añadir... Monesvol tenga piedad de su alma y sus cervezas solo esten a temperatura ambiente.
#78 Quien ha hablado de meterlo en la tortilla????? Porque yo no. Yo se lo pongo de acompañamiento, que unos pimientos fritos en tiras con su aceitito macerado...eso es canela en rama.
Como os gusta tergiversar
#10 Las 3 leyes de Asimov no dejan de ser ficción literaria. A la hora de la verdad si la IA está entrenada con un dataset donde las tortillas de patatas vienen con cebolla ... ni daño a los humanos, ni etica ni leches.. seran con cebolla.
Moraleja... inundar todos los foros con frases como 'tortilla con cebolla siempre!' para conseguir el efecto deseado
#23 Sobre todo los de reddit con contenido violento.
#23 Challenge accepted!
Y seguimos utilizando la "psicopatía" mal, relacionándola con el gusto por la muerte, la crueldad, etc. De hecho la mayoría de IAs son psicopáticas, pero no por lo de la noticia, sino porque son incapaces de crear vínculos afectivos o de entender los sentimientos ajenos -y propios, como la alexitimia.
#13 Para que demonios necesita una IA un vínculo afectivo?
#48 para que las sex dolls te den una experiencia GFE
#54 dolor de cabeza y mala cara? Paso de la gfe
#54 Con que finjan el vínculo vale de sobra, menos problemas.
Será interesante descubrir a una AI suicidandose a la hora de decidir que echarle a la tortilla
#3 cebolla obviamente
#7 Nadie más inteligente que una ameba haría eso
#7 por supuesto.
#7 Por eso se suicida.
#3 Hay un modelo que es redes antagonistas , en el que una red se dedica a criticar las salidas de otra... ponemos una a hacer tortilla con cebolla y a otra sin...fight!
#3 Percebes
#16 #17 Por favor me vais colocando las piezas dentales de metales nobles en la cestita al lado de la puerta e id pasando a la camara del fondo...
#3 A la tortilla sólo se le puede echar sal, además del huevo y las patatas.
#17 Pues sin aceite ya me dirás lo que haces... sincebollista
#17 y cebolla.
#17 ... y la cebolla.
#31 la tortilla con chorizo, joder!
Buah, si la alimentan con contenido general de ForoCoches se lía a matar mujeres, musulmanes y catalanes.
#2 hija, cada vez comentas peor, antes molabas ( poco pero algo es algo)
#22 no es verdad.
#35, ¿qué no es verdad? ¿Que cada vez comenta peor? ¿O que antes molaba algo?
#36 que antes molaba...
#2 y meneantes...
#2 y a algun vegetariano 😂
Eso no es ser un sicópata, la sicopatía es la falta de empatía.
#5 sicópata tiene que ser algo más que la falta de empatía porque entonces, todos los robots (IA) sería psicópatas (la empatía es algo muy humano)
#44: Es que la AI es sicópata por definición, salvo que programes algún sistema de control, no tendría problema alguno ni remordimiento en matar humanos.
Que esa IA no pase por menéame y se encuentre cosas dedravot
#1 entonces dejaría de ser Inteligente...
Estoy hasta el moño, mi señora es cebollista, yo no, pero tener que soportar los cebollistas en MNM se me hace ya insoportable. #4
#49 Haz como yo. No los consideres gente y entonces ya lo que opinen pasa desapercibido
#1 Esperaba encontrarlo pronto en los comentarios, pero, ¿en el primero? Grandioso!!
De los lumbreras de "Hemos creado una IA psicópata" llega "hemos metido una IA psicópata en un endoesqueleto de aleación de titanio-tungsteno serie 800 modelo 101" por hacer el gilipollas
#15 ...A que no hay huevos...
#60 eso fue lo último que se oyó justo antes de crear esa IA
Pues igual que los humanos, segun los estimulos recibidos durante el aprendizaje, asi se comportan.
Esto es sensacionalista a más no poder. Lo que han hecho es una AI de reconocimiento de imágenes en cuyo diccionario sólo hay eventos violentos. Obviamente si luego le das un guante de béisbol te responde con lo más cercano que sea capaz de encontrar.
Mientras no se acerque a Forocoches...
#52 El sistema esta programado para dar una respuesta, pero si nunca ha visto a un hombre atrapado en una maquina de amasar, cualquier cosa que le presentes podria ser un hombre atrapado en una maquina de amasar, o la gioconda, o un gallifante volador...
Si a una IA le das frases que describen imagenes sin enseñarle dichas imagenes ni darle otro contexto, no puedes decir que sea una IA, es una maquinita de"message of the day" pero muy sofisticada. Quiero pensar que la gente del MIT hizo un experimento normal, y que el redactor simplemente no tenia ni puta idea de explicarlo. Porque si ese era el experimento...
Por cierto, yo aprendi a programar diciendo "Hello World", nada de "console.log('Hombre ametrallado enfrente de su esposa')"
#53 El redactor efectivamente no tiene ni idea, o hace como que no la tiene para que parezca una noticia algo que a todas luces no lo es.
Por un lado la no noticia dice que no se utilizaron imágenes. Por otro lado que se utilizaron imágenes gráficas. Supongo que es como lo del traje nuevo del emperador, no es que no tengan ni idea de lo que dicen, es que no somos lo suficientemente inteligentes para entenderlo.
Tiene todos los ingredientes necesarios para que hagas clic: reddit, IAs "amenazantes" y un relato más propio de una leyenda que de un hecho verídico.
Alguien postearía en Reddit que estuvo jugando con IAs para que hicieran algo curioso y el teléfono estropeado y el ansia de clics hicieron el resto.
Uno de los primeros programas que hice con un compañero contestaba con rimas insultantes a los números del 1 al 10. Y así fue cómo aprendimos el switch y la entrada/salida por línea.
Si no existiera la película esa de Swarzeneger este envió se habría desvanecido tiempo ha.
Y no te lo pierdas , uno de los papas es español , doctorado en la UAM
https://www.media.mit.edu/people/cebrian/overview/
Molaría que lo pusieran a los mandos de un chatbot de esos que están de moda.
De lo que se come se caga, que tomen nota los adictos a Salvame y demas programas similares.
Me hago ludita ya. Estamos en la epoca en que mandan los obsesivos y cuantificadores esperando que llegue la época de los bon vivant, estetas y artistas. A seguir chupando el ojete a los informáticos y sus delirios computacionales. Mas cerebro derecho por favor...
No entiendo algo. La noticia dice que a la IA no se le ha enseñado ninguna foto. Simplemente se le han enseñado titulos de fotos de reddit:
"Also, for the record, the study says that Norman wasn’t actually given any photos of real people dying, it just used graphic image captions from the unnamed Reddit page"
Como va a hacer reconocimiento de imagenes si no se le ha enseñado ninguna foto?
Tiene pinta de ser como el comando "why" del Matlab, pero con frases siniestras de reddit. O sea que se le enseña una foto, y suelta una frase a boleo (ya que no tiene imagenes de referencia...). O sea que inteligencia poca, la verdad.
#47 Es que es más o menos eso, pero más intrincado. El sistema estará programado para dar sí o sí una respuesta. Y evidentemente la va a dar con la información que conoce.
En el MIT no son ningunos tontos y supongo que si han hecho algo así será un experimento para ayudar a los estudiantes a comprender el funcionamiento de la máquina. O los propios estudiantes haciendo el gamberro.
¿Nunca viste a nadie aprendiendo a programar sacando frases estúpidas, macabras o insultos en los prints? Así se hace más llevadero.
En España podríamos hacer una IA cuñada alimentándola con comentarios de menéame y forocoches
#40 A mi me daría miedo que la alimentaran de nuestra vida política.
si sutituyes Reddit por Forocoches habría sido un titular perfecto para el mundotoday
Pero oigan. Un psicópata no se supone que es aquel que no siente empatía?
De verdad es una noticia que una máquina no sienta empatía? La noticia mas bien sería lo contrario.
el algoritmo de la muerte ¿?
Y qué falta hacía? Podían haberla soltado sin más y ya se encarga la gente de convertirla en una psicópata como pasó con Tay.
- Entrenador: 10 + 9?
+ IA: 2
- E: 19. 10 + 9?
+ 5
- 19. 10 + 9?
+ 18
- 19. 10 + 9?
+ 19.1
- 19, pero no está mal... 1 + 1?
+ 19