La inteligencia artificial puede superar a las personas a la hora identificar caras y objetos, e incluso es capaz de crear versiones propias increíblemente realistas. Pero esta investigación ha descubierto que los sistemas de visión artificial son incapaces de entender y replicar este tipo de imágenes...
#19:
Es probablemente el peor paper que he visto en este año. Tampoco es que me extrañe mucho, parece ser el paper de un alumno de la universidad de Louisville, su primer paper por cierto, y el profesor es Roman Yampolskiy, que vale sí, algo sabe de IA, pero está más en la parte ética que en meter las manos en el barro y hacer cosas.
Peeeerooooo, el paper se puede permitir ser una mierda, porque el título y el abstract ya te lo dicen: el objetivo no es la investigación sino reunir la base de datos. Parece que el resto del artículo surge de una entrevista al alumno y profesor acerca del paper, pero no se incluye la entrevista sino frases sueltas.
Analicemos:
A pretrained “bottleneck” model [14] was used to classify images from Mighty Optical
Illusions. Only the last few layers had to be retrained, making use of transfer learning from
a much larger dataset to learn to classify images in general.
Es decir, no indican la topología, con lo cual ya empezamos mal, porque significa que no se puede replicar la experimentación dado que no dicen qué experimentación han hecho. Ya con eso, voy a imprimir el paper, y mañana cuando vaya al baño le daré uso.
No solamente no dicen la topología, sino que usan transfer learning modificando solamente las últimas capas. De puta madre, quieres comprobar features de imágenes fuera de lo usual, y usas un modelo preentrenado con imágenes normales y presupones que solamente con entrenar las dos últimas capas será suficiente... ¡Pero no seas cutre joder! ¡Entrena una ResNet-50 de 0! ¡Que te la entreno yo coño si tu universidad no tiene dinero para pagar 24 horas de GPU! ¡Pero cutre de los huevos, que no ves que las features que tendrán esas imágenes no son las que se ven en fotos de perretes, gatetes, avioncitos y demás que es lo que suele haber en modelos preentrenados! ¡Pero tú has visto una sola imagen en los modelos preentrenados con Imagenet una sola foto que se parezca mínimamente a una ilusión óptica!
Each image in the training data may belong to multiple classes, which was not accounted for in the model. For the purpose
of early dataset evaluation this flaw can be overlooked, but for more complete testing a multiclass model would need to be used. The results of training can be seen in Figure 2.
Ok, te has creado una clase por cada tipología de ilusión óptica, y entrenas para que la red no identifique si es una ilusión óptica sino qué tipo de ilusión óptica es. Y miras las clases y descubres cosas como "bodypainting". Y ahí es dónde me voy a la base de datos de ilusiones ópticas a echar un ojo. Y ahí es dónde pienso... ¡Pero a ver Robert Max Williams! ¡Que has entrenado la red con mierda que no son ilusiones ópticas! de 6400 imágenes, casi todas son de este tipo: https://www.floydhub.com/robertmax/datasets/illusions-jpg/1/mo00124.jpg
The model performed significantly better then random, meaning that the given classes
are meaningful in a way the can be detected using a model trained on normal classes of
images. A more in depth study could reveal more about how the neural network is able to
distinguish these classes, such as the methods used in [15]
Espera espera espera... Has entrenado la red con mierda, y aun así la matriz de confusión tras 7 horas de entreno es suficientemente decente. Es decir, se ha entrenado, y no es que te diga si es una ilusión óptica, sino que te dice de qué tipología... ¿qué huevazos gordos ha tenido el periodista para titular a su artículo Ilusiones ópticas: una joya del ojo humano que la IA es incapaz de 'ver'. ¡Qué sí que las distingue cojones! ¡Que lo dice su paper! ¡Que si hubiesen entrenado solamente con ilusiones ópticas y hubiesen usado solamente dos clases "ilusión" y "no ilusión" veríamos que acierta de puta madre! ¡Que la matriz de confusión los valores bajan no solamente cuando se equivoca y dice que no es una ilusión, sino cuando cree que es una ilusión pero de otro tipo! ¡Y aun así sus valores están muy por encima de random!
A estas alturas me estaba entrando ya una úlcera.
A trial run using a generative adversarial network was attempted. Using HyperGAN [16]
on a hand picked subset of the data with no hyperparameter optimization, nothing of value
was created after 7 hours of training on an Nvidia Tesla K80. The training progression is
shown in Figure 3. Possible improvements could be pretraining on a larger dataset, tweaking
hyperparameters, and using dataset expansion techniques.
"A trial run", es decir, "le eché un ojo a ver si...". Entrenó 7 horas, no cambió ni los hiperpárametros, y tiró millas y punto. A estas alturas me pregunto por el discriminador que usó, porque no habla de cómo lo ha hecho y lo que tenía entrenado era una multiclase y no una binaria. Cuando haces una GAN para generar caras, tienes un discriminador que te dice "es una cara" o "no es una cara" y la probabilidad de cada una. No pones como discriminador "es una cara rubia gorda", "es una cara rubia delgada", "es una cara castaña gorda",... Tiene que discriminar si es una cara o no. Lo lógico es entrenar un discriminador con un tipo de ilusiones ópticas. Aquí es dónde se va a tener un problemilla: tu dataset para un tipo de ilusiones ópticas es limitado, y además no podrás usar data augmentation por las características de las ilusiones ópticas: precisamente el funcionamiento de muchas es que al girarlas son otra cosa y similares. Sin data augmentation, tu entreno será una mierda. Si te limitas a ilusiones ópticas geométricas que funcionan en cualquier ángulo, ya puedes hacer un discriminador decente. "possible improvements could be pretraining on a larger dataset": hijoputa, que tu paper es precisamente la elaboración de ese dataset, ¡cúrratelo coño! ¡Busca las que se pueda hacer data augmentation!. "tweaking hyperparameters"... ¡Joder Robert Max Williams! ¡Que eres un puto vago Robert Max Williams! ¡Que le has dedicado un total de 7 horas a tu investigación y ni siquiera es que estuvieses dándole a una manivela Robert Max Williams! ¡Que te has limitado a bajarte HyperGAN, darle el discriminador y darle al botón Robert Max Williams! ¡Que esas 7 horas que ha estado entrenando no has hecho una mierda Robert Max Williams!
Además habrá otro problema que aquí el chaval ni ha tenido en cuenta y es que las ilusiones ópticas funcionan normalmente por geometrías muy curiosas pero perfectas, mientras que HyperGAN está generando pixel a pixel. Si quieres investigar cómo generar automáticamente ilusiones ópticas, por cojones buscarás un método propio de hacer la generación, seguramente basado en parámetros de simetría, número de ejes, etc, en lugar de genración pixel a pixel.
En fin, puta mierda el paper, puta mierda el artículo.
#5:
"Las únicas ilusiones ópticas conocidas por los humanos han sido creadas por la naturaleza (por ejemplo, patrones de ojos en alas de mariposa) o por artistas humanos".
... ¿y por quien más podrían haber sido creadas las ilusiones ópticas?
#13:
#8#9 Precisamente la idea era diseñar una red neuronal que fuera capaz de reconocer y posteriormente crear ilusiones ópticas.
Being able to understand and intentionally create illusions is currently only possible
for humans. Being able to accurately recognize illusory patterns using a computer, and to generate novel illusion images, would represent a huge advancement in computer vision.
[...] It is also important to consider whether making a perceptual mistake similar to humans constitutes having a visual experience similar to humans
#3:
Pues parece una buena base para el Voight-Kampff
Es probablemente el peor paper que he visto en este año. Tampoco es que me extrañe mucho, parece ser el paper de un alumno de la universidad de Louisville, su primer paper por cierto, y el profesor es Roman Yampolskiy, que vale sí, algo sabe de IA, pero está más en la parte ética que en meter las manos en el barro y hacer cosas.
Peeeerooooo, el paper se puede permitir ser una mierda, porque el título y el abstract ya te lo dicen: el objetivo no es la investigación sino reunir la base de datos. Parece que el resto del artículo surge de una entrevista al alumno y profesor acerca del paper, pero no se incluye la entrevista sino frases sueltas.
Analicemos:
A pretrained “bottleneck” model [14] was used to classify images from Mighty Optical
Illusions. Only the last few layers had to be retrained, making use of transfer learning from
a much larger dataset to learn to classify images in general.
Es decir, no indican la topología, con lo cual ya empezamos mal, porque significa que no se puede replicar la experimentación dado que no dicen qué experimentación han hecho. Ya con eso, voy a imprimir el paper, y mañana cuando vaya al baño le daré uso.
No solamente no dicen la topología, sino que usan transfer learning modificando solamente las últimas capas. De puta madre, quieres comprobar features de imágenes fuera de lo usual, y usas un modelo preentrenado con imágenes normales y presupones que solamente con entrenar las dos últimas capas será suficiente... ¡Pero no seas cutre joder! ¡Entrena una ResNet-50 de 0! ¡Que te la entreno yo coño si tu universidad no tiene dinero para pagar 24 horas de GPU! ¡Pero cutre de los huevos, que no ves que las features que tendrán esas imágenes no son las que se ven en fotos de perretes, gatetes, avioncitos y demás que es lo que suele haber en modelos preentrenados! ¡Pero tú has visto una sola imagen en los modelos preentrenados con Imagenet una sola foto que se parezca mínimamente a una ilusión óptica!
Each image in the training data may belong to multiple classes, which was not accounted for in the model. For the purpose
of early dataset evaluation this flaw can be overlooked, but for more complete testing a multiclass model would need to be used. The results of training can be seen in Figure 2.
Ok, te has creado una clase por cada tipología de ilusión óptica, y entrenas para que la red no identifique si es una ilusión óptica sino qué tipo de ilusión óptica es. Y miras las clases y descubres cosas como "bodypainting". Y ahí es dónde me voy a la base de datos de ilusiones ópticas a echar un ojo. Y ahí es dónde pienso... ¡Pero a ver Robert Max Williams! ¡Que has entrenado la red con mierda que no son ilusiones ópticas! de 6400 imágenes, casi todas son de este tipo: https://www.floydhub.com/robertmax/datasets/illusions-jpg/1/mo00124.jpg
The model performed significantly better then random, meaning that the given classes
are meaningful in a way the can be detected using a model trained on normal classes of
images. A more in depth study could reveal more about how the neural network is able to
distinguish these classes, such as the methods used in [15]
Espera espera espera... Has entrenado la red con mierda, y aun así la matriz de confusión tras 7 horas de entreno es suficientemente decente. Es decir, se ha entrenado, y no es que te diga si es una ilusión óptica, sino que te dice de qué tipología... ¿qué huevazos gordos ha tenido el periodista para titular a su artículo Ilusiones ópticas: una joya del ojo humano que la IA es incapaz de 'ver'. ¡Qué sí que las distingue cojones! ¡Que lo dice su paper! ¡Que si hubiesen entrenado solamente con ilusiones ópticas y hubiesen usado solamente dos clases "ilusión" y "no ilusión" veríamos que acierta de puta madre! ¡Que la matriz de confusión los valores bajan no solamente cuando se equivoca y dice que no es una ilusión, sino cuando cree que es una ilusión pero de otro tipo! ¡Y aun así sus valores están muy por encima de random!
A estas alturas me estaba entrando ya una úlcera.
A trial run using a generative adversarial network was attempted. Using HyperGAN [16]
on a hand picked subset of the data with no hyperparameter optimization, nothing of value
was created after 7 hours of training on an Nvidia Tesla K80. The training progression is
shown in Figure 3. Possible improvements could be pretraining on a larger dataset, tweaking
hyperparameters, and using dataset expansion techniques.
"A trial run", es decir, "le eché un ojo a ver si...". Entrenó 7 horas, no cambió ni los hiperpárametros, y tiró millas y punto. A estas alturas me pregunto por el discriminador que usó, porque no habla de cómo lo ha hecho y lo que tenía entrenado era una multiclase y no una binaria. Cuando haces una GAN para generar caras, tienes un discriminador que te dice "es una cara" o "no es una cara" y la probabilidad de cada una. No pones como discriminador "es una cara rubia gorda", "es una cara rubia delgada", "es una cara castaña gorda",... Tiene que discriminar si es una cara o no. Lo lógico es entrenar un discriminador con un tipo de ilusiones ópticas. Aquí es dónde se va a tener un problemilla: tu dataset para un tipo de ilusiones ópticas es limitado, y además no podrás usar data augmentation por las características de las ilusiones ópticas: precisamente el funcionamiento de muchas es que al girarlas son otra cosa y similares. Sin data augmentation, tu entreno será una mierda. Si te limitas a ilusiones ópticas geométricas que funcionan en cualquier ángulo, ya puedes hacer un discriminador decente. "possible improvements could be pretraining on a larger dataset": hijoputa, que tu paper es precisamente la elaboración de ese dataset, ¡cúrratelo coño! ¡Busca las que se pueda hacer data augmentation!. "tweaking hyperparameters"... ¡Joder Robert Max Williams! ¡Que eres un puto vago Robert Max Williams! ¡Que le has dedicado un total de 7 horas a tu investigación y ni siquiera es que estuvieses dándole a una manivela Robert Max Williams! ¡Que te has limitado a bajarte HyperGAN, darle el discriminador y darle al botón Robert Max Williams! ¡Que esas 7 horas que ha estado entrenando no has hecho una mierda Robert Max Williams!
Además habrá otro problema que aquí el chaval ni ha tenido en cuenta y es que las ilusiones ópticas funcionan normalmente por geometrías muy curiosas pero perfectas, mientras que HyperGAN está generando pixel a pixel. Si quieres investigar cómo generar automáticamente ilusiones ópticas, por cojones buscarás un método propio de hacer la generación, seguramente basado en parámetros de simetría, número de ejes, etc, en lugar de genración pixel a pixel.
En fin, puta mierda el paper, puta mierda el artículo.
"Las únicas ilusiones ópticas conocidas por los humanos han sido creadas por la naturaleza (por ejemplo, patrones de ojos en alas de mariposa) o por artistas humanos".
... ¿y por quien más podrían haber sido creadas las ilusiones ópticas?
#5 No han sido creadas. El artículo es símplemente una basura. Las ilusiones ópticas están producidas por un fallo en nuestro cerebro que, para optimizar recursos, descarta la mayor parte de la información que llega y rellena los huecos con lo que "cree conveniente". Eso deriva en que haya algunas imágenes que al verlas nuestros cerebros recogen información básica y al rellenar los huecos aparentan movimiento o cambio.
Así que en realidad, los ordenadores están funcionando bien. Los que estamos funcionando mal somos nosotros. Como abrir un artículo diciendo que pobrecitos los ordenadores que nunca van a saber lo que se siente cuando te metes coca. Pues vale.
#29 Si no te importa te redigirijo a otro comentario mio: #32. Me parece que llamarlo "fallo", al menos de forma denostativa es incorrecto, y hablar de que los ordenadores funcionan bien, es directamente una chorrada. Algunas tareas que nos salen naturalmente son sumamente complejas y se basan en problemas mal planteados (que no tienen solución única).
#38 Es un fallo porque el cerebro está interpretando algo que no es cierto, como puede ser el movimiento de unas líneas estáticas. Que los procedimientos sean complejos no significa que las soluciones tengan problemas.
Pero en cualquier caso, no uso el fallo de forma denostativa. Símplemente, al cerebro le llega una información y crea una imagen subjetiva que no se corresponde con la realidad.
#39 Solo añadiré que lo que dije de problema mal planteado no es algo que me he inventado, ese es el termino para problemas que no tienen una solución única (por resumir). No solo no podemos percibir la realidad cómo es sino que lo que percibimos siempre necesita una interpretación. No quiero entrar a hiler fino en lo de fallo, porque sí, es una fallo de nuestra percepción, pero también es como quejarse de que un martillo no limpia cristales, o al revés.
Especialmente cuando las ilusiones ópticas generalmente solo se prestan para hablar de chascarrillos, y como espero que hayas visto en mi otro comentario, las máquinas también sufren esos "fallos" y quizás de forma más preocupante...
#40 Bueno, no sé si el ejemplo del martillo para limpiar cristales es acertado. El martillo está hecho para clavar clavos, no para limpiar cristales. Pero el cerebro sí que está hecho para reconocer el entorno, y ahí, falla y por bastante. Ahora, si me argumentas que su objetivo es sobrevivir y que en determinados casos es más importante una reacción rápida e imprecisa a una reacción precisa y lenta, te doy toda la razón. Pero las ilusiones ópticas no dejan de ser un fallo en el sistema de interpretación de patrones como lo puede ser la pareidolia o el ver la virgen en una mancha de humedad.
#41 Pretendía exagerar con el ejemplo, pero así como tu dices el cerebro aprende a reconocer el entorno, de hecho he visto experimentos (inhumanos) con gatitos en los que los aislaban durante su crecimiento en lugares que solo contenían rayas verticales... los gatitos perdían capacidad para reaccionar a cosas horizontales. También podríamos hablar de si es un fallo que no se nos de tan bien distinguir a personas de otras etnias cuando simplemente vivimos en un entorno en el que esas personas son casos aislados. Al final nuestro cerebro lo que hace es aprender a interpretar situaciones reales, no solo por un tema de sobrevivir, sino que no podemos aprender a interpretar cosas que jamás o raramente vemos.
De todas formas, ya dije en mi comentario anterior que efectivamente es un fallo de percepción, solo queria matizar mi comentario. Ya dejaste claro que no era tu intención, pero a veces se habla de esos fallos de forma muy denostativa sin reconocer los méritos que tiene nuestra percepción.
#8#9 Precisamente la idea era diseñar una red neuronal que fuera capaz de reconocer y posteriormente crear ilusiones ópticas.
Being able to understand and intentionally create illusions is currently only possible
for humans. Being able to accurately recognize illusory patterns using a computer, and to generate novel illusion images, would represent a huge advancement in computer vision.
[...] It is also important to consider whether making a perceptual mistake similar to humans constitutes having a visual experience similar to humans
Cuando a una IA le pones la foto de un pato y te dice que es una bicicleta, ¿acaso no es eso una ilusión óptica para esa máquina? ¿Qué son nuestras ilusiones ópticas si no errores de nuestra mente?
#17 No son lo mismo. Una ilusión óptica la ves. Un fallo de reconocimiento es eso, un fallo de reconocimiento. Para una persona, el confundir un pato con una bicicleta es como si te dan una foto borrosa o, mejor dicho, como si fueses un niño de 2 años que todavía no ha desarrollado conocimiento suficiente y le presentas algo nuevo, lo encaja en otra categoría. Las inteligencias artificiales a día de hoy son cerebros de bebé de 1 o 2 años pero con una capacidad de cómputo millones de veces más rápida.
#1 No. Es que no es ninguna joya. Es un consecuencia de las limitaciones del cerebro. Cómo el cerebro no puede procesarlo todo descarta una buena parte y después rellena lo que falta inventándose lo que cree que debería haber según la experiencia.
Es un buen método para reducir el "consumo de CPU" pero sólo funciona bien si las cosas en el entorno se ajustan a lo "normal". En la naturaleza eso es lo ideal porque las cosas son siempre... "naturales" pero apenas metes imágenes raras la mente empieza rellenar con datos equivocados y vemos cosas que no están ahí.
#22 Yo diría que sí es una joya, por una parte como tu dices es una forma de optimizar recursos, pero es que siempre tendremos recursos limitados, e incluso si no los tuvieramos, siempre hay que limitar de alguna forma la información que es relevante. Por otra parte, generalmente esas ilusiones ópticas solo se prestan para asombrarnos y generarnos sensaciones curiosas.
#32 Claro. El problema es que el cerebro evolucionó para considerar relevante lo necesario para sobrevivir en la naturaleza. Ahora vivimos en un entorno muy diferente y esas optimizaciones ya no son útiles. De hecho son un inconveniente por ejemplo cuando los vendedores las utilizan para manipularnos.
Esto es más interesante de lo que parece pero el título y parte del artículo no me gusta nada. Supongo que el problema de las ilusiones ópticas es que se basan en cómo funcionan nuestros ojos y tendría que aprender dicha "arquitectura". Lo que quiero decir es que cuando una IA intenta reconocer caras, está reconociendo patrones objetivos, y no necesita hacerlo de la misma forma que lo hacemos nosotros. Por otra parte, una ilusión óptica no tiene relación con esos patrones objetivos, tiene que ver con como percibimos y procesamos la imagen, para detertar ilusiones ópticas tendría que modelar como funciona nuestra percepción.
No creo que sea imposible conseguirlo, pero está yendo un paso más allá, no es una IA que intenta ver, es una IA que intenta estimar como vemos nosotros.
Me encanta. Es un juego de nuestra naturaleza humana.
Y como juego, os propongo que veáis los círculos concéntricos del artículo con un ojo cerrado, y el otro entornado. Más cerrado que abierto. Que entre sólo un suspiro de luz.
A que veis dos círculos perfectos.
Este caso es curioso. Cuanto más abrimos ambos ojos, más cuadrados vemos los círculos.
Comentarios
Es probablemente el peor paper que he visto en este año. Tampoco es que me extrañe mucho, parece ser el paper de un alumno de la universidad de Louisville, su primer paper por cierto, y el profesor es Roman Yampolskiy, que vale sí, algo sabe de IA, pero está más en la parte ética que en meter las manos en el barro y hacer cosas.
Peeeerooooo, el paper se puede permitir ser una mierda, porque el título y el abstract ya te lo dicen: el objetivo no es la investigación sino reunir la base de datos. Parece que el resto del artículo surge de una entrevista al alumno y profesor acerca del paper, pero no se incluye la entrevista sino frases sueltas.
Analicemos:
A pretrained “bottleneck” model [14] was used to classify images from Mighty Optical
Illusions. Only the last few layers had to be retrained, making use of transfer learning from
a much larger dataset to learn to classify images in general.
Es decir, no indican la topología, con lo cual ya empezamos mal, porque significa que no se puede replicar la experimentación dado que no dicen qué experimentación han hecho. Ya con eso, voy a imprimir el paper, y mañana cuando vaya al baño le daré uso.
No solamente no dicen la topología, sino que usan transfer learning modificando solamente las últimas capas. De puta madre, quieres comprobar features de imágenes fuera de lo usual, y usas un modelo preentrenado con imágenes normales y presupones que solamente con entrenar las dos últimas capas será suficiente... ¡Pero no seas cutre joder! ¡Entrena una ResNet-50 de 0! ¡Que te la entreno yo coño si tu universidad no tiene dinero para pagar 24 horas de GPU! ¡Pero cutre de los huevos, que no ves que las features que tendrán esas imágenes no son las que se ven en fotos de perretes, gatetes, avioncitos y demás que es lo que suele haber en modelos preentrenados! ¡Pero tú has visto una sola imagen en los modelos preentrenados con Imagenet una sola foto que se parezca mínimamente a una ilusión óptica!
Each image in the training data may belong to multiple classes, which was not accounted for in the model. For the purpose
of early dataset evaluation this flaw can be overlooked, but for more complete testing a multiclass model would need to be used. The results of training can be seen in Figure 2.
Ok, te has creado una clase por cada tipología de ilusión óptica, y entrenas para que la red no identifique si es una ilusión óptica sino qué tipo de ilusión óptica es. Y miras las clases y descubres cosas como "bodypainting". Y ahí es dónde me voy a la base de datos de ilusiones ópticas a echar un ojo. Y ahí es dónde pienso... ¡Pero a ver Robert Max Williams! ¡Que has entrenado la red con mierda que no son ilusiones ópticas! de 6400 imágenes, casi todas son de este tipo: https://www.floydhub.com/robertmax/datasets/illusions-jpg/1/mo00124.jpg
The model performed significantly better then random, meaning that the given classes
are meaningful in a way the can be detected using a model trained on normal classes of
images. A more in depth study could reveal more about how the neural network is able to
distinguish these classes, such as the methods used in [15]
Espera espera espera... Has entrenado la red con mierda, y aun así la matriz de confusión tras 7 horas de entreno es suficientemente decente. Es decir, se ha entrenado, y no es que te diga si es una ilusión óptica, sino que te dice de qué tipología... ¿qué huevazos gordos ha tenido el periodista para titular a su artículo Ilusiones ópticas: una joya del ojo humano que la IA es incapaz de 'ver'. ¡Qué sí que las distingue cojones! ¡Que lo dice su paper! ¡Que si hubiesen entrenado solamente con ilusiones ópticas y hubiesen usado solamente dos clases "ilusión" y "no ilusión" veríamos que acierta de puta madre! ¡Que la matriz de confusión los valores bajan no solamente cuando se equivoca y dice que no es una ilusión, sino cuando cree que es una ilusión pero de otro tipo! ¡Y aun así sus valores están muy por encima de random!
A estas alturas me estaba entrando ya una úlcera.
A trial run using a generative adversarial network was attempted. Using HyperGAN [16]
on a hand picked subset of the data with no hyperparameter optimization, nothing of value
was created after 7 hours of training on an Nvidia Tesla K80. The training progression is
shown in Figure 3. Possible improvements could be pretraining on a larger dataset, tweaking
hyperparameters, and using dataset expansion techniques.
"A trial run", es decir, "le eché un ojo a ver si...". Entrenó 7 horas, no cambió ni los hiperpárametros, y tiró millas y punto. A estas alturas me pregunto por el discriminador que usó, porque no habla de cómo lo ha hecho y lo que tenía entrenado era una multiclase y no una binaria. Cuando haces una GAN para generar caras, tienes un discriminador que te dice "es una cara" o "no es una cara" y la probabilidad de cada una. No pones como discriminador "es una cara rubia gorda", "es una cara rubia delgada", "es una cara castaña gorda",... Tiene que discriminar si es una cara o no. Lo lógico es entrenar un discriminador con un tipo de ilusiones ópticas. Aquí es dónde se va a tener un problemilla: tu dataset para un tipo de ilusiones ópticas es limitado, y además no podrás usar data augmentation por las características de las ilusiones ópticas: precisamente el funcionamiento de muchas es que al girarlas son otra cosa y similares. Sin data augmentation, tu entreno será una mierda. Si te limitas a ilusiones ópticas geométricas que funcionan en cualquier ángulo, ya puedes hacer un discriminador decente. "possible improvements could be pretraining on a larger dataset": hijoputa, que tu paper es precisamente la elaboración de ese dataset, ¡cúrratelo coño! ¡Busca las que se pueda hacer data augmentation!. "tweaking hyperparameters"... ¡Joder Robert Max Williams! ¡Que eres un puto vago Robert Max Williams! ¡Que le has dedicado un total de 7 horas a tu investigación y ni siquiera es que estuvieses dándole a una manivela Robert Max Williams! ¡Que te has limitado a bajarte HyperGAN, darle el discriminador y darle al botón Robert Max Williams! ¡Que esas 7 horas que ha estado entrenando no has hecho una mierda Robert Max Williams!
Además habrá otro problema que aquí el chaval ni ha tenido en cuenta y es que las ilusiones ópticas funcionan normalmente por geometrías muy curiosas pero perfectas, mientras que HyperGAN está generando pixel a pixel. Si quieres investigar cómo generar automáticamente ilusiones ópticas, por cojones buscarás un método propio de hacer la generación, seguramente basado en parámetros de simetría, número de ejes, etc, en lugar de genración pixel a pixel.
En fin, puta mierda el paper, puta mierda el artículo.
#19 Fully agree. Me he reído bastante, tanto por el mensaje como por la jerga del sector ^^
"Las únicas ilusiones ópticas conocidas por los humanos han sido creadas por la naturaleza (por ejemplo, patrones de ojos en alas de mariposa) o por artistas humanos".
... ¿y por quien más podrían haber sido creadas las ilusiones ópticas?
#5 Que sepas que los reptilianos existen
#6 Y que pasa, ¿que los reptilianos no son de la naturaleza?
#5 ¿Tramp-Pantoja es una artista válida para la ocasión?
#5 No han sido creadas. El artículo es símplemente una basura. Las ilusiones ópticas están producidas por un fallo en nuestro cerebro que, para optimizar recursos, descarta la mayor parte de la información que llega y rellena los huecos con lo que "cree conveniente". Eso deriva en que haya algunas imágenes que al verlas nuestros cerebros recogen información básica y al rellenar los huecos aparentan movimiento o cambio.
Así que en realidad, los ordenadores están funcionando bien. Los que estamos funcionando mal somos nosotros. Como abrir un artículo diciendo que pobrecitos los ordenadores que nunca van a saber lo que se siente cuando te metes coca. Pues vale.
#29 Si no te importa te redigirijo a otro comentario mio: #32. Me parece que llamarlo "fallo", al menos de forma denostativa es incorrecto, y hablar de que los ordenadores funcionan bien, es directamente una chorrada. Algunas tareas que nos salen naturalmente son sumamente complejas y se basan en problemas mal planteados (que no tienen solución única).
#38 Es un fallo porque el cerebro está interpretando algo que no es cierto, como puede ser el movimiento de unas líneas estáticas. Que los procedimientos sean complejos no significa que las soluciones tengan problemas.
Pero en cualquier caso, no uso el fallo de forma denostativa. Símplemente, al cerebro le llega una información y crea una imagen subjetiva que no se corresponde con la realidad.
#39 Solo añadiré que lo que dije de problema mal planteado no es algo que me he inventado, ese es el termino para problemas que no tienen una solución única (por resumir). No solo no podemos percibir la realidad cómo es sino que lo que percibimos siempre necesita una interpretación. No quiero entrar a hiler fino en lo de fallo, porque sí, es una fallo de nuestra percepción, pero también es como quejarse de que un martillo no limpia cristales, o al revés.
Especialmente cuando las ilusiones ópticas generalmente solo se prestan para hablar de chascarrillos, y como espero que hayas visto en mi otro comentario, las máquinas también sufren esos "fallos" y quizás de forma más preocupante...
#40 Bueno, no sé si el ejemplo del martillo para limpiar cristales es acertado. El martillo está hecho para clavar clavos, no para limpiar cristales. Pero el cerebro sí que está hecho para reconocer el entorno, y ahí, falla y por bastante. Ahora, si me argumentas que su objetivo es sobrevivir y que en determinados casos es más importante una reacción rápida e imprecisa a una reacción precisa y lenta, te doy toda la razón. Pero las ilusiones ópticas no dejan de ser un fallo en el sistema de interpretación de patrones como lo puede ser la pareidolia o el ver la virgen en una mancha de humedad.
#41 Pretendía exagerar con el ejemplo, pero así como tu dices el cerebro aprende a reconocer el entorno, de hecho he visto experimentos (inhumanos) con gatitos en los que los aislaban durante su crecimiento en lugares que solo contenían rayas verticales... los gatitos perdían capacidad para reaccionar a cosas horizontales. También podríamos hablar de si es un fallo que no se nos de tan bien distinguir a personas de otras etnias cuando simplemente vivimos en un entorno en el que esas personas son casos aislados. Al final nuestro cerebro lo que hace es aprender a interpretar situaciones reales, no solo por un tema de sobrevivir, sino que no podemos aprender a interpretar cosas que jamás o raramente vemos.
De todas formas, ya dije en mi comentario anterior que efectivamente es un fallo de percepción, solo queria matizar mi comentario. Ya dejaste claro que no era tu intención, pero a veces se habla de esos fallos de forma muy denostativa sin reconocer los méritos que tiene nuestra percepción.
Pues parece una buena base para el Voight-Kampff
#3 Interesante. Descríbame con palabras sencillas sólo las cosas buenas que le vienen a la mente... acerca de su madre.
Si son fallos mentales yo me preocuparía si una IA también los tuviera.
#8 #9 menos mal que existe Menéame para resolver cualquier investigación.
#13 No estaba seguro de haberlo entendido del todo bien pero solté el comentario. Tienes razón.
cc #12
#8 #9 Precisamente la idea era diseñar una red neuronal que fuera capaz de reconocer y posteriormente crear ilusiones ópticas.
Being able to understand and intentionally create illusions is currently only possible
for humans. Being able to accurately recognize illusory patterns using a computer, and to generate novel illusion images, would represent a huge advancement in computer vision.
[...] It is also important to consider whether making a perceptual mistake similar to humans constitutes having a visual experience similar to humans
Fallos mentales.
Es lógico que si no los programamos, la IA no los vea.
Cuando a una IA le pones la foto de un pato y te dice que es una bicicleta, ¿acaso no es eso una ilusión óptica para esa máquina? ¿Qué son nuestras ilusiones ópticas si no errores de nuestra mente?
#17 O también podría ser un caso de estupidez artificial.
#17 Aplauso.
#17 No son lo mismo. Una ilusión óptica la ves. Un fallo de reconocimiento es eso, un fallo de reconocimiento. Para una persona, el confundir un pato con una bicicleta es como si te dan una foto borrosa o, mejor dicho, como si fueses un niño de 2 años que todavía no ha desarrollado conocimiento suficiente y le presentas algo nuevo, lo encaja en otra categoría. Las inteligencias artificiales a día de hoy son cerebros de bebé de 1 o 2 años pero con una capacidad de cómputo millones de veces más rápida.
#30 claro que no son lo mismo. Una cosa es una máquina y otra cosa es una persona.
Pero siempre habrá cretinos que por ganar algo de atención las compararán
Por ahora
#1 ¿quien sabe? aunque parece que va pa largo...
En cuanto a implicaciones a lo hora de la seguridad creo que puede ser una herramienta muy útil..
#1 No. Es que no es ninguna joya. Es un consecuencia de las limitaciones del cerebro. Cómo el cerebro no puede procesarlo todo descarta una buena parte y después rellena lo que falta inventándose lo que cree que debería haber según la experiencia.
Es un buen método para reducir el "consumo de CPU" pero sólo funciona bien si las cosas en el entorno se ajustan a lo "normal". En la naturaleza eso es lo ideal porque las cosas son siempre... "naturales" pero apenas metes imágenes raras la mente empieza rellenar con datos equivocados y vemos cosas que no están ahí.
#22 Si es una cuestión de poner límites y descartar partes, no veo por qué "No."
#22 Yo diría que sí es una joya, por una parte como tu dices es una forma de optimizar recursos, pero es que siempre tendremos recursos limitados, e incluso si no los tuvieramos, siempre hay que limitar de alguna forma la información que es relevante. Por otra parte, generalmente esas ilusiones ópticas solo se prestan para asombrarnos y generarnos sensaciones curiosas.
Por otra parte, las IA también sufren de ese tipo problemas por las mismas razones.
http://www.evolvingai.org/fooling
#32 Claro. El problema es que el cerebro evolucionó para considerar relevante lo necesario para sobrevivir en la naturaleza. Ahora vivimos en un entorno muy diferente y esas optimizaciones ya no son útiles. De hecho son un inconveniente por ejemplo cuando los vendedores las utilizan para manipularnos.
Me cago en el puto sistema que te borra referencias.
MindFuck
Son incapaces porque la mayoría de estas ilusiones son errores de procesamiento de nuestro cerebro que se cree que algo es lo que no es.
#16 Exacto, son bugs de nuestro hardware/software. Con otro distinto no podemos esperar los mismos bugs, si acaso otros.
Que no les entrenen, así sirve de prueba en el futuro para identificar a espías cyborgs
Esto es más interesante de lo que parece pero el título y parte del artículo no me gusta nada. Supongo que el problema de las ilusiones ópticas es que se basan en cómo funcionan nuestros ojos y tendría que aprender dicha "arquitectura". Lo que quiero decir es que cuando una IA intenta reconocer caras, está reconociendo patrones objetivos, y no necesita hacerlo de la misma forma que lo hacemos nosotros. Por otra parte, una ilusión óptica no tiene relación con esos patrones objetivos, tiene que ver con como percibimos y procesamos la imagen, para detertar ilusiones ópticas tendría que modelar como funciona nuestra percepción.
No creo que sea imposible conseguirlo, pero está yendo un paso más allá, no es una IA que intenta ver, es una IA que intenta estimar como vemos nosotros.
No lo llamemos ilusiones ópticas. Son bugs. Y en la IA no existen porque están mejor programadas.
#25 Entonces llamémoslo memoria artificial.
A lo mejor es que deberíamos revisar el concepto de IA.
#4 Aprendizaje y repetición. Otra cosa es improvisar coherentemente a partir de ahí, que es lo que hacemos los humanos y las máquinas aún no.
Quiero saber cada ves mas sobre este tema Ilusione óptica, cualquier ayuda sera agradecida.
Me encanta. Es un juego de nuestra naturaleza humana.
Y como juego, os propongo que veáis los círculos concéntricos del artículo con un ojo cerrado, y el otro entornado. Más cerrado que abierto. Que entre sólo un suspiro de luz.
A que veis dos círculos perfectos.
Este caso es curioso. Cuanto más abrimos ambos ojos, más cuadrados vemos los círculos.