Nuestros ojos viven sometidos a las ilusiones ópticas. Pueden percibir una misma realidad de diversas maneras en diferentes ocasiones, ver cuadrados donde hay triángulos e incluso sombras donde no existen. Y es que la luz, su intensidad, el brillo, el color o el movimiento tienen gran poder sobre el sentido de la vista y sobre nuestro cerebro. Pero, ¿qué pasa con los ordenadores? Los ordenadores no tienen un cerebro como el humano. El suyo lo definimos y entendemos como (casi) perfecto, aunque aún le queda mucho para llegar a ser tan complejo..
#3:
Al ordenador no le engaña ninguna ilusión óptica. En todo caso el algoritmo que le han programado es una castaña.
#1:
El investigador aspira a encontrar la manera en que los ordenadores ignoren las ilusiones ópticas y las superen. Al fin y al cabo, si un ordenador puede ser engañado de esta forma cualquier ciberdelincuente podría atacar un coche inteligente, por ejemplo, haciéndole ver señales de tráfico engañosas.
Acojonante. El otro día leí una noticia sobre robots que ya están delinquiendo y no saben muy bien qué hacer con ellos. A ver si encuentro el enlace y lo envío.
#14:
Bueno, me da la sensación que el autor no esta muy versado en lo que esta escribiendo en este articulo o quizas es que va dirigido a un publico muy generalista. Para empezar, cuando escribe frases que parecen de relleno como "Los ordenadores no tienen un cerebro como el humano". Se queda uno con cara de..."ein?" Pero luego sigue diciendo "El suyo lo definimos y entendemos como (casi) perfecto..." ¿Quienes son los que definen y entienden como (casi)-perfecto? ¿En que sentido perfecto? Y luego esta la mania de humanizar hablando de "cerebro". Esta humanizacion esta presente tambien cuando dice "Por eso es probable que muchos crean que un ordenador no puede verse engañado por esas ilusiones ópticas que tienen la batalla ganada a las personas".
Seguimos. Luego dice otra frase que, a mi personalmente, me ha sacado una sonrisa cuando lees "una investigación (..) ha descubierto que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos". ¿En serio? No puede ser....oiga "ustec", no me lo puedo "de que creer".... Y llevamos ya tres parrafos y dos imagenes que ocupan casi toda la pantalla y hasta ahora la cantidad de informacion aportada es cercana a CERO, si Shannon levantara la cabeza...
Bueno, y asi sigue algun parrafo mas hasta que dice "Según Clune, los ordenadores son capaces de recordar y reconocer un sinfín de formas y de imágenes, pero lo que aún no saben es entender que esas imágenes pueden evolucionar, cambiar de forma o asemejarse a otras muy diferentes." Vamos a ver. Vamos a decirlo ya de una vez. Cuando dice "los ordenadores" esto y "los ordenadores" lo otro, se refiere en realidad a algoritmos matematicos y programas. Hay varias corrientes asociadas a la IA y a la problematica de la inteligencia y la consciencia pero por ahora, un algoritmo no "entiende" ni deja de entender, sólamente es un algoritmo. Una maquina que procesa un algoritmo para jugar al ajedrez no "entiende", no se puede aplicar a la maquina el verbo "entender" o "comprender" mas que como una humanizacion. Por ahora es lo que hay. Así lo reconoce posteriormente cuando habla de algoritmos de reconocimiento de imagenes y sobre todo imagenes que evolucionan o cambian. Dice que "el ordenador" se pierde. No, "el ordenador" no se pierde, señor. El algoritmo FALLA y su resultado no se acerca a lo que deberia ser la solución. Es mas, a lo mejor no existe una solucion como tal.
Un matematico, quizas, podria enfocar este articulo de otra forma: cuando hablamos de reconocimiento de imagenes, formas y tal, existen ciertos casos o problemas para los cuales no se conoce una solucion (algoritmica). O quizas es posible que NO exista una solucion, o que no pueda ser plasmada en un algoritmo, o que no exista solucion factible en un tiempo menor de 4000 billones de años, no se.... De ahi a decir que las ilusiones "engañan" a los "ordenadores", pues bueno, lo considero una licencia del autor de cara a la divulgacion. Pero es muy poco riguroso.
#13 aparte de insultar, poco mas se saca de tu aportacion. Te jodera lo que dice #3, pero no por ello es mas o menos cierto.
Si se programa para reconocer una M por un humano, cómo va a saber un ordenador si es una M o una M generada por ilusión óptica si el mismo humano que ha programado la lógica no lo puede saber
#3 sabia que algún tonto iba a decir lo del algoritmo, encima lo juzga sin saber como es como si tu fueras un experto en hacer algoritmos de ese tipo. No me extraña que tengamos la fama de enteraos los informáticos por gente como tu.
Bueno, me da la sensación que el autor no esta muy versado en lo que esta escribiendo en este articulo o quizas es que va dirigido a un publico muy generalista. Para empezar, cuando escribe frases que parecen de relleno como "Los ordenadores no tienen un cerebro como el humano". Se queda uno con cara de..."ein?" Pero luego sigue diciendo "El suyo lo definimos y entendemos como (casi) perfecto..." ¿Quienes son los que definen y entienden como (casi)-perfecto? ¿En que sentido perfecto? Y luego esta la mania de humanizar hablando de "cerebro". Esta humanizacion esta presente tambien cuando dice "Por eso es probable que muchos crean que un ordenador no puede verse engañado por esas ilusiones ópticas que tienen la batalla ganada a las personas".
Seguimos. Luego dice otra frase que, a mi personalmente, me ha sacado una sonrisa cuando lees "una investigación (..) ha descubierto que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos". ¿En serio? No puede ser....oiga "ustec", no me lo puedo "de que creer".... Y llevamos ya tres parrafos y dos imagenes que ocupan casi toda la pantalla y hasta ahora la cantidad de informacion aportada es cercana a CERO, si Shannon levantara la cabeza...
Bueno, y asi sigue algun parrafo mas hasta que dice "Según Clune, los ordenadores son capaces de recordar y reconocer un sinfín de formas y de imágenes, pero lo que aún no saben es entender que esas imágenes pueden evolucionar, cambiar de forma o asemejarse a otras muy diferentes." Vamos a ver. Vamos a decirlo ya de una vez. Cuando dice "los ordenadores" esto y "los ordenadores" lo otro, se refiere en realidad a algoritmos matematicos y programas. Hay varias corrientes asociadas a la IA y a la problematica de la inteligencia y la consciencia pero por ahora, un algoritmo no "entiende" ni deja de entender, sólamente es un algoritmo. Una maquina que procesa un algoritmo para jugar al ajedrez no "entiende", no se puede aplicar a la maquina el verbo "entender" o "comprender" mas que como una humanizacion. Por ahora es lo que hay. Así lo reconoce posteriormente cuando habla de algoritmos de reconocimiento de imagenes y sobre todo imagenes que evolucionan o cambian. Dice que "el ordenador" se pierde. No, "el ordenador" no se pierde, señor. El algoritmo FALLA y su resultado no se acerca a lo que deberia ser la solución. Es mas, a lo mejor no existe una solucion como tal.
Un matematico, quizas, podria enfocar este articulo de otra forma: cuando hablamos de reconocimiento de imagenes, formas y tal, existen ciertos casos o problemas para los cuales no se conoce una solucion (algoritmica). O quizas es posible que NO exista una solucion, o que no pueda ser plasmada en un algoritmo, o que no exista solucion factible en un tiempo menor de 4000 billones de años, no se.... De ahi a decir que las ilusiones "engañan" a los "ordenadores", pues bueno, lo considero una licencia del autor de cara a la divulgacion. Pero es muy poco riguroso.
#13 aparte de insultar, poco mas se saca de tu aportacion. Te jodera lo que dice #3, pero no por ello es mas o menos cierto.
#14 claro que es cierto pero es una perogrullada. Los que sabemos del tema no necesitamos la aclaración y los que no están muy versados les da igual que sea el algoritmo, ven el ordenador como algo único e indivisible y diciéndoles que es el ordenador el que se equivoca lo entienden mejor que si les dices noseque de un algoritmo que ni sabrán lo que es.
Por eso digo que la única finalidad de la aclaración de #3 es hacerse el guay y demostrar lo repelente que es.
El investigador aspira a encontrar la manera en que los ordenadores ignoren las ilusiones ópticas y las superen. Al fin y al cabo, si un ordenador puede ser engañado de esta forma cualquier ciberdelincuente podría atacar un coche inteligente, por ejemplo, haciéndole ver señales de tráfico engañosas.
Acojonante. El otro día leí una noticia sobre robots que ya están delinquiendo y no saben muy bien qué hacer con ellos. A ver si encuentro el enlace y lo envío.
El ordenador hará lo que tenga que hacer según esté programado, estos artículos de "los ordenadores son listos/tontos" ponen de relevancia la ignorancia de la gente y nos quitan valor a los que nos dedicamos al desarrollo.
Jo, qué artículo más flojo, con lo que mola el paper original
La idea del paper es la siguiente:
Tenemos un algoritmo que reconoce imágenes. Un algoritmo reconocedor de imágenes básicamente tiene una base de datos con las imágenes que conoce y tiene unos datos calculados de cada una de ellas las "caracterizan". Llamémoslos la "huella" de cada imagen. Cuando le metes una imagen nueva, calcula la huella, y mira a ver si es parecida a una que tenga en la base de datos. Qué datos calculamos y cómo definimos "parecido" es lo que cambia de unos algoritmos a otros, al final.
Ahora, la pregunta es: ¿es posible tener una imagen que genere la misma huella que otra (y por tanto el reconocedor crea que son iguales) que sea lo bastante diferente como para que a una persona no le parezcan iguales en absoluto?
La respuesta definitivamente es que sí. Lo cual era de esperar, realmente...
Lo interesante es cómo lo han demostrado. Lo que han hecho ha sido coger imágenes que reconoce la implementación del algoritmo que tienen, e ir deformándolas poco a poco de forma que el algoritmo las siga reconociendo. Como el único criterio es que las siga reconociendo el ordenador, tras un rato lo que se consigue son eso: imágenes transformadas que el ordenador reconoce pero que para una persona no tienen nada de reconocibles... véase en el paper arriba a la derecha: http://arxiv.org/pdf/1412.1897v2.pdf.
Básicamente el paper de lo que habla es de eso, de cómo han ido transformando las imágens y tal (han usado Algoritmos Genéticos, pero la gracia está en cómo han codificados las imágenes y las mutaciones y cruzamientos).
#19 muchas gracias por esa informacion que aclara absolutamente el sentido de un estudio que en este articulo parecia una coña marinera de la pelicula Top Secret.
En una de las pruebas el equipo puso a prueba a los ordenadores haciendo que “observaran” ciertas imágenes que podrían confundir al ser humano. Descubrieron que cuando las máquinas intentaban reproducirlas, creaban imágenes extrañas, abstractas, que nada tenían que ver con la original. A pesar de ello, esos ordenadores creían estar acertando en sus dibujos al 99.99 %. Sin embargo, reconocían perfectamente (y como era de esperar) imágenes normales.
Pues sí que se enteró bien de lo que leyó... Pajas mentales del autor aparte, la conclusión del estudio es que es posible crear imágenes irreconocibles para humanos y que redes neuronales entrenadas para detectar clases de objetos las asignen a una de estas clases con un alto nivel de confianza.
El artículo está escrito con el culo, en mi opinión, buscando el titular facilón. Es que en el artículo de arxiv ni siquiera habla de ilusiones ópticas... En el de New Scientist que cita lo único que se dice es que la red neural de reconocimiento, cuando se usa para generar imágenes, produce mierdas, pero el algoritmo cree que lo ha clavado.
#12 Tienes razón. Es una pena que el autor del artículo se haya liado con las "ilusiones ópticas" y no haya puesto las imágenes que de verdad usaron en el estudio. Me da que esas no eran tan espectaculares:
#16 Las imágenes con formas más normales tenían restricciones a la hora de generarse. Esas imágenes, en vez de irse de madre como esas que a primera vista no son más que ruido, muestran patrones que se repiten.
una investigación impulsada por Jeff Clune en la Universidad de Wyoming (Estados Unidos) ha descubierto que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos
Pues no es por nada, pero yo ya me imaginaba que las máquinas no ven los objetos como los vemos nosotros, o a esta frase le falta algo, o no es que descubrieran mucho en dicha afirmación.
¿"los ordenadores"? Hablan de Deep Convolutional Neural Networks, un modelo concreto (de tantos) entrenado sobre un conjunto de datos concreto (de tantos). Si bien el artículo original es interesante porque arroja algo más de luz sobre cómo funcionan las DCNN, el artículo enlazado por Menéame sólo puede crear confusión en los lectores que no sepan de visión artificial.
Comentarios
Al ordenador no le engaña ninguna ilusión óptica. En todo caso el algoritmo que le han programado es una castaña.
#3 si, como el OCR
Si se programa para reconocer una M por un humano, cómo va a saber un ordenador si es una M o una M generada por ilusión óptica si el mismo humano que ha programado la lógica no lo puede saber
#3 sabia que algún tonto iba a decir lo del algoritmo, encima lo juzga sin saber como es como si tu fueras un experto en hacer algoritmos de ese tipo. No me extraña que tengamos la fama de enteraos los informáticos por gente como tu.
Bueno, me da la sensación que el autor no esta muy versado en lo que esta escribiendo en este articulo o quizas es que va dirigido a un publico muy generalista. Para empezar, cuando escribe frases que parecen de relleno como "Los ordenadores no tienen un cerebro como el humano". Se queda uno con cara de..."ein?" Pero luego sigue diciendo "El suyo lo definimos y entendemos como (casi) perfecto..." ¿Quienes son los que definen y entienden como (casi)-perfecto? ¿En que sentido perfecto? Y luego esta la mania de humanizar hablando de "cerebro". Esta humanizacion esta presente tambien cuando dice "Por eso es probable que muchos crean que un ordenador no puede verse engañado por esas ilusiones ópticas que tienen la batalla ganada a las personas".
Seguimos. Luego dice otra frase que, a mi personalmente, me ha sacado una sonrisa cuando lees "una investigación (..) ha descubierto que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos". ¿En serio? No puede ser....oiga "ustec", no me lo puedo "de que creer".... Y llevamos ya tres parrafos y dos imagenes que ocupan casi toda la pantalla y hasta ahora la cantidad de informacion aportada es cercana a CERO, si Shannon levantara la cabeza...
Bueno, y asi sigue algun parrafo mas hasta que dice "Según Clune, los ordenadores son capaces de recordar y reconocer un sinfín de formas y de imágenes, pero lo que aún no saben es entender que esas imágenes pueden evolucionar, cambiar de forma o asemejarse a otras muy diferentes." Vamos a ver. Vamos a decirlo ya de una vez. Cuando dice "los ordenadores" esto y "los ordenadores" lo otro, se refiere en realidad a algoritmos matematicos y programas. Hay varias corrientes asociadas a la IA y a la problematica de la inteligencia y la consciencia pero por ahora, un algoritmo no "entiende" ni deja de entender, sólamente es un algoritmo. Una maquina que procesa un algoritmo para jugar al ajedrez no "entiende", no se puede aplicar a la maquina el verbo "entender" o "comprender" mas que como una humanizacion. Por ahora es lo que hay. Así lo reconoce posteriormente cuando habla de algoritmos de reconocimiento de imagenes y sobre todo imagenes que evolucionan o cambian. Dice que "el ordenador" se pierde. No, "el ordenador" no se pierde, señor. El algoritmo FALLA y su resultado no se acerca a lo que deberia ser la solución. Es mas, a lo mejor no existe una solucion como tal.
Un matematico, quizas, podria enfocar este articulo de otra forma: cuando hablamos de reconocimiento de imagenes, formas y tal, existen ciertos casos o problemas para los cuales no se conoce una solucion (algoritmica). O quizas es posible que NO exista una solucion, o que no pueda ser plasmada en un algoritmo, o que no exista solucion factible en un tiempo menor de 4000 billones de años, no se.... De ahi a decir que las ilusiones "engañan" a los "ordenadores", pues bueno, lo considero una licencia del autor de cara a la divulgacion. Pero es muy poco riguroso.
#13 aparte de insultar, poco mas se saca de tu aportacion. Te jodera lo que dice #3, pero no por ello es mas o menos cierto.
#14 claro que es cierto pero es una perogrullada. Los que sabemos del tema no necesitamos la aclaración y los que no están muy versados les da igual que sea el algoritmo, ven el ordenador como algo único e indivisible y diciéndoles que es el ordenador el que se equivoca lo entienden mejor que si les dices noseque de un algoritmo que ni sabrán lo que es.
Por eso digo que la única finalidad de la aclaración de #3 es hacerse el guay y demostrar lo repelente que es.
#14 Esto a mi me sonó a que pronto tendremos en el canal discovery programas tipo "ordenadores en su estado salvaje"
El investigador aspira a encontrar la manera en que los ordenadores ignoren las ilusiones ópticas y las superen. Al fin y al cabo, si un ordenador puede ser engañado de esta forma cualquier ciberdelincuente podría atacar un coche inteligente, por ejemplo, haciéndole ver señales de tráfico engañosas.
Acojonante. El otro día leí una noticia sobre robots que ya están delinquiendo y no saben muy bien qué hacer con ellos. A ver si encuentro el enlace y lo envío.
#1 Por favor, a ver si lo encuentras si.
#1 #6
http://en.wikipedia.org/wiki/High-frequency_trading
Este será el año de las ilusiones en el escritorio [Linux]
El ordenador hará lo que tenga que hacer según esté programado, estos artículos de "los ordenadores son listos/tontos" ponen de relevancia la ignorancia de la gente y nos quitan valor a los que nos dedicamos al desarrollo.
Jo, qué artículo más flojo, con lo que mola el paper original
La idea del paper es la siguiente:
Tenemos un algoritmo que reconoce imágenes. Un algoritmo reconocedor de imágenes básicamente tiene una base de datos con las imágenes que conoce y tiene unos datos calculados de cada una de ellas las "caracterizan". Llamémoslos la "huella" de cada imagen. Cuando le metes una imagen nueva, calcula la huella, y mira a ver si es parecida a una que tenga en la base de datos. Qué datos calculamos y cómo definimos "parecido" es lo que cambia de unos algoritmos a otros, al final.
Ahora, la pregunta es: ¿es posible tener una imagen que genere la misma huella que otra (y por tanto el reconocedor crea que son iguales) que sea lo bastante diferente como para que a una persona no le parezcan iguales en absoluto?
La respuesta definitivamente es que sí. Lo cual era de esperar, realmente...
Lo interesante es cómo lo han demostrado. Lo que han hecho ha sido coger imágenes que reconoce la implementación del algoritmo que tienen, e ir deformándolas poco a poco de forma que el algoritmo las siga reconociendo. Como el único criterio es que las siga reconociendo el ordenador, tras un rato lo que se consigue son eso: imágenes transformadas que el ordenador reconoce pero que para una persona no tienen nada de reconocibles... véase en el paper arriba a la derecha: http://arxiv.org/pdf/1412.1897v2.pdf.
Básicamente el paper de lo que habla es de eso, de cómo han ido transformando las imágens y tal (han usado Algoritmos Genéticos, pero la gracia está en cómo han codificados las imágenes y las mutaciones y cruzamientos).
#19 muchas gracias por esa informacion que aclara absolutamente el sentido de un estudio que en este articulo parecia una coña marinera de la pelicula Top Secret.
A un algoritmo estadístico con margen de error conocido le pasas dos fotos muy parecidas y las confunde... vivir para ver, sin duda.
En una de las pruebas el equipo puso a prueba a los ordenadores haciendo que “observaran” ciertas imágenes que podrían confundir al ser humano. Descubrieron que cuando las máquinas intentaban reproducirlas, creaban imágenes extrañas, abstractas, que nada tenían que ver con la original. A pesar de ello, esos ordenadores creían estar acertando en sus dibujos al 99.99 %. Sin embargo, reconocían perfectamente (y como era de esperar) imágenes normales.
Pues sí que se enteró bien de lo que leyó... Pajas mentales del autor aparte, la conclusión del estudio es que es posible crear imágenes irreconocibles para humanos y que redes neuronales entrenadas para detectar clases de objetos las asignen a una de estas clases con un alto nivel de confianza.
Lo esperable en un fecundo todólogo: http://www.experiensense.com/author/whistle/page/2/
El artículo está escrito con el culo, en mi opinión, buscando el titular facilón. Es que en el artículo de arxiv ni siquiera habla de ilusiones ópticas... En el de New Scientist que cita lo único que se dice es que la red neural de reconocimiento, cuando se usa para generar imágenes, produce mierdas, pero el algoritmo cree que lo ha clavado.
#12 Tienes razón. Es una pena que el autor del artículo se haya liado con las "ilusiones ópticas" y no haya puesto las imágenes que de verdad usaron en el estudio. Me da que esas no eran tan espectaculares:
http://www.wired.co.uk/news/archive/2015-01/06/simple-pictures-ai
#16 Las imágenes con formas más normales tenían restricciones a la hora de generarse. Esas imágenes, en vez de irse de madre como esas que a primera vista no son más que ruido, muestran patrones que se repiten.
una investigación impulsada por Jeff Clune en la Universidad de Wyoming (Estados Unidos) ha descubierto que las máquinas no ven los objetos de la misma manera que lo hacemos nosotros los humanos
Pues no es por nada, pero yo ya me imaginaba que las máquinas no ven los objetos como los vemos nosotros, o a esta frase le falta algo, o no es que descubrieran mucho en dicha afirmación.
A mi todo el artículo me ha sonado a gente que busca trabajo en google.
un ordenador no tiene nada que ver con un cerebro.
¿"los ordenadores"? Hablan de Deep Convolutional Neural Networks, un modelo concreto (de tantos) entrenado sobre un conjunto de datos concreto (de tantos). Si bien el artículo original es interesante porque arroja algo más de luz sobre cómo funcionan las DCNN, el artículo enlazado por Menéame sólo puede crear confusión en los lectores que no sepan de visión artificial.