La empresa Google, en colaboración con la Universidad de Aachen, ha presentado una nueva herramienta basada en una red neuronal autodidacta. La nueva herramienta llamada PlaNet es capaz de "mirar" una imagen y descubrir en qué parte del mundo ha sido tomada. El robot tiene en cuenta las mismas cosas que los humanos cuando tratamos de adivinar el lugar donde se tomó una imagen y se fija en los carteles, tipo de conectores eléctricos, sentido de circulación de los vehículos, monumentos, tipo de comida, vestimenta o arquitectura entre otras.
Comentarios
Cotillas.
El robot tiene en cuenta las mismas cosas que los humanos cuando tratamos de adivinar el lugar donde se tomó una imagen y se fija en los carteles, tipo de conectores eléctricos, sentido de circulación de los vehículos, monumentos, tipo de comida, vestimenta o arquitectura entre otras.
Vamos, que basta una imagen invertida horizontalmente, tipo espejo, para que el robot se vuelva gilipollas intentando cuadrar información contradictoria.
#4 Me pregunto si no se habrá dado cuenta en Google.
PDF con la presentación - http://arxiv.org/pdf/1602.05314v1.pdf
Me voy a hacer una foto de la chorra y a ver si averigua donde me la he hecho.
Universidad de Aquisgrán
Un paso más para la dominación mundial de Google.