Hace 12 años | Por mezvan a neofronteras.com
Publicado hace 12 años por mezvan a neofronteras.com

[c&p] Marco Zorzi de la Universidad de Padua (Italia) ha programado una red neuronal la cual ha conseguido aprender a estimar números por si sola. Recordemos que una red neuronal, además del sistema biológico al que imita, puede ser un programa computacional al que se puede enseñar a realizar un cálculo o función sin necesidad de programar los detalles. Digamos que un sistema de este tipo aprende de sus errores y aciertos cambiando su propia configuración para finalmente ser muy acertado en la tarea encomendada.

Comentarios

jm22381

#7 ¿En un aterrizaje de emergencia preferiríamos el cálculo de probabilidades de una inteligencia artificial o de un ser humano?

D

#9 Hombre, no. Pero si no no tiene gracia el chiste. Por ejemplo:

Se abre el telón, salen dos trufas dándose de hostias a piñón, ¿cómo se llama la película?

trufas too furious.


Vale, las trufas no pegan, pero te ríes...

Karmarada

Propongo el acrónimo AODBC "A ojo de buen cubero" lol
La verdad es que es impresionante y está muy bien explicado.

cavefish

Sensacionalista.

Yo he trabajado con RRNN artificiales, y funcionan internamente a base de sumas, así que lo de que "estima" es mas falso que los billetes de 6€
(En realidad es tan fácil como entrenar la red para detectar rectangulos (trivial), y sumar los 1 en la última capa)

g

Estoy con #12, un poco...

Utilizo habitualmente en mis investigaciones RRNN (hoy estoy entrenando un perceptron para que me diga la edad de alguien a partir de la forma de su vecindario en facebook...infructuoso de momento, por cierto) lol

Decir que las RRNN son "simplemente" ajustar miles de parámetros de una función compuesta de sumas y exponenciales es estrictamente cierto. Pero también es verdad que las neuronas del cerebro se ha demostrado que tienen un comportamiento integrador+No_linealidad y que lo que cambia el aprendizaje es la activación/desactivación de las conexiones...Es cierto que este esquema ha sido demostrado que presenta mejoras notables (hacen falta menos parámetros para la misma calidad) que el ajustar otros modelos (Fourier, Gaussianas...)...a mí me parece maravilloso...y super-interesante.

Aunque he de decir, que mi director de tesis (creo que fue el primero en España en entrenar una RRNN) piensa como #12, que lo del cerebro es simplemente una inspiración del diseño, y sobre todo una herramienta para vender libros y dar conferencias lol

e

#19 Creo que para eso con un perceptrón te vas a quedar corto (me da la impresión que es un problema no separable linealmente) yo que tú apuntaría un poco mas alto y lo intentaría con un algoritmo de backpropagation que va a ser mucho mas flexible y no es mucho mas curro de echarlo a andar.

Dicho esto, aquí otro que ha hecho la licenciatura en redes neuronales y que ahora está trabajando en el tema .

cavefish

#19 Tschhh que no se enteren que de neuronales tienen nada, que se nos acaba el chiringuito lol

gustavocarra

Meneo, las redes neurales son absolutamente maravillosas. Y recordad: mejor en LISP

McCarthy in memoriam

Polmac

#11 ¡En LISP! No jodas... ¡el Lots of Insane and Stupid Parenthesis es un infierno de lenguaje!

a

#13 hahaha que buena lol

ElPerroDeLosCinco

Hace las estimaciones mediante el algoritmo APH.

(...o sea, A Puro Huevo).

michaelknight

eeestupendo

E

Irrelevante (casi rozando el sensacionalismo)

Aparte de ser una tarea relativamente sencilla para una red natural (las hay que aparcan camiones o juegan al ajedrez desde hace mucho tiempo)... esta matematicamente demostrado que las RRNN son aproximadores universales, es decir que pueden representar cualquier funcion matematica.

Asi que llevan tiempo usandose para tratar imagenes con filtros en los que se separan los objetos del fondo y luego se cuentan.

s

¿Y estima según la Policía o según la organización?

D

Buff.. carne de hipoteca.

McLaud_

#23 Decía que era un buen paso, no un primer paso. Cuando lo leí ayer me acordaba de H.A.L. (2001, una odisea ...) y cuando mencionaba los años que había pasado con su entrenador. Sl2

McLaud_

De momento sabe contar "en mayor o menor medida"... pero es un buen paso.

KirO

#2 no es un primer paso, se trata de estimar la cantidad por lo que es lógico que sea en mayor o menor medida.

Realmente el funcionamiento de las RRNN es muy curioso porque son bastante sencillas de programar (aunque no tanto de entrenar) y hacen unos cálculos que, aunque no exactos son bastante acertados y rápidos.

D

Han inventado el ojímetro!!!

e

Y aprendió tanto de sus herrores que llegó a la conclusión de que lo más preciso era contar de uno en uno

D

La que se va a liar como la pongan a calcular asistentes a manifestaciones...

D

menuda mierda, enseñar a una puta makina a cometer los mismos errores que un ser humano...así no joder....

D

Si unes 100000000 neuronas tienes un cerebro. Si unes 100000000 políticos tienes un cáncer. La naturaleza es sabia.

D

#8 Si unes 100000000 votantes tienes 1000000 de políticos, con lo cual tenemos 1 problema.

D

#8 Confirmado. http://e.meneame.net es un fracaso.