edición general
13 meneos
52 clics
Una herramienta llamada AI-Newton puede deducir leyes científicas a partir de datos en bruto [ENG]

Una herramienta llamada AI-Newton puede deducir leyes científicas a partir de datos en bruto [ENG]

El modelo imita el proceso científico humano al construir de forma incremental una base de conocimientos de conceptos y leyes, afirma Yan-Qing Ma, físico de la Universidad de Pekín que ayudó a desarrollar el sistema. Ser capaz de identificar conceptos útiles significa que el sistema puede descubrir potencialmente conocimientos científicos sin necesidad de una programación previa por parte de los humanos, añade Ma. Utiliza regresión simbólica con la que el modelo busca la mejor ecuación matemática para representar los fenómenos físicos.

| etiquetas: ia , ai , newton , bruto , fisica , descubrimiento , leyes , nature , ecuacion
y el nobel de fisica,quimica y más allá es para .......
Lo que describe tiene mucho sentido, pero es tremendamente ambicioso. No sé hasta que punto creermelo.

Por si acaso, no tiene absolutamente nada que ver con la IA generativa.
#2, tienes razón, es un modelo simbólico, no solo no tiene nada que ver con la IA generativa, sino con el Deep Learning. Por eso dudo que pueda lograr resultados muy impresionantes, representar el conocimiento del mundo real simbólicamente es prácticamente imposible.
#4 Todo el conocimiento de la física que tenemos es simbólico. Cada símbolo representa un concepto.

Por ejemplo tomas la permitividad eléctrica del espacio y la permeabilidad magnética, y a partir de esos símbolos conoces la velocidad de la luz.  media
#5, un bebé de 2 años tiene un conocimiento de la física de nuestro universo extremadamente profundo y te aseguro que no ha utilizado ningún símbolo para ello.
#6 Sí que lo ha hecho. No ha hecho otra cosa. Ha ido creando conceptos. Asignar un símbolo a un concepto es lo de menos y sólo sirve para aplicar la lógica formal.
#7, no la comprensión de como tiene que agarrar un objeto, como tiene que caminar, o como tiene que bajarse del sofa no está representada con símbolos sino que son conexiones neuronales dentro del cerebro.
#8 No tenemos ni idea de cómo funciona el cerebro, por lo que eso de las conexiones neuronales es especular.

No son símbolos, son conceptos. Lo que pasa es que en la lógica formal, para poder usar un símbolo necesitas asignarle un concepto.

Este es el problema de la IA generativa. No es capaz de hacer razonamientos porque para ello son necesarios los conceptos, algo que no tiene. Sólo tiene palabras. Aunque le metieras dentro una ontología, no puedes hacer una paralelismo entre eso y los…   » ver todo el comentario
#9, no tenemos ni idea, pero sabemos seguro que no son símbolos, no hay ningún registro en el cerebro de un bebé que guarde la constante de gravitación universal y sin embargo es capaz de predecir muy bien como caen los objetos al suelo.

Respecto a la IA generativa, primero deberíamos saber bién qué es razonar. Lo que observamos es que modelos matemáticos que intentan simular el cerebro biológico muestran comportamientos que si los hace un humano decimos, sin lugar a dudas, que está razonando.
#10 Razonar es aplicar la lógica a una serie de hechos para deducir conclusiones.
#11, entonces los LLM son grandes razonadores.
#12 Hay montones de experimentos realizados que dicen que no lo hacen, que son los únicos a tener en cuenta, porque si a veces no pueden es porque no pueden nunca, sin importar que en ocasiones lo pueda parecer.
#13, a las personas no se las evalúa de esta manera.
#14 Pues claro que no. Las personas son algo mucho más complejo que esas máquinas. Hay tantos órdenes de magnitud de diferencia de complejidad que no es posible evaluarlo con los mismos métodos. Con las personas usas perfiles psicológicos y años de experiencia sin haber metido la pata de forma flagrante, y eso te da sólo una pista.
#15, cuando Alan Turing se peeguntó si las máquinas podían pensar, tuvo la audacia suficiente para entender que era una cuestión tan compleja que la mejor forma de hacerlo era evaluar si simplemente podían imitar un interlocutor humano. Nada de tratar de entender el proceso interno del modelo o de basarnos en tests imposibles de contestar bien por la inmensa mayoría de seres humanos. Simplemente imitar un humano a nivel conversacional. Y recordemos que en aquella época el conexionismo no estaba…   » ver todo el comentario
#16 Esto del efecto IA es lo normal. Es lo correcto.

Como que el funcionamiento del cerebro humano es totalmente desconocido, no es posible juzgarlo como inteligente o no inteligente de por sí. Sólo podemos observar lo que hace.

Pero esto no significa que podamos observarle hacer cosas inteligentes. Esto no va así. Lo que hacemos es ver a un humano hacer cosas que solamente se pueden hacer mediante el uso de la inteligencia, y de ahí deducir que la persona es inteligente.

Pero esto parte del…   » ver todo el comentario
#16 A Turing le preguntaron que cuando se podría considerar inteligente a un ordenador. Los ordenadores de entonces no tenían la potencia de los actuales no de muy lejos, e imaginarse eso requería una buena capacidad de abstracciión.

A Turing se le ocurrió proponer una prueba difícil. El muy sarasa dijo que cuando, mediante sólo el uso de un teletipo para comunicarse, el ordenador pudiera averiguar si hablaba con un hombre o una mujer.

Esta prueba se juzgó inconveniente y fue sustituida por detrás por la conocida de si podría saber si se trataba de un humano.
Que no, que la ciencia no se basa en encontrar patrones sino en conectar los chakras cuánticos del subconsciente para que emerjan ideas de la nada absoluta. Esto es irreplicable por un algoritmo que se basa en operar valores de entrada.

menéame