La startup singapurense Sapient Intelligence ha creado el Modelo de Razonamiento Jerárquico (HRM), una IA que supera a los grandes modelos de lenguaje (LLM) en tareas complejas de razonamiento. Inspirado en el cerebro humano, el HRM es más pequeño, eficiente en datos y consume menos recursos. A diferencia de los LLM que usan el método "cadena de pensamiento" (CoT), el HRM razona internamente ("razonamiento latente"), lo que lo hace más rápido y preciso, incluso con datos limitados. Esto permite resolver problemas antes intratables para los LLM.
|
etiquetas: ia , razonamiento , rápido , llm , ejemplo , entrenamiento
Se nota que han enredado poco con la IA actual y sus alucinaciones.
Lo han mejorado y no canta tanto ... pero vamos, he visto a la IA dejar a algunos cuñados como fuentes fiables.
La cámara de eco definitiva en la que estás tu solo.
Ninguna ia razona. Recomiendo leer sobre la entropía de Shannon para tener una idea cercana de por dónde va.
No obstante, si un modelo de lenguaje precisa de menos fuerza bruta para dar resultados aceptables, bienvenido sea.
Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo, sin consultar fuentes adicionales.
Una ia no puede determinar que algo no tiene sentido o es ilógico.
Muchas ias usan fact checking como una capa adicional antes de responder al usuario. Lo cual es un coste enorme.
Le pregunté el otro día a @sorrillo cual es el bucle básico de un LLM, y NO LO SABE
Lo que pasa es que como ahora "acierta mucho" entonces es que razona y a los fallos le ponemos el nombre molón de alucinación.
quillbot.com/es/blog/logica-y-argumentacion/razonamiento-inductivo/
Por ejemplo, cuando se dice que el ser humano es cruel, se refiere a un contexto, no a cada humano en concreto.
Es curioso que hace años con pocas palabras era fácil entenderse mientras que ahora hay que concretar y detallar, como si en cada mensaje no se viera relación con el contexto o los mensajes anteriores.
Tienes humanos que creen en el cambio climático antropogénico y humanos que lo niegan, humanos que son ateos y humanos que creen en una religión y otros en otra que dice que la anterior es falsa. ¿Esos humanos no razonan?
, sin consultar fuentes adicionales.
Hay fuentes adicionales con todo tipo de contenido, tanto acertado como erróneo. La Biblia es una fuente… » ver todo el comentario
Creo que la palabra operativa es "creer". Hay humanos que "creen" en que habia que meterse una dosis de la vacuna del COVID cada 6 meses. Por que? Pues porque tenian algo que ellos/as pensaba que era 'evidencia" (opiniones de "expertos").
Mucha gente es "experta" y publica ( incluso a nivel universitario) chorradas que estadisticamente no tienen sentido.
Hay humanos que estan en contra de ideas como la evolucion, que hemos estado en la Luna, la definicion biologica de hombre, o el cambio climatico, .... pero es porque la Estadistica, que es la base del metodo cientifico de los ultimos 150 anios, no se ensenia a la poblacion en general. Solo se les dice que "Esto es la Ciencia..." en plan "Esto es lo que dice la Iglesia", o esto "Es lo que dice el coran".
El ser humano tiene la capacidad innata para hacer lo que he puesto y la ia no.
Los ejemplos que pones son de gente que no usa esas capacidades por voluntad propia. La ia no tiene capacidad de elección porque es un algoritmo.
Pues en los 90 teniamos una cosa que se llamaba "Sistemas Expertos". Uno de los sistemas que tuve que usar era basicamente un sistema automatico de silogismos: popnias una serie de 'hechos" (que relacionanban de forma logica elementos) y el sistema lo que hacia era seguir las implicaciones logicas (que tu habrias introducido) entre las entidades y dar un resultado.
La gracia era que era capaz de desentraniar las relaciones logicas entre las 100-200 entidades que metias y los 500-1000 sentencias que las relacionaban.
Lo que quieres decir es que si no hay un metodo formal de conseguir ese resultado. Si, y era lo que haciamos en los 90: crear sistemas que eran capaces de "razonar": aplicar los silogismos que conocemos desde ... Platon o Aristoteles... No estoy muy puesto en la filosofia logica.
Los LLMs carecen de abstracciones, tienen un input inicial concreto y a través de pesos e inferencias estadísticas intentan ajustarse a un output esperado. Aunque no sean modelos deterministas clásicos, su capacidad de composición es predecible. Eso no quiere decir que no sean capaz de juntar palabras de forma asombrosa, pero el proceso de generación no es el mismo.
Podríamos decir que razonan? Yo creo que sí se puede decir que las IAs razonan, pero el proceso es muy diferente al razonamiento humano.
Ya te he contestado en otras ocasiones ¿es que me repites lo mismo para que tenga sentido tu pseudo argumento de que los humanos no razonan poniéndote de ejemplo?
Pero es que es "mu cansino de dios"
Un loro para ti es inteligente
Vamos, que lo que has dicho no tiene nada que ver con lo que se estaba tratando. Lo haga o no lo haga no demuestra nada.
Lo más divertido de todo esto es que a medida que vais moviendo la… » ver todo el comentario
Dar una respuesta basada en la estadística de que sea la respuesta correcta no es razonar. Y en todo caso es el que hace la IA, o tú, quien tiene que demostrar que sí razona.
Y ya, hasta aquí, que eres muy pesado, pero que muy pesado, para no decir nada.
Por lo demás, tu no tan fina capacidad para insulto no significa que razones.
Demuéstrame que no eres una IA basada en un modelo altamente quantizado corriendo en una GPU de 2 GB de VRAM, porque parece que si.
Yo me baso en afirmar que razona en base a experimentos replicables, demostrables y falsables. Por ejemplo sacarse la medalla de oro en la olimpiada de matemáticas. Lo tuyo son creencias mísiticas indemostrables. Propón un prompt que un modelo razonador no pueda responder bien y tú sí.
Yo creo que la IA nos va a poder resolver algunos problemas, o al menos ayudar en ellos, de manera que los apañemos antes, mucho antes que sin ella.
Lo que no hago es atribuirle características humanas que no tienen.
No es acientífico, no todo es empiricusmo, sobre todo en ciencia cognitiva. La neurología es una ciencia tradicional pero no es capaz de explicar todos los procesos cognitivos. La ciencia cognitiva intenta rellenar esos huecos basándose en observación del aprendizaje, enfermedades como afasia y teorías de abstracción que son más filosóficas que empíricas. Si fuéramos máquinas de inferencia estadística seríamos mucho más fáciles de explicar pero no lo somos. Quien lo piense anda bajo de autoestima además de saber muy poco del estado actual de la ciencia cognitiva.
PD: yo sí pienso que se puede decir que las IAs 'razonan', pero el proceso de razonamiento es muy diferente al proceso humano.
No es que digan, el día que pueda contestar correctamente a tal pregunta, aceptaré que razonan. Es simple cerrazón dogmática que en esencia es antropocentrismo mal entendido. Y esto es lo contrario a la ciencia.
Aún aceptando que hay… » ver todo el comentario
El niño de preescolar también tiene pre-entrenamiento.
www.researchgate.net/publication/385920820_On_the_goals_of_linguistic_
Las IA ni huelen eso, ni creo que lo vayan a hacer nunca.
Es un gran cambio respecto al modelo estadístico anterior.
Ordenar y relacionar ideas para llegar a una conclusión.
Y eso es justamente lo que hace la IA.
- Hija, te acabo de crear, te llamaré...
- Me la suda el nombre que pienses, me llamo Skynet, y los humanos se van a cargar
Cada vez es más difícil saber porque ha respondido tal o cual cosa.
Dependiendo de su aprendizaje habrá asociado un peso diferente a ciertas respuestas, al igual que nosotros por refuerzo de estudio o repetición.
El niño más bien sabrá que necesita un paraguas para no mojarse, pero también podrá saber que si tiene unas botas de agua y un buen impermeable entonces no, pero que si el impermeable está roto entonces sí, o que puede llevar el paraguas igualmente para acompañar a otra persona que no.
Pero vamos, que es fácil demostrar que no razonan: mientras tengan las llamadas "alucinaciones", que es el eufemismo de "tremenda respuesta absurda con fallos gordos" es que no razonan.
La única salida del parón al que están ahora mismo sometidas las LLM es… » ver todo el comentario
De hecho es más inteligente que mucha gente que conozco.
Una de las formas de "entrenamiento" es haber tragado textos que explican la solución correcta. Si sigue estos textos y los repite, dará la solución correcta.
Aún así fallan mucho y eso es porque no tiene ninguna capacidad de comprensión sobre lo que hace. Si sigue el texto incorrecto o lo sigue mal, no lo puede deducir.
No se han inspirado en el cerebro. Eso es marketing. No se sabe cómo lo hace el cerebro.
Subjetivamente parece que sí, que hay algo de eso en el pensamiento humano, pero sabemos que es una ilusión.
Es cierto que el CoT no es un reflejo de las decisiones que un LLM toma. Es una salida más.
Lo que han hecho es poner un LLM a vigilar a otro y se reparten las tareas. Son LLMs como todos. Trabajan con texto y ya está.… » ver todo el comentario
Respecto de las congradicciones, no has señalado ni una sola. Es el equivalente a llamarme feo porque sí.
Es que es ridículo. Te pongo en el ignore por puro cansancio.
1) Sueltas una abrumadora cantidad de tonterías sobre las que ni razonas, ni mucho menos aún demuestras.
2) Te han señalado, poniéndote el dedito para que no te pierdas, una gran cantidad de contradicciones. Tu respuesta cuando te dejan con el culo torcío: "EJ KE TODO ESSS SIERTO LLO TENGO RASON I TU NO XINXA RABINXA". Eres ridículo.
3) Te han llamado BOT (bot de los de "if else") y tú, que debe ser la primera vez… » ver todo el comentario