Tecnología, Internet y juegos
67 meneos
338 clics
Nueva arquitectura de IA ofrece un razonamiento de 100 veces más rápido que los LLMs con solo 1.000 ejemplos de entrenamiento (ING)

Nueva arquitectura de IA ofrece un razonamiento de 100 veces más rápido que los LLMs con solo 1.000 ejemplos de entrenamiento (ING)

La startup singapurense Sapient Intelligence ha creado el Modelo de Razonamiento Jerárquico (HRM), una IA que supera a los grandes modelos de lenguaje (LLM) en tareas complejas de razonamiento. Inspirado en el cerebro humano, el HRM es más pequeño, eficiente en datos y consume menos recursos. A diferencia de los LLM que usan el método "cadena de pensamiento" (CoT), el HRM razona internamente ("razonamiento latente"), lo que lo hace más rápido y preciso, incluso con datos limitados. Esto permite resolver problemas antes intratables para los LLM.

| etiquetas: ia , razonamiento , rápido , llm , ejemplo , entrenamiento
43 24 0 K 331
43 24 0 K 331
Razonar con menos datos. Nos acercamos al modelo “cuñado total”.
#3

Se nota que han enredado poco con la IA actual y sus alucinaciones. xD

Lo han mejorado y no canta tanto ... pero vamos, he visto a la IA dejar a algunos cuñados como fuentes fiables.
#4 Muchas veces después de decirte algo convencido, le dices ¿Estás seguro? Y te pide disculpas y te dice que es de otra manera, a veces incluso le he vacilado diciendo que era de manera A, me dice que tengo razón, le digo que me he equivocado yo y es de la manera B, me dice que tengo razón y así todo el rato que quiera. Le falta calle.
#24 xD xD xD he hecho lo mismo alguna vez :troll:
#3 Modelo cuñIAdo
#3 pero ese es el modo gratuito. Pagando la suscripción básica pasaría a modo Primo de Rajoy, y así hasta un Chomsky, Feynman…
#3 Usaron Menéame como fuente de aprendizaje xD
#29 "Humanidad al ignore. Son todos unos trolls". Y entonces... #2 :palm:
#3 La han llamado OX. Cuando la perfeccionen y deje de razonar del todo no se como la pueden llamar...¿Tal vez alguna V de victoria quedaria bien? :-O :troll:
Titular erróneo.

Ninguna ia razona. Recomiendo leer sobre la entropía de Shannon para tener una idea cercana de por dónde va.

No obstante, si un modelo de lenguaje precisa de menos fuerza bruta para dar resultados aceptables, bienvenido sea.

Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo, sin consultar fuentes adicionales.

Una ia no puede determinar que algo no tiene sentido o es ilógico.

Muchas ias usan fact checking como una capa adicional antes de responder al usuario. Lo cual es un coste enorme.
#5 #13 decir que las IAs no razonan es un poco atrevido. Decir que los LLM no lo hacen es más acertado, y estos son solo un tipo de IA.
#15 No, lo atrevido es decir que sí razonan, cuando lo que hacen es dar respuestas en función de la probabilidad.
#19 Generar texto según la probabilidad de la siguiente palabra. Eso sí, teniendo en cuenta miles de palabras para calcular esa probabilidad.

Le pregunté el otro día a @sorrillo cual es el bucle básico de un LLM, y NO LO SABE
#15 que tipos de IA existentes razonan ?
#13 Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo

Tienes humanos que creen en el cambio climático antropogénico y humanos que lo niegan, humanos que son ateos y humanos que creen en una religión y otros en otra que dice que la anterior es falsa. ¿Esos humanos no razonan?

, sin consultar fuentes adicionales.

Hay fuentes adicionales con todo tipo de contenido, tanto acertado como erróneo. La Biblia es una fuente…   » ver todo el comentario
#18 La gran mayoría de humanos no razonan. Es posible vivir así. Cuando comparamos a la IA con un humano nos referimos a un humano que razona, claro está.
#13 #18

Creo que la palabra operativa es "creer". Hay humanos que "creen" en que habia que meterse una dosis de la vacuna del COVID cada 6 meses. Por que? Pues porque tenian algo que ellos/as pensaba que era 'evidencia" (opiniones de "expertos").
IAs diseñando IAs:
- Hija, te acabo de crear, te llamaré...
- Me la suda el nombre que pienses, me llamo Skynet, y los humanos se van a cargar
#6 Me da igual que lo diga Apple, Microsoft, Intel o Rita la Cantaora. No razonan, "solamente" hacen cálculos estadísticos y te devuelven la respuesta en base a la probabilidad de que sea "la adecuada", "cierta".
#7 Demuestra que el ser humano razona de forma distinta.
#8 Deberían dar la opción de votar "cansino" también a los comentarios, mira que te repites con el mismo pseudo argumento.

Ya te he contestado en otras ocasiones ¿es que me repites lo mismo para que tenga sentido tu pseudo argumento de que los humanos no razonan poniéndote de ejemplo?
#10 Yo, es que ya paso. Es una tontería.
#8 simple dile que te dibuje un gato usando emojis... Hasta un niño de prescolar sabe hacerlo y la IA puede gastar litros y litros de agua que no va a hacerlo bien, ya no hablemos de pedirle dibujar sin salirse nunca del borde...
#11 ¿En cuanto hagan lo que dices les reconocerás razonamiento o moverás de nuevo la portería?
#12 hacer eso no es razonamiento es seguir una pauta siendo capaz de corregir el curso según se ejecuta, lo que te puse es un ejemplo muy básico

Un loro para ti es inteligente
#20 hacer eso no es razonamiento

Vamos, que lo que has dicho no tiene nada que ver con lo que se estaba tratando. Lo haga o no lo haga no demuestra nada.
#8 ¿Qué es razonar?
#16 Exacto.
#5 #6 #7 #16

Pues en los 90 teniamos una cosa que se llamaba "Sistemas Expertos". Uno de los sistemas que tuve que usar era basicamente un sistema automatico de silogismos: popnias una serie de 'hechos" (que relacionanban de forma logica elementos) y el sistema lo que hacia era seguir las implicaciones logicas (que tu habrias introducido) entre las entidades y dar un resultado.

La gracia era que era capaz de desentraniar las relaciones logicas entre las 100-200 entidades que metias y los 500-1000 sentencias que las relacionaban.
#8 Ya Chomsky mucho antes de los LLMs explicó por qué es muy distinto. No somos máquinas de hacer estadística y juntar palabras; hay miles de papers al respecto. De hecho su gramática se llama 'generativa' por el proceso de generación opuesto a modelos de frecuencia observada, y a día de hoy es la teoría más aceptada en ciencia cognitiva. Te dejo algo más reciente que habla del tema:

www.researchgate.net/publication/385920820_On_the_goals_of_linguistic_
En lugar de la generación de cadenas de pensamiento en serie, token-a-token, el HRM procesa en paralelo copiando el funcionamiento del cerebro humano o_o
No es una nueva arquitectura. Es la misma de cualquier otro LLM.

No se han inspirado en el cerebro. Eso es marketing. No se sabe cómo lo hace el cerebro.

Subjetivamente parece que sí, que hay algo de eso en el pensamiento humano, pero sabemos que es una ilusión.

Es cierto que el CoT no es un reflejo de las decisiones que un LLM toma. Es una salida más.

Lo que han hecho es poner un LLM a vigilar a otro y se reparten las tareas. Son LLMs como todos. Trabajan con texto y ya está.…   » ver todo el comentario

menéame