La startup singapurense Sapient Intelligence ha creado el Modelo de Razonamiento Jerárquico (HRM), una IA que supera a los grandes modelos de lenguaje (LLM) en tareas complejas de razonamiento. Inspirado en el cerebro humano, el HRM es más pequeño, eficiente en datos y consume menos recursos. A diferencia de los LLM que usan el método "cadena de pensamiento" (CoT), el HRM razona internamente ("razonamiento latente"), lo que lo hace más rápido y preciso, incluso con datos limitados. Esto permite resolver problemas antes intratables para los LLM.
|
etiquetas: ia , razonamiento , rápido , llm , ejemplo , entrenamiento
Se nota que han enredado poco con la IA actual y sus alucinaciones.
Lo han mejorado y no canta tanto ... pero vamos, he visto a la IA dejar a algunos cuñados como fuentes fiables.
La cámara de eco definitiva en la que estás tu solo.
Pues en los 90 teniamos una cosa que se llamaba "Sistemas Expertos". Uno de los sistemas que tuve que usar era basicamente un sistema automatico de silogismos: popnias una serie de 'hechos" (que relacionanban de forma logica elementos) y el sistema lo que hacia era seguir las implicaciones logicas (que tu habrias introducido) entre las entidades y dar un resultado.
La gracia era que era capaz de desentraniar las relaciones logicas entre las 100-200 entidades que metias y los 500-1000 sentencias que las relacionaban.
Ninguna ia razona. Recomiendo leer sobre la entropía de Shannon para tener una idea cercana de por dónde va.
No obstante, si un modelo de lenguaje precisa de menos fuerza bruta para dar resultados aceptables, bienvenido sea.
Un humano analiza la información y es capaz de detectar incongruencias deduciendo o experimentando por sí mismo, sin consultar fuentes adicionales.
Una ia no puede determinar que algo no tiene sentido o es ilógico.
Muchas ias usan fact checking como una capa adicional antes de responder al usuario. Lo cual es un coste enorme.
Le pregunté el otro día a @sorrillo cual es el bucle básico de un LLM, y NO LO SABE
Lo que pasa es que como ahora "acierta mucho" entonces es que razona y a los fallos le ponemos el nombre molón de alucinación.
1) Sin razonar ni entender lo que te ha dicho #_15
2) Soltando la primera gilipollez que has considerado más probable que encaje en el resto de las cuñadeces que has soltado.
Negativo y para casa, Cleverbot.
quillbot.com/es/blog/logica-y-argumentacion/razonamiento-inductivo/
Tienes humanos que creen en el cambio climático antropogénico y humanos que lo niegan, humanos que son ateos y humanos que creen en una religión y otros en otra que dice que la anterior es falsa. ¿Esos humanos no razonan?
, sin consultar fuentes adicionales.
Hay fuentes adicionales con todo tipo de contenido, tanto acertado como erróneo. La Biblia es una fuente… » ver todo el comentario
Creo que la palabra operativa es "creer". Hay humanos que "creen" en que habia que meterse una dosis de la vacuna del COVID cada 6 meses. Por que? Pues porque tenian algo que ellos/as pensaba que era 'evidencia" (opiniones de "expertos").
La teoría de los antivacunas.
Negativo por cuñao y ser incapaz de razonar la cuñadez antes de escribirla.
Si tuvieras capacidad de determinar si algo tiene sentido o si es ilógico no habrías soltado la cuñadez de turno.
Si necesitas una tirita avisa.
Ya te he contestado en otras ocasiones ¿es que me repites lo mismo para que tenga sentido tu pseudo argumento de que los humanos no razonan poniéndote de ejemplo?
Pero es que es "mu cansino de dios"
Un loro para ti es inteligente
Vamos, que lo que has dicho no tiene nada que ver con lo que se estaba tratando. Lo haga o no lo haga no demuestra nada.
Cleverbot es más inteligente que tú.
cc #12
Lo más divertido de todo esto es que a medida que vais moviendo la… » ver todo el comentario
Dar una respuesta basada en la estadística de que sea la respuesta correcta no es razonar. Y en todo caso es el que hace la IA, o tú, quien tiene que demostrar que sí razona.
Y ya, hasta aquí, que eres muy pesado, pero que muy pesado, para no decir nada.
Que lo haya puesto más o menos veces no cambia que lo que dice sea correcto. No estás razonando ni diciendo nada.
"Dar una respuesta basada en la estadística de que sea la respuesta correcta no es razonar"
Señalar lo que tú crees que es hace algo para a continuación hacer una afirmación categórica no es razonar. Sigues sin decir nada.… » ver todo el comentario
Por lo demás, tu no tan fina capacidad para insulto no significa que razones.
Luego introduces una falacia lógica, que es lo contrario a razonar.
Finalmente repites lo mismo que yo.
Seguiremos esperando un razonamiento.
Negativo por chorrada.
El niño de preescolar también tiene pre-entrenamiento.
www.researchgate.net/publication/385920820_On_the_goals_of_linguistic_
Hasta el modelo más tonto de LLM responde a la pregunta mil veces mejor que tú.
Menos mal que los humanos "razonan"
Ya solo quedáis para soltar cuñadeces en Menéame mientras la gente seguirá consultándole a la IA. Eso sí, aquí podéis quedaros con el orgullo intacto. O no.
cc #8
No has demostrado lo que se te pide.
Las IA ni huelen eso, ni creo que lo vayan a hacer nunca.
- Hija, te acabo de crear, te llamaré...
- Me la suda el nombre que pienses, me llamo Skynet, y los humanos se van a cargar
El niño más bien sabrá que necesita un paraguas para no mojarse, pero también podrá saber que si tiene unas botas de agua y un buen impermeable entonces no, pero que si el impermeable está roto entonces sí, o que puede llevar el paraguas igualmente para acompañar a otra persona que no.
Pero vamos, que es fácil demostrar que no razonan: mientras tengan las llamadas "alucinaciones", que es el eufemismo de "tremenda respuesta absurda con fallos gordos" es que no razonan.
Lo mismo que haces tú en esa situación.
"El niño más bien sabrá que necesita un paraguas para no mojarse, pero también podrá saber que si tiene unas botas de agua y un buen impermeable entonces no, pero que si el impermeable está roto entonces sí, o que puede llevar el paraguas igualmente para acompañar a otra persona que no."
Hasta el LLM más… » ver todo el comentario
Porque aún no has sido capaz.
No se han inspirado en el cerebro. Eso es marketing. No se sabe cómo lo hace el cerebro.
Subjetivamente parece que sí, que hay algo de eso en el pensamiento humano, pero sabemos que es una ilusión.
Es cierto que el CoT no es un reflejo de las decisiones que un LLM toma. Es una salida más.
Lo que han hecho es poner un LLM a vigilar a otro y se reparten las tareas. Son LLMs como todos. Trabajan con texto y ya está.… » ver todo el comentario
La única salida del parón al que están ahora mismo sometidas las LLM es… » ver todo el comentario
Pasa lo mismo con los razonamientos de cuñaders tipo #64
Suelta contradicciones y cuñadeces en todos sus comentarios y tardas menos preguntándole a cualquier IA que perder el tiempo leyendo sus comentarios.
Y a ver si ya de paso encuentras la contradicción y la parte de realidad y de religión en la siguiente frase:
"Si bien es cierto que es este uso el que proporciona el significado, hay un nivel superior (más genérico) donde el significado existe independientemente del lenguaje"
El uso "proporciona"… » ver todo el comentario
El uso de las palabras es su significado. No confundir "no estoy de acuerdo con Wittgenstein" con hacer una afirmación categórica pasándola por la realidad.
"Los de Meta están intentando procesar a nivel de frase, en vez de a nivel de token, para ver si eso sirve de algo"
Precisamente para Wittgenstein eso sería utilizar la semántica como… » ver todo el comentario
"No se sabe cómo lo hace el cerebro."
(un dorito después)
"Subjetivamente parece que sí, que hay algo de eso en el pensamiento humano, pero sabemos que es una ilusión"
(tres doritos después)
"esto de poner un nivel a vigilar a otro es una parte de como funciona la consciencia humana, pero tranquis que nadie va a generar nunca consciencia a base de texto"
No hay más preguntas, señoría.
cc @sorrillo
Creo que ChatGPT 2.0 razonaba mejor que tú.
Y se contradecía menos.
Respecto de las congradicciones, no has señalado ni una sola. Es el equivalente a llamarme feo porque sí.
Es que es ridículo. Te pongo en el ignore por puro cansancio.
Das respuestas contradictorias, no ya entre distintas respuestas, sino entre cada frase y de forma cada vez más evidente. Cuando se te señala, haces gala de un síndrome de superioridad que, por sus características, proviene de un síndrome de inferioridad.
Respecto a las contradicciones, te las he señalado una detrás de otra, señalándolas explícitamente. Pregúntale a cualquier LLM de Aliexpress que lo pilla mejor que tú.
Lo dicho, hasta con Cleverbot se tienen conversaciones más inteligentes.
No mento a los LLM porque cualquiera te supera en entendimiento.
De hecho es más inteligente que mucha gente que conozco.