#16 ¡Hola! Realmente cuando puse lo de la lucidez pensaba más en un estado mental saludable. Muchas veces estas organizaciones se escudan en que la persona ha caído en una depresión por su situación, y que por eso desea morir, pero que tratando la depresión, se le quitaría la idea. Y gracias a eso dilatan el proceso eternamente. Por eso, ahora que no tengo ninguna enfermedad o similar, ya quiero manifestar mi modo de ver las cosas.
Lo de la pregunta de la irrevocabilidad me parece muy interesante. Obviamente estas decisiones siempre han de ser revocables, pero debe ser muy duro ver que una persona ha cambiado de idea porque "ya no queda nada de ella". En esa situación, entiendo que lo más ético es no aplicar el proceso, no sólo por la persona, sino porque podría ser destructivo moralmente para quienes lo aplicasen. El tener siempre la duda de si están haciendo lo que deben al respetar el deseo inicial, o hay que basarse en la forma de ser actual de la persona.
#4 Si, curiosamente, si ha dicho algo sobre el cancer
Rosalía, visitó en 2024 a niños con cáncer en el Hospital Sant Joan de Déu de Barcelona, mostrando su apoyo a los pacientes pediátricos.
La visita fue compartida en las redes sociales del hospital, destacando la importancia de este tipo de acciones para levantar el ánimo de los niños y sus familias.
#6 Pero qué disparate, anda haz algo de valor.... vete y diles a tus amigos sionistas que son unos pedazos de mierda nazis , y que siempre les persiguen sus crímenes, cambiarán la estrella por un ñordo bien gordo.
Cuanto periódicos de tirada nacional y larga trayectoria hacen estos reportajes es que efectivamente estamos ante un crimen grave. En este caso contra la humanidad. Esperemos que Netanyahu sea juzgado igual que lo fueron otros genocidas. Si no es en un Tribunal, que lo haga la historia. Como pasó con Hitler, Stalin o Pol Pot.
#36 Un problema mismo de la mente humana, son los prejuicios a los que estamos constantemente sometidos y hasta muchas veces impuesto.
Eso nos convierte muchas veces en nada "confiables" a la hora de desarrollar temas, analizar aspectos de toda índole o descubrir cosas nuevas.
Creo que el uso correcto de la IA (las que tenemos a mano actualmente) está precisamente basado en esa eliminación total o parcial (a ser posible total) de esos prejuicios. Ya que considero que el objetivo de los resultados de la IA, está orientado a la evaluación humana, y si el humano que recibe tales resultados, no es capaz de evaluar y revisar correctamente esos resultados, de poco habrá servido el "output" de esa IA.
Son una avance bastante bueno (más que bueno diría yo, punto de inflexión en muchos aspectos del desarrollo del conocimiento humano) lo de la IA.
Sí, es desarrollo computacional como afirma #23 y obviamente mejora en los modelos. Eso hace que se reduzca en mucho la diferencia de pensar de un cerebro humano y estos modelos de IA.
#149, por eso prefiero centrarme en lo que sí se puede validar que son los benchmarks de evaluación en los cuales la IA desempeña cada vez mejor. Discutir sobre lo otro es irrelevante para lo que nos atañe respecto la IA que es el poder sustituir el cerebro biológico en cuanto a resolución de problemas. Lo demás, lo dejamos para que los filósofos pasen la tarde.
#163 No es irrelevante, sólo hay que entender que no es lo mismo y no puedes obtener una conclusión tajante aunque sí un consenso científico, que es en lo que se basa la ciencia cognitiva para ir avanzando, y se ha avanzado mucho.
Con la IA sí puedes hacer análisis objetivos y compararlo con otras IAs, pero no con un cerebro humano principalmente porque no sabemos ni cómo compararlo a nivel computacional.
Lo que mencionas es un tema también muy interesante, cuando la IA pueda tener capacidad ejecutiva en el entorno público, cómo asegurar que la decisión es independiente y verificable y no se vuelva un monstruo tirano, con soluciones basadas en ZK-proofs y blockchain. Jordan McKinney de EigenLayer ha avanzado mucho este tema que ahora está que arde, muy en la frontera del conocimiento en campos muy diferentes y juntando a muchos profesionales.
#2 Entraba a poner exactamente eso: hay que empezar a ignorar bastante todo lo que venga de EEUU. Por predecible, por aburrido y por irrelevante.
La estrategia para lidiar con ese país es, desde hace décadas, decir "sí, por supuesto, jefe, qué gran idea" y luego pasar de ellos y no hacer nada de lo que te hayan pedido.
#100, si no se puede probar estamos y nos perdemos en divagaciones indemostrables estamos perdiendo el tiempo con discusiones metafísicas. Porque para la gente que dice que no razonan, no hay absolutamente nada que vaya a convencerlos jamás de que lo hacen.
No es que digan, el día que pueda contestar correctamente a tal pregunta, aceptaré que razonan. Es simple cerrazón dogmática que en esencia es antropocentrismo mal entendido. Y esto es lo contrario a la ciencia.
Aún aceptando que hay cuestiones sobre la conciencia que todavía quedan lejos de poder ser abordadas por el empirismo, aquí no estamos debatiendo nada de esto. Esta gente está mezclando temas constantemente, ya que la inteligencia y la capacidad de razonamiento son sencillamente la capacidad de resolver problemas y eso las IAs actuales lo hacen.
La humanidad tiene que prepararse para que eventualmente tengamos una IA capaz de resolver cualquier problema intelectual mejor que cualquier humanl y esta gente lo que hace es desviar un debate que deberíamos tener sobre los límites de la IA, el problema del alineamiento o qué hacer con el mundo del trabajo. Me parece muy lamentable que hagan esto.
#107, no se trata de que la IA pueda resolver algunos problemas, se trata de que sin la menor duda, la IA va a resolver cualquier problema mejor que cualquier ser humano en un horizonte que no va más allá de 20 años. Y vuestra postura entorpece el debate que debería tener la sociedad sobre los peligros de la IA y su impacto en el mundo fel trabajo. Como en la película "no mires arriba".
#31, lo único que acabas de demostrar es que manejas el lenguaje matemático como el culo y te quedas tan ancho. 55 y 5 no son el mismo número. ChatGPT ha respuesto perfectamente a una supuesta adivinanza hecha con el culo, tal y como te ha contestado #33.
A lo sumo le tendrías que haber preguntado por la misma cifra, cosa que chatGPT responde correctamente.
#76 ese comentario es demasiado generico, creo, al igual que la semantica de "razonar". Para mi, razonar implica capacidad de aplicar la logica a un nivel basico (almenos). Si la IA ha observado que en un 90% de las veces que tiene el concepto "lluvia", aparece asociado a "paraguas", y tu le preguntas "si llueve necesito un..." y responde "paraguas", como es esto distinto del razonamiento que te podria hacer un niño, o según que adultos?
#20, esto que haces es acientífico. Por definición, en ciencia, cuando propones una hipótesis, en este caso es que las IAs no razonan, debes se poder demostrarla con un experimento que se pueda probar o falsar, inventar cosas al tuntún y en función de si las IAs la van superando inventarse otra a ver si no la supera para seguir diciendo que no razonan es profundamente acientífico y mucho más propio de un creyente religioso.
Lo más divertido de todo esto es que a medida que vais moviendo la portería para intentar demostrar que las IAs no razonan, os vais quedando con menos terreno de juego en el que jugar.
En muy poco tiempo llegará un momento en que la IA pueda hacer cualquier cosa que puede hacer un ser humano a nivel intelectual y seguirás diciendo que no razona porque el resultado se puede trazar a partir de una serie de operaciones matemáticas. Como si esto demostrara algo.
Spoiler: la inspiración divina, el sentido común o la intuición son comodines que nos hemos inventado los humanos para explicar de forma sencilla el porqué nuestros cerebros funcionan como lo hacen, debido a que el número de procesos que se producen dentro escala de forma inabarcable para nuestra limitada mente, pero eso no significa que en última instancia no se puedan modelar a partir de operaciones matemáticas. La única forma que tenemos de comparar una IA con un cerebro biológico es a partir de benchmarks y en estos la IA se parece cada vez más cuando no lo supera.
#41 Wittgenstein no diferenciaba demasiado bien entre el uso de las palabras en un idioma y su significado. Si bien es cierto que es este uso el que proporciona el significado, hay un nivel superior (más genérico) donde el significado existe independientemente del lenguaje, que es a lo que llamamos un concepto. Un concepto es algo bastante más genérico que una "proposición elemental" de las de Wittgenstein.
La única salida del parón al que están ahora mismo sometidas las LLM es incorporar los conceptos para poder usar la lóigica simbólica sobre ellos. De momento de eso nada. Se entiende que es un problema nada obvio. Los de Meta están intentando procesar a nivel de frase, en vez de a nivel de token, para ver si eso sirve de algo. De momento todo teórico y de resultado dsdesconocido, pero al menos es un intento.
Sobre como meter una ontología dentro de un LLM, nadie tiene ni idea (, y yo tampoco). La diferencia de estructuras es demasiado grande.
Creo que tenemos para largo de ver inventos como el de esta notícia. O sea, ir probando cosas. Porque ahora mismo los LLM son inusables.
Lo de la pregunta de la irrevocabilidad me parece muy interesante. Obviamente estas decisiones siempre han de ser revocables, pero debe ser muy duro ver que una persona ha cambiado de idea porque "ya no queda nada de ella". En esa situación, entiendo que lo más ético es no aplicar el proceso, no sólo por la persona, sino porque podría ser destructivo moralmente para quienes lo aplicasen. El tener siempre la duda de si están haciendo lo que deben al respetar el deseo inicial, o hay que basarse en la forma de ser actual de la persona.
Rosalía, visitó en 2024 a niños con cáncer en el Hospital Sant Joan de Déu de Barcelona, mostrando su apoyo a los pacientes pediátricos.
La visita fue compartida en las redes sociales del hospital, destacando la importancia de este tipo de acciones para levantar el ánimo de los niños y sus familias.
La cantante Rosalía visita a los pequeños pacientes del Hospital Sant Joan de Déu
www.abc.es/salud/cantante-rosalia-visita-pequenos-pacientes-hospital-s
El silencio es complicidad
Por ignorancia también se muere.
Eso nos convierte muchas veces en nada "confiables" a la hora de desarrollar temas, analizar aspectos de toda índole o descubrir cosas nuevas.
Creo que el uso correcto de la IA (las que tenemos a mano actualmente) está precisamente basado en esa eliminación total o parcial (a ser posible total) de esos prejuicios. Ya que considero que el objetivo de los resultados de la IA, está orientado a la evaluación humana, y si el humano que recibe tales resultados, no es capaz de evaluar y revisar correctamente esos resultados, de poco habrá servido el "output" de esa IA.
Son una avance bastante bueno (más que bueno diría yo, punto de inflexión en muchos aspectos del desarrollo del conocimiento humano) lo de la IA.
Sí, es desarrollo computacional como afirma #23 y obviamente mejora en los modelos. Eso hace que se reduzca en mucho la diferencia de pensar de un cerebro humano y estos modelos de IA.
Con la IA sí puedes hacer análisis objetivos y compararlo con otras IAs, pero no con un cerebro humano principalmente porque no sabemos ni cómo compararlo a nivel computacional.
Lo que mencionas es un tema también muy interesante, cuando la IA pueda tener capacidad ejecutiva en el entorno público, cómo asegurar que la decisión es independiente y verificable y no se vuelva un monstruo tirano, con soluciones basadas en ZK-proofs y blockchain. Jordan McKinney de EigenLayer ha avanzado mucho este tema que ahora está que arde, muy en la frontera del conocimiento en campos muy diferentes y juntando a muchos profesionales.
Así que... Contigo no, inútil...
La estrategia para lidiar con ese país es, desde hace décadas, decir "sí, por supuesto, jefe, qué gran idea" y luego pasar de ellos y no hacer nada de lo que te hayan pedido.
No es que digan, el día que pueda contestar correctamente a tal pregunta, aceptaré que razonan. Es simple cerrazón dogmática que en esencia es antropocentrismo mal entendido. Y esto es lo contrario a la ciencia.
Aún aceptando que hay cuestiones sobre la conciencia que todavía quedan lejos de poder ser abordadas por el empirismo, aquí no estamos debatiendo nada de esto. Esta gente está mezclando temas constantemente, ya que la inteligencia y la capacidad de razonamiento son sencillamente la capacidad de resolver problemas y eso las IAs actuales lo hacen.
La humanidad tiene que prepararse para que eventualmente tengamos una IA capaz de resolver cualquier problema intelectual mejor que cualquier humanl y esta gente lo que hace es desviar un debate que deberíamos tener sobre los límites de la IA, el problema del alineamiento o qué hacer con el mundo del trabajo. Me parece muy lamentable que hagan esto.
A lo sumo le tendrías que haber preguntado por la misma cifra, cosa que chatGPT responde correctamente.
chatgpt.com/share/68872525-b670-8001-88cd-eea6ba2b1586
Muy patético, la verdad.
Lo más divertido de todo esto es que a medida que vais moviendo la portería para intentar demostrar que las IAs no razonan, os vais quedando con menos terreno de juego en el que jugar.
En muy poco tiempo llegará un momento en que la IA pueda hacer cualquier cosa que puede hacer un ser humano a nivel intelectual y seguirás diciendo que no razona porque el resultado se puede trazar a partir de una serie de operaciones matemáticas. Como si esto demostrara algo.
Spoiler: la inspiración divina, el sentido común o la intuición son comodines que nos hemos inventado los humanos para explicar de forma sencilla el porqué nuestros cerebros funcionan como lo hacen, debido a que el número de procesos que se producen dentro escala de forma inabarcable para nuestra limitada mente, pero eso no significa que en última instancia no se puedan modelar a partir de operaciones matemáticas. La única forma que tenemos de comparar una IA con un cerebro biológico es a partir de benchmarks y en estos la IA se parece cada vez más cuando no lo supera.
Cc/ #12, #7
La única salida del parón al que están ahora mismo sometidas las LLM es incorporar los conceptos para poder usar la lóigica simbólica sobre ellos. De momento de eso nada. Se entiende que es un problema nada obvio. Los de Meta están intentando procesar a nivel de frase, en vez de a nivel de token, para ver si eso sirve de algo. De momento todo teórico y de resultado dsdesconocido, pero al menos es un intento.
Sobre como meter una ontología dentro de un LLM, nadie tiene ni idea (, y yo tampoco). La diferencia de estructuras es demasiado grande.
Creo que tenemos para largo de ver inventos como el de esta notícia. O sea, ir probando cosas. Porque ahora mismo los LLM son inusables.