#41, qué es entender? Yo creo que la búsqueda del mínimo error en la función de recompensa es la forma en la que una IA está entendiendo si la solución al problema que trata de resolver es la correcta o no. Creo que en este debate la gente se pierde en vaguedades metafísicas, sin concretar nada y esto no es una aproximación científica al problema. ¿Cómo lo harías tú para plantear un experimento que determine si un IA está entendiendo o no? Me refiero a plantear un experimento replicable y falsable.
#17, tienes razón, ambos partidos son una puta mierda, pero los votantes son distintos. A los del PP se la suda tres cojones, que roben, que espíen a rivales políticos o que definan protocolos de actuación que provocan la muerte de miles de ancianos. Otra cosa que los diferencia es con quien están forzados a hacer pactos y el PSOE y los del PSOE son bastante más decentes.
#37, te acuerdas de cómo eran los ordenadores hace 40 años? Te acuerdas de cómo eran los LLM de hace 2 años? De verdad que calificar de plano una vendida de humo decir que llegará un día en que las IAs puedan hacerlo todo, no solo me parece plausible sino que me parece lo más probable con diferencia. Lo que pasa es que la mayoría de la gente sobreestima sus capacidades.
#17, pero por qué hablas de sueños? Ya te he dicho que inteligencia es la capacidad de resolver problemas, la definición no especifica en ningún momento, si el entrenamiento se ha hecho leyendo libros o parseando ficheros de texto, tampoco tiene porqué ser un proceso consciente, es solo resolver problemas, por eso se llama inteligencia artificial y no consciencia artificial, lo mezclas porque desde tu subjetividad no te puedes abstraer de que son cosas distintas. Nosotros experimentamos cualias conscientes a la vez que razonamos, pero no es la única forma de resolver problemas.
#15, si un estudiante de selectividad resuelve un problema del examen dirás que ha resuelto el problema sin plantearte que está aplicando los conocimientos que ha aprendido durante el curso paso a paso, si lo hace una IA no. Esto es definir de forma asimétrica y dinámica el concepto de inteligencia para que solo quepa lo que pueden hacer los humanos, esta no es una aproximación racional y científica al problema.
#13, ah, que hemos cambiado la definción de inteligencia y ahora ya no es resolver problemas, sino inventar cosas. Bueno, entonces me da que el 99.99% de la humanidad no es inteligente.
#11, claro que es un problema nuevo si cambias los datos de entrada y el enunciado. Tú hablas de generar nuevo conocimiento fuera del dataset de entrenamiento, esto lo hace AlphaFold prediciendo la estructura de nuevas proteínas y AlphaEvolve diseñando algoritmos que multiplican matrices en menos pasos.
#6, el examen de selectividad de la semana pasada, que por razones obvias no estaba en su dataset de entrenamiento. Obviamente, están aplicando el conocimiento que han adquirido previamente a un nuevo problema igual que un estudiante de selectividad aplica los conocimientos que ha estudiado.
#21, no, lo que significa es que Israel está arrasando, nadie duda de esto, aplica la misma lógica en Ucrania, la diferencia es que en Palestina la mayoría de víctimas son civiles.
Es curioso que en una guerra en la que han muerto cien mil trillones de rusos por cada ucraniano muerto según nuestros medios, el intercambio de cuerpos sea 27 rusos por 1200 ucranianos.
#41, creo que tienes muchos conceptos mezclados en la cabeza.
En primer lugar, razonar no implica intencionalidad en ningún momento, sino simplemente ser capaz de resolver un problema dado.
En segundo lugar, lo que comentas sobre la red neuronal que entrenaste y que dices que falló con un pequeño cambio en la imagen te diré que no veo el problema por ningún lugar, ni que esto demuestre que no razonen. Me explico, tu decepción se debe a que lo haces por analogía a lo que esperarías que respondiese un humano entrenado para realizar la misma tarea y de allí deduces que mientras el humano es capaz de generalizar a un nivel superior, tu IA era incapaz de tolerar un pequeño cambio en las imágenes de entrada. El problema es que comparas equivocadamente el haber entrenado una red neuronal artificial con un dataset de imagenes específico, con haberle explicado a un ser humano como resolver el problema. Pero esto es no entender realmente que el cerebro humano, lleva de base un entrenamiento previo de todas las experiencias vitales que ha vivido el individuo hasta este momento, más la configuración por defecto de nuestro cerebro fruto de millones de años de evolución, esto hace que haya un proceso de transferencia del conocimiento en el humano, que no existe en una pequeña red neuronal que lo único que ha visto en su vida es un pequeño dataset de imágenes. Si tuvieses una red pre-entrenada con miles de millones de datos previos, explicándole el problema podría resolverlo igual que un humano, esto sería la comparación más justa con el desempeño de un ser humano.
#39, cuando dices que cualquiera que no opine exactamente como tú sobre el tema es un ignorante, creo que poner como ejemplo lo que pensa alguien como Hinton, aplica bastante. Fíjate que ni siquiera crítico tú punto de vista, lo que me parece criticable es tu forma de defenderlo. Y hay decenas de charlas, entrevistas y artículos en las que Hinton justifica su punto de vista.
#25, que no razona es algo completamente evidente para cualquiera que haya leído tres o cuatro líneas de cómo funciona a nivel básico.
Acto seguido Geoffrey Hinton, padre de los algoritmos con los que se entrenan las redes neuronales, premio Nobel, uno de los mayores expertos en IA del planeta y una de las mentes más brillantes de nuestro tiempo.
- Sabe la humanidad lo que está haciendo?
- No, creo que nos adentramos en un período en el que por primera vez habrá una cosa más inteligente que nosotros.
- Opinas que pueden entender?
Sí.
- Opinas que la IAs son inteligentes?
Sí.
#35, te dejo con lo que opina el Premio Nobel de este año sobre las IAs, aunque como todo lo que he dicho, ya se que no te hará ni reflexionar un poquito.
#33, gracias por tomarte la molestia de poner los resultados que confirman lo que estoy tratando de decirte todo el rato: no razonan de la misma manera que los humanos
#31, no, el ejemplo que te puse de AlphaFold es buena prueba de ello. Nadie ha podido comprobar si los cientos de miles de proteínas que ha predecido AlphFold son o no correctas, básicamente porque el predecir la forma de una proteína es un laborioso proceso que puede tardar meses, se asume que las soluciones que da son correctas porque se ha utilizado un conjunto de test limitado para evaluar si funciona bien o no. Osea, podemos afirmar con toda rotundidad que AlphaFold genera conocimiento.