s

#85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.

Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.

S

#93 Simplemente es mi forma de decirte que efectivamente es una opinión, sí, llego a una afirmación, pero no me olvido de que no es más que una opinión. Así como recordatorio de que lo que has comentado tu es solo eso, una opinión. Es más bien un tema de humildad. Te lo has tomado bastante mal, y todo para no decir nada...

En el segundo párrafo llegas a una conclusión gratuita, ahora pareces una IA que no sabe razonar. ¿He dicho yo que demuestra que sabe razonar? Estás teniendo alucionaciones como tendría una IA y has demostrado que no sabes razonar.

Y sí, noto cierta acritud, puedes intentar plantear más tus argumentos, antes que convertirlo en un ataque personal.

s

#113 Creo que has sido tú el que ha visto un ataque donde no lo había. He utilizado el término de loro precisamente por la definición de loro estocástico que dan ciertos científicos al funcionamiento de chatgpt. En ningún momento estaba haciendo un ataque personal. Pero la cuestión de fondo es la misma: si un modelo entrenado tratando de predecir la palabra siguiente es capaz de pasar un test de razonamiento desde el punto de vista filosófico, es que el test no es tan complejo como podría parecer. De la misma forma que para nosotros el ajedrez es un juego extremadamente complejo, pero para una máquina es bastante simple, al ser un espacio altamente acotado y con reglas simples.

S

#114 No sé, si tienes que utilizar la coletilla "sin acritud", por algo será. No sigo más en el tema porque creo que igual está casi todo dicho.

s

#75 Te digo lo mismo que a #80: No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

S

#83 En mi opinión, como dije, es una cuestión filosófica, además, hasta tu propio texto sería indicativo de que tu no razonas. Lo que dices no tiene NADA que ver con razonar. Una IA no puede experimentar con la gravedad, así como yo no tengo forma de saber si realmente las cosas flotan en gravedad "cero" o no, todo lo que sé es de oidas. ¿Por qué va a creer a unos textos más que a otros? lol

Si lee textos en los que dicen que Harry Potter tiene una varita con la que puede votar, ese texto no es más real que uno de Julio Verne en el que dispara una bala a la luna. Y ambos son relatos de ficción... Y nada de eso tiene que ver con razonar, ni con exponer un problema lógico que una persona resuelva con razonamiento y la máquina pueda reproducir ese razonamiento.

No me has contestado nada. Hasta podría decir que solo has generado texto que parece que te da la razón, pero no me contesta.

s

#85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.

Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.

S

#93 Simplemente es mi forma de decirte que efectivamente es una opinión, sí, llego a una afirmación, pero no me olvido de que no es más que una opinión. Así como recordatorio de que lo que has comentado tu es solo eso, una opinión. Es más bien un tema de humildad. Te lo has tomado bastante mal, y todo para no decir nada...

En el segundo párrafo llegas a una conclusión gratuita, ahora pareces una IA que no sabe razonar. ¿He dicho yo que demuestra que sabe razonar? Estás teniendo alucionaciones como tendría una IA y has demostrado que no sabes razonar.

Y sí, noto cierta acritud, puedes intentar plantear más tus argumentos, antes que convertirlo en un ataque personal.

s

#113 Creo que has sido tú el que ha visto un ataque donde no lo había. He utilizado el término de loro precisamente por la definición de loro estocástico que dan ciertos científicos al funcionamiento de chatgpt. En ningún momento estaba haciendo un ataque personal. Pero la cuestión de fondo es la misma: si un modelo entrenado tratando de predecir la palabra siguiente es capaz de pasar un test de razonamiento desde el punto de vista filosófico, es que el test no es tan complejo como podría parecer. De la misma forma que para nosotros el ajedrez es un juego extremadamente complejo, pero para una máquina es bastante simple, al ser un espacio altamente acotado y con reglas simples.

S

#114 No sé, si tienes que utilizar la coletilla "sin acritud", por algo será. No sigo más en el tema porque creo que igual está casi todo dicho.

MataGigantes

#83 Como te ha dicho #85 entonces el problema simplemente está en que no sabes lo que significa razonar.
Razonar no siempre tiene que ser llegar a la verdad científica, sino exponer y ordenar ideas previas para llegar a una conclusión. Por ejemplo, hace 3.000 años en algunas civilizaciones podían llegar a la conclusión razonada de que cuando había rayos y tempestades era porque su Dios estaba enfadado con ellos, su conclusión era científicamente errónea, pero por supuesto que tenían la capacidad de razonar respecto a la información que poseían.
ChatGPT claro que no tiene la capacidad de demostrar empíricamente lo que sostiene, pero si puede perfectamente razonar a partir de la información con la que se le ha proveído.

s

#99 Y sabe inferir?

s

#85 #99 Lo pasamos a la definición del libro entonces. De los tipos de racionamiento existentes, ¿cuántos domina una IA de este tipo?

- Deductivo: lo hace razonablemente bien
- Inductivo: no lo hace
- Hipotético-deductivo: no lo hace
- Transductivo: este lo hace bien

Con esto en mente, ¿podemos considerar que una IA tiene capacidad de razonamiento? Para mí no

S

#106 Ya sé que es un argumento limitado, ¿pero las personas lo hacen bien? ¿las personas razonan? Diría que el razonamiento inductivo si lo aplica. Y en alguna pregunta, al carecer de datos aplica hipótesis, o mejor dicho suposiciones, pero es que una IA no puede falsear su conocimiento. Es como que tu vivieras en una habitación oscura, y todo tu conocimiento viniera de internet. No sabes lo que es el cielo o la tierra porque nunca lo has experimentado.

s

#80 No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

s

#59 #55 tiene razón, lo que pasa es que ha visto tantos textos que la probabilidad de las palabras que llevan a la respuesta correcta es un poco mayor a otras que también serían coherentes, pero eso no lo hace inteligente, sólo lo hace 'más cuñado' en ciertos temas (va a escupir la respuesta más común que se encuentra por internet, usando sus propias palabras, eso si.

MataGigantes

#72 #73 habría que preguntar entonces que es para vosotros razonar. Para la RAE Es "Exponer razones para explicar o demostrar algo." y "Ordenar y relacionar ideas para llegar a una conclusión."
Ambas cosas las puede realizar ChatGPT 4 de forma coherente y exitosa. Por lo tanto, es innegable decir que puede razonar con éxito en bastantes ocasiones. Me da igual que sus razonamientos no funcionen internamente igual que un cerebro humano, eso es otra cuestión en la que yo no he entrado. La cosa es que tiene la capacidad para hacer perfectamente lo que define la RAE como 'Razonar'.

s

#80 No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

s

#75 Te digo lo mismo que a #80: No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

S

#83 En mi opinión, como dije, es una cuestión filosófica, además, hasta tu propio texto sería indicativo de que tu no razonas. Lo que dices no tiene NADA que ver con razonar. Una IA no puede experimentar con la gravedad, así como yo no tengo forma de saber si realmente las cosas flotan en gravedad "cero" o no, todo lo que sé es de oidas. ¿Por qué va a creer a unos textos más que a otros? lol

Si lee textos en los que dicen que Harry Potter tiene una varita con la que puede votar, ese texto no es más real que uno de Julio Verne en el que dispara una bala a la luna. Y ambos son relatos de ficción... Y nada de eso tiene que ver con razonar, ni con exponer un problema lógico que una persona resuelva con razonamiento y la máquina pueda reproducir ese razonamiento.

No me has contestado nada. Hasta podría decir que solo has generado texto que parece que te da la razón, pero no me contesta.

s

#85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.

Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.

S

#93 Simplemente es mi forma de decirte que efectivamente es una opinión, sí, llego a una afirmación, pero no me olvido de que no es más que una opinión. Así como recordatorio de que lo que has comentado tu es solo eso, una opinión. Es más bien un tema de humildad. Te lo has tomado bastante mal, y todo para no decir nada...

En el segundo párrafo llegas a una conclusión gratuita, ahora pareces una IA que no sabe razonar. ¿He dicho yo que demuestra que sabe razonar? Estás teniendo alucionaciones como tendría una IA y has demostrado que no sabes razonar.

Y sí, noto cierta acritud, puedes intentar plantear más tus argumentos, antes que convertirlo en un ataque personal.

s

#113 Creo que has sido tú el que ha visto un ataque donde no lo había. He utilizado el término de loro precisamente por la definición de loro estocástico que dan ciertos científicos al funcionamiento de chatgpt. En ningún momento estaba haciendo un ataque personal. Pero la cuestión de fondo es la misma: si un modelo entrenado tratando de predecir la palabra siguiente es capaz de pasar un test de razonamiento desde el punto de vista filosófico, es que el test no es tan complejo como podría parecer. De la misma forma que para nosotros el ajedrez es un juego extremadamente complejo, pero para una máquina es bastante simple, al ser un espacio altamente acotado y con reglas simples.

MataGigantes

#83 Como te ha dicho #85 entonces el problema simplemente está en que no sabes lo que significa razonar.
Razonar no siempre tiene que ser llegar a la verdad científica, sino exponer y ordenar ideas previas para llegar a una conclusión. Por ejemplo, hace 3.000 años en algunas civilizaciones podían llegar a la conclusión razonada de que cuando había rayos y tempestades era porque su Dios estaba enfadado con ellos, su conclusión era científicamente errónea, pero por supuesto que tenían la capacidad de razonar respecto a la información que poseían.
ChatGPT claro que no tiene la capacidad de demostrar empíricamente lo que sostiene, pero si puede perfectamente razonar a partir de la información con la que se le ha proveído.

s

#99 Y sabe inferir?

s

#85 #99 Lo pasamos a la definición del libro entonces. De los tipos de racionamiento existentes, ¿cuántos domina una IA de este tipo?

- Deductivo: lo hace razonablemente bien
- Inductivo: no lo hace
- Hipotético-deductivo: no lo hace
- Transductivo: este lo hace bien

Con esto en mente, ¿podemos considerar que una IA tiene capacidad de razonamiento? Para mí no

S

#106 Ya sé que es un argumento limitado, ¿pero las personas lo hacen bien? ¿las personas razonan? Diría que el razonamiento inductivo si lo aplica. Y en alguna pregunta, al carecer de datos aplica hipótesis, o mejor dicho suposiciones, pero es que una IA no puede falsear su conocimiento. Es como que tu vivieras en una habitación oscura, y todo tu conocimiento viniera de internet. No sabes lo que es el cielo o la tierra porque nunca lo has experimentado.

s

#36 Llevaba bajando por el documento con tristeza pensando que nadie entendía el problema, me has alegrado el día (la explicación de #47 va bien encaminada pero no es muy correcta). Al principio pensaba que la gente (y los periodistas) no entendían que estos modelos están hechos para escupir textos coherentes (que no veraces). Luego me di cuenta que no les interesaba saber la verdad, es mucho más rentable crear mil noticias con 'La IA dice que...'.

La veracidad de ChatGPT, por poner un ejemplo, viene mediante técnicas de aprendizaje por refuerzo sobre preguntas-respuestas muy comunes. Escalar eso es imposible, no son más que parches. Por eso se pueden circunnavegar haciendo la pregunta de una manera más rebuscada.

S

#71 Es que eso de "predecir" te lleva al debate de si lo que hacemos las personas no es lo mismo, al final se llega a bastantes debates absurdos. De entrada, no sé porque se presupone que lo diga la IA será imparcial, o no tendrá nunca impresiciones.

Hasta diría que lo que yo esperaría es que la IA con acceso a internet sea peor...

s

#75 Te digo lo mismo que a #80: No razona porque escupe la posición mayoritaria de su conjunto de entrenamiento. Si lleno internet de textos que indican que la gravedad no existe, y que la gente flota, acabaría por decirlo. Eso si, de una manera súper bonita y coherente. Pero ni entiende lo que dice ni se para a razonar si está diciendo una estupidez o no. Simplemente rellena un texto con las palabras que son más probables de acuerdo a su entrenamiento, que puede estar lleno de textos basura.

S

#83 En mi opinión, como dije, es una cuestión filosófica, además, hasta tu propio texto sería indicativo de que tu no razonas. Lo que dices no tiene NADA que ver con razonar. Una IA no puede experimentar con la gravedad, así como yo no tengo forma de saber si realmente las cosas flotan en gravedad "cero" o no, todo lo que sé es de oidas. ¿Por qué va a creer a unos textos más que a otros? lol

Si lee textos en los que dicen que Harry Potter tiene una varita con la que puede votar, ese texto no es más real que uno de Julio Verne en el que dispara una bala a la luna. Y ambos son relatos de ficción... Y nada de eso tiene que ver con razonar, ni con exponer un problema lógico que una persona resuelva con razonamiento y la máquina pueda reproducir ese razonamiento.

No me has contestado nada. Hasta podría decir que solo has generado texto que parece que te da la razón, pero no me contesta.

s

#85 Me hace gracia que digas que no te he contestado cuando empiezas tu argumento con 'En mi opinión'. Estás siendo subjetivo en tu argumentación y categórico en tu conclusión. Lo digo sin acritud, es una forma de demostrar que determinados juegos filosóficos son un ciclo sin fin, es difícil discutir sobre ello sin reducciones al absurdo.

Tú lo ves como la demostración que una máquina puede razonar, yo lo veo como una demostración de que ciertas paradojas filosóficas son tan endebles que se le pueden aplicar a un loro de repetición y concluir que dicho loro es una persona.

S

#93 Simplemente es mi forma de decirte que efectivamente es una opinión, sí, llego a una afirmación, pero no me olvido de que no es más que una opinión. Así como recordatorio de que lo que has comentado tu es solo eso, una opinión. Es más bien un tema de humildad. Te lo has tomado bastante mal, y todo para no decir nada...

En el segundo párrafo llegas a una conclusión gratuita, ahora pareces una IA que no sabe razonar. ¿He dicho yo que demuestra que sabe razonar? Estás teniendo alucionaciones como tendría una IA y has demostrado que no sabes razonar.

Y sí, noto cierta acritud, puedes intentar plantear más tus argumentos, antes que convertirlo en un ataque personal.

s

#113 Creo que has sido tú el que ha visto un ataque donde no lo había. He utilizado el término de loro precisamente por la definición de loro estocástico que dan ciertos científicos al funcionamiento de chatgpt. En ningún momento estaba haciendo un ataque personal. Pero la cuestión de fondo es la misma: si un modelo entrenado tratando de predecir la palabra siguiente es capaz de pasar un test de razonamiento desde el punto de vista filosófico, es que el test no es tan complejo como podría parecer. De la misma forma que para nosotros el ajedrez es un juego extremadamente complejo, pero para una máquina es bastante simple, al ser un espacio altamente acotado y con reglas simples.

MataGigantes

#83 Como te ha dicho #85 entonces el problema simplemente está en que no sabes lo que significa razonar.
Razonar no siempre tiene que ser llegar a la verdad científica, sino exponer y ordenar ideas previas para llegar a una conclusión. Por ejemplo, hace 3.000 años en algunas civilizaciones podían llegar a la conclusión razonada de que cuando había rayos y tempestades era porque su Dios estaba enfadado con ellos, su conclusión era científicamente errónea, pero por supuesto que tenían la capacidad de razonar respecto a la información que poseían.
ChatGPT claro que no tiene la capacidad de demostrar empíricamente lo que sostiene, pero si puede perfectamente razonar a partir de la información con la que se le ha proveído.

s

#99 Y sabe inferir?

s

#85 #99 Lo pasamos a la definición del libro entonces. De los tipos de racionamiento existentes, ¿cuántos domina una IA de este tipo?

- Deductivo: lo hace razonablemente bien
- Inductivo: no lo hace
- Hipotético-deductivo: no lo hace
- Transductivo: este lo hace bien

Con esto en mente, ¿podemos considerar que una IA tiene capacidad de razonamiento? Para mí no

S

#106 Ya sé que es un argumento limitado, ¿pero las personas lo hacen bien? ¿las personas razonan? Diría que el razonamiento inductivo si lo aplica. Y en alguna pregunta, al carecer de datos aplica hipótesis, o mejor dicho suposiciones, pero es que una IA no puede falsear su conocimiento. Es como que tu vivieras en una habitación oscura, y todo tu conocimiento viniera de internet. No sabes lo que es el cielo o la tierra porque nunca lo has experimentado.