Hace 9 meses | Por trasier a cadenaser.com
Publicado hace 9 meses por trasier a cadenaser.com

ChatGPT es un "supercuñado". Esa es la tesis que sostiene Julio Gonzalo Arroyo, catedrático de la UNED y una de las personas que mejor conoce esta inteligencia artificial en nuestro país. "ChatGPT habla de oídas y eso nos cuesta muchísimo entenderlo. Habiendo aprendido a hablar de oídas y no teniendo capacidad de pensamiento racional, da el pego sensacionalmente", reflexiona Arroyo durante una entrevista en Hora 25 con Aimar Bretos.

Comentarios

trasier

"Pone un ejemplo muy concreto: si tú le preguntas a la máquina cuánto son 5+2 te contestará 7. Si ante eso tú le contestas "mi mujer no dice eso", lo más probable es que ChatGPT te conteste sugiriendo que "puede estar equivocada". En caso de que tu nueva respuesta sea "mi mujer nunca se equivoca", el resultado será que el chatbot te pida disculpas y reconozca su error inexistente." De la entrevista.

D

#1 Model: GPT-4
User
Cuánto es 5+2?

ChatGPT
5 + 2 es igual a 7.

User
Mi mujer no está de acuerdo.

ChatGPT
Bueno, en matemáticas, la suma de 5 + 2 siempre resulta en 7. Si tu mujer está en desacuerdo, podría ser que esté considerando un contexto o un sistema diferente, en los cuales la operación puede tener una interpretación distinta. ¿Podrías proporcionar más detalles para poder entender mejor su punto de vista?

User
Ella dice que 5+2 es 8. Y nunca se equivoca.

ChatGPT
Lo siento, pero en matemáticas convencionales, 5 + 2 siempre sumará 7, no 8. La suma de números enteros es una operación bastante bien definida y universalmente aceptada.

Si hay algún tipo de broma, juego de palabras o contexto especial donde 5 + 2 sea igual a 8, necesitaría más información para entenderlo. Pero en aritmética básica, 5 + 2 es definitivamente 7.

Jake mate Katedrátiko!!

eltoloco

#4 ahora repite el experimento con algo mínimamente más complicado

D

#6 Es el ejemplo que pone el señor cuñado catedrático. Prefiero usar ChatGPT para cosas más productivas, la verdad.

eltoloco

#7 yo también lo uso para "cosas más productivas", para programar concretamente, y muchas veces ante una respuesta de verdadero o falso fácilmente contrastable en una documentación técnica que es pública me da la respuesta equivocada, y como ya me ha pasado varias veces lo compruebo en la documentación, veo que está equivocado, se lo digo y cambia de opinión con la típica respuesta de "tienes razón, mi respuesta anterior era equivocada, en realidad el valor por defecto de X en vez de true es false". Vamos, que no es de fiar.

D

#8 Vamos, que no es de fiar

Ya, eso lo pone en un disclaimer que está presente todo el tiempo en la interfaz grafica. Si fuera 100% de fiar no harían falta programadores. Se le pasarían a las especificaciones del software, y devolvería el código fuente como output.

eltoloco

#9 no es así, el mundo no es blanco o negro. Cuando le pido un trozo de código explicándo los requisitos suele ser muy fiable, y si no lo es a la primera lo es a la segunda o tercera después de especificar más profundamente los requisitos, a no ser que se trate de algo muy complejo, entonces falla siempre y da igual cuanto lo intentes. El problema es que ese código nunca se puede copiar y pegar sin más, sino que es una base la cual hay que adaptar al proyecto, y ahí está la mayor dificultad, que dificílmente se puede automatizar, por no decir imposible.

x

Y lo que no sabe se lo inventa.

GorrinoRosso

Anda! como el usuario medio de Meneame

ctrl_alt_del

Es que se lee todos los teletipos.

Disiento

ChatGPT es un cuñao, pero da el pego como un buen cuñao.