Hace 1 año | Por oghaio a infolibre.es
Publicado hace 1 año por oghaio a infolibre.es

Coherencia no es sinónimo de verdad, pero tendemos a confundir ambos conceptos. Cuánto más coherente es un discurso, ya sea oral o textual, más fácil es que lo tomemos por verdadero y más convincente nos parecerá. Y confundir coherencia con verdad puede llevarnos a cometer errores desastrosos. Somos nosotros mismos, los humanos, quienes dotamos de significado a estos textos, que, en sentido estricto no son producto del razonamiento sino de vectores probabilísticos.

Comentarios

casius_clavius

Nadie, ni sus creadores, han dicho que lo que genera ChatGPT sea verdadero. Incluso a veces algo tan lógico como el código de programación que genera tiene errores.

Lo importante es el avance tan gigantesco que supone esta herramienta para entender y para elaborar respuestas.

jonolulu

Ya lo dije en otro meneo: verosimilitud y veracidad son cosas muy diferentes

sorrillo

La base que han conseguido es espectacular, el sistema ha aprendido múltiples idiomas por sí mismo (dudo que nadie le haya enseñado explícitamente catalán y se expresa perfectamente en éste).

Mantiene correctamente el contexto y sabe entender que en una charla lo que se dice debe contextualizarse en lo que se ha dicho previamente, peticiones como "genera el código de lo que me acabas de explicar" acaba creando lo esperable, en otras IA con carencias de contexto respondería algo sin relación con lo anterior.

Lo que creo que no hace, aunque le pregunté y me mintió al respecto, es aprender de las charlas que tiene. Si algo lo tiene mal entendido y alguien le corrige, incluso aunque la acabe convenciendo (cosa difícil) al próximo que llegue le seguirá repitiendo la información errónea inicial. Si añaden esa mejora su velocidad de aprendizaje puede ser brutal, dado que no hay nada más efectivo para saber la verdad que decir algo incorrecto en Internet.

B

#8 Aunque lo que dices es en general verdad, curiosamente en algunos casos ChatGPT sí parece aprender sobre la marcha, recordándolo para siempre. No entiendo por qué algunas veces sí aprende por sí mismo, pero la mayoría de las veces no.

Te comento el primer ejemplo con el que lo averigüé: le pregunté qué era el libre mercado. Me contestó que el libre mercado era un sistema económico en el que los precios y producciones se decidían en base a la demanda y la oferta. Le respondí que eso no era lo que caracterizaba ni definía el libre mercado, porque la demanda y la oferta determinan los precios y producciones en todos los sistemas económicos, sean de derechas o de izquierdas, sino que lo que caracterizaba el libre mercado era la libertad de actuación económica de las personas y agentes económicos, que podían concurrir libremente en cuanto a oferta, demanda, precios, etc.

Inmediatamente ChatGPT me dio la razón, y en sus siguientes respuestas ya siempre me indicaba que el libre mercado era un sistema caracterizado por la libre actuación de los agentes económicos. De hecho, si hoy le preguntas, ChatGPT te resaltará que lo más definitorio del libre mercado es la libre actuación de los agentes económicos.

Y no es el único ejemplo en el que ChatGPT me ha dado una respuesta incorrecta, se la he corregido, y ha sido capaz de aprender y quedarse con mi corrección en ese mismo instante, sobre la marcha, exponiéndola ya en todas sus conversaciones posteriores.

sorrillo

#9 Llegue a la conclusión que no aprende para usarlo en charlas con otras personas porque un familiar mío le preguntó que dónde jugaba el Messi y decía que en el Barça (sus datos de aprendizaje son de esa época), ese familiar le intentó convencer que no, que eso ya no era así, y no hubo manera. Quizá sí habría podido conseguir que chatGPT aprendiera de ello en su charla, pero claramente no había aprendido de otros que sin duda habrían tenido la misma discusión antes que ese familiar mío.

en sus siguientes respuestas ya siempre me indicaba que el libre mercado era un sistema caracterizado por la libre actuación de los agentes económicos. De hecho, si hoy le preguntas, ChatGPT te resaltará que lo más definitorio del libre mercado es la libre actuación de los agentes económicos.

Eso es lo que te responde a ti, porque sí que recuerda el contexto de tus charlas con éste, pero no aprende de ti para hablar con otros usuarios, le acabo de preguntar lo del libre mercado y me ha respondido lo mismo que te respondió a ti antes que le corrigieras:

B

#10 Pues tú mismo me lo estás poniendo con esa captura. En ella te está diciendo, en el primer párrafo, que "en un libre mercado, los individuos y las empresas son libres de producir, vender y comprar bienes y servicios a su propio criterio"; y en el párrafo final dice "en teoría, el libre mercado permite a las empresas y a los individuos tomar decisiones económicas basadas en sus propios intereses". Sin embargo, en las respuestas que ChatGPT daba sobre el libre mercado antes de que yo le corrigiese, nunca se refería a la libertad económica de los individuos ni a sus propios intereses.

D

#7 quería destacar el orden de magnitud. Una IA es más parecida a una máquina simple que al cerebro humano.
Si quieres, precisamos más. Se ha entrenado a esa máquina para que, ante preguntas, conteste de una manera similar a lo que se le ha ofrecido antes. Eso es lo que puede hacer. No tiene circuitos para razonar si es coherente o no, como sí podríamos hacer tú y yo.

sorrillo

#13 Esa IA con toda seguridad es capaz de expresarse correctamente en más idiomas que la práctica totalidad de los humanos. Pero como eso ya se lo ves hacer a una máquina lo atribuyes a que una máquina simple puede hablar en cualquier idioma, algo que hace bien poquito atribuiríamos a alguien con inteligencia equiparable o superior a la humana.

Chutas la pelota hacia adelante, como se ha hecho siempre.

Lo de los circuitos para razonar no es distinto a referirse a tener alma, es una forma de inventarse algo para distinguirse del resto de animales y en este caso de la IA.

Se ha entrenado a esa máquina para que, ante preguntas, conteste de una manera similar a lo que se le ha ofrecido antes.

Pues como cualquier humano, así es como aprendemos. Un bebé no te escribirá un paper científico, para hacerlo primero tiene que dedicar años a ver cómo se hace, qué ese espera de éste, etc. Es el aprendizaje de una vida.

D

#14 ¡Ay, qué dolor!
Yo creo que para no hacer el ridículo en internet, como no sabemos nunca a quien tenemos delante, lo mejor es pensar que con quien hablamos es un doctor en la materia tratada. Así que para no hacer el ridículo, voy a pensar que eres un doctor en inteligencia artificial.
Vamos a ver, mi frase es "No tiene circuitos para razonar si es coherente o no, como sí podríamos hacer tú y yo" y eso es verdad. La GPT3 es una red neuronal clásica y se diferencia del resto en que la cantidad de nodos que tiene es muy superior, asombrosamente superior. No sé si está publicada la arquitectura del GPT, supongo que básicamente será un LSTM. Un LSTM no es un circuito para autodetectar coherencia, es un circuito para repetir patrones en el tiempo. Pero bvamos, que me esi igual que sea un LSTM o no. Mi afirmación de que esa red neuronal no tiene circuitos para ser coherente se tira por tierra muy fácilmente. Simplemente basta con que me muestres un circuito de redes neuronales que esté preparado para ser coherente. O un paper donde hable de alguno de ellos. No los hay, yo creo que no existe algo así en ninguna parte. Lo quehe leído de GPT3 no dice nada parecido, por supuesto. Pero vamos, que si ces que sí, pues justifícalo de alguna manera y seguimos discurriendo entre los dos sobre el tema.

De lo que dices del alma y y que yo atribuyo y tal, suena como si fueran falacias hasta con nombre. Supongo que no esperarás que yo conteste a falacias, así que ahí no me voy a meter a decir nada.

sorrillo

#17 Mi afirmación de que esa red neuronal no tiene circuitos para ser coherente se tira por tierra muy fácilmente. Simplemente basta con que me muestres un circuito de redes neuronales que esté preparado para ser coherente. O un paper donde hable de alguno de ellos. No los hay, yo creo que no existe algo así en ninguna parte.

Ni alma, tampoco te puedo mostrar un circuito de redes neuronales que esté preparado para tener alma.

Demuéstrame en el cerebro humano dónde está el alma, perdón, dónde está el circuito "para razonar si es coherente o no", eso que llamas "verdad".

Lo has entendido al revés, no es que el GPT3 se parezca mucho a los humanos porque tiene alma y circuitos para razonar si es coherente o no, sino que la distinción de que tenga alma o circuitos para razonar si es coherente o no es una invención artificial humana para diferenciarse de lo que hace el GPT3.

Para seguir chutando la pelota hacia adelante.

En cuanto a las falacias de autoridad les presto la atención que se merecen, como hago con los profetas.

D

#18 pues disculpa que te haya ocupado tu tiempo con mis tonterías.
Simplemente para cerrar, eso que tu llamas alma, posiblemente ni exista.

sorrillo

#_19 Simplemente para cerrar, eso que tu llamas alma, posiblemente ni exista.

Vaya, se te ha olvidado mostrarnos los "circuitos para razonar si es coherente o no" en el cerebro humano, que descuido tan tonto el tuyo.

Nota: Este comentario es para responder a @ sinelo que por lo visto me tiene en su lista negra de ignorados. Por alguna razón que se me escapa los@admin demeneamemeneame han decidido que si alguien te pone en su lista negra ya no puedes citarle en respuesta a sus comentarios públicos, dificultando así el uso de herramientas de menéame como es el ver los comentarios en forma de hilo de discusión. Me pongo también en copia en #18 a ver si ayuda en el anidado.

G

#2 Porque el ChatGPT no es una IA. Es un autómata determinista. No existe ninguna IA porque ninguna pasa el test de Turing

#FreeAssange

CC #15 #14

sorrillo

#21 El ser humano es un autómata determinista, ese determinismo no es evidente porque aprende de todo lo que le ocurre.

Con las personas que han perdido la capacidad de almacenar nuevos recuerdos se pueden tener charlas básicamente idénticas cada vez que te comunicas con ellas, al no recordar que ya tuvieron esa charla sus respuestas son siempre las mismas. Si recordasen esa charla sus respuestas serían distintas, que es lo que suele ocurrir con las personas sanas.

Que una IA como el ChatGPT aprenda de todas las charlas no solo es realista sino que es posible que ya esté ocurriendo, como me indicaban aquí: falacias-encantamiento-inteligencia-artificial-chatgpt/c010#c-10

Hace 1 año | Por oghaio a infolibre.es

G

#22 El ser humano no es un autómata determinista porque SIENTE. Lo de determinismo se refiere a que viene determinado por el código tal y como bien dice chatGPT

sorrillo

#28 Lo del chat parece muy forzado, parece que esto se lo han enseñado adrede para que conteste así aunque incurra en contradicciones como hace en la respuesta que citas. Primero dice que el test de Turing es para comprobar si las máquinas ... y luego dice que no puede pasarlo porque es una máquina, cuando precisamente son las máquinas las que tienen que aspirar a pasar ese test.

El ser humano no es un autómata determinista porque SIENTE.

Que va, es la alma lo que distingue al humano de un autómata determinista.

Los sentidos son entradas, como lo es el texto para el chatGPT, de hecho podemos afirmar que chatGPT tiene sentidos ya que el texto que introducimos es un elemento externo que procesa, como lo es para nosotros la visión o el oído. Los sentidos son entradas que generan una salida determinística en el ser humano, siendo como es un autómata determinista.

Si te referías a los sentimientos éstos son una respuesta determinista más del conjunto, como autómata determinista que es.

G

#30 Los sentimientos no pueden ser una respuesta determinista porque no todos reaccionamos de la misma forma a estos.

El chatGPT no te va a decir, dejame en paz, me aburres, no quiero hablar contigo.

sorrillo

#31 Los sentimientos no pueden ser una respuesta determinista porque no todos reaccionamos de la misma forma a estos.

Es determinista para cada individuo. Determinista no significa que sea igual en todos los contextos sino que para unas mismas entradas devuelve las mismas salidas.

En el caso del ser humano esas entradas contemplan toda su historia vital, como no es realista que dos individuos hayan tenido las mismas entradas no es realista que den necesariamente las mismas salidas, es no hace que ambos no sean deterministas sino que simplemente nos indica que han tenido entradas distintas y su respuesta determinista es distinta por que esas entradas fueron distintas.

Dos IAs entrenadas con sets de datos distintos darán respuestas distintas, eso no es ninguna prueba de que no sean deterministas tampoco.

El chatGPT no te va a decir, dejame en paz, me aburres, no quiero hablar contigo.

Quizá ésta no lo haga, la próxima puede hacerlo perfectamente. Más difícil era que ganase al Go o que identificase tumores en radiografías.

Jakeukalane

#30 ¿De verdad piensas que las almas existen?

sorrillo

#33 Existe en el mismo sentido que existe Dios o existen los "circuitos para razonar", son recursos del ser humano para diferenciarse del resto de seres vivos, para ponerse en un pedestal.

Si afirmasen algo que fuera empíricamente comprobable entonces podría ser falsado y ese concepto pasaría a ser inútil, las veces que ha ocurrido han saltado al término siguiente de la lista.

Un poco es como los subnormales que en cuanto se usa para insultar cambian de palabra.

joffer

#21 claro que sí.

G

#23 Lo dice GPT

B

En realidad ChatGPT no es muy coherente. Si lo llevas a un tema sobre el que puedes hablar a cierto nivel especializado, es fácil que le puedas encontrar defectos en sus respuestas. Es más, si le planteas las preguntas adecuadamente, es relativamente fácil también que le hagas a ChatGPT darte respuestas que, de hecho, contradicen los defectos o errores que te soltó en sus anteriores respuestas.

Los principales méritos que le veo a ChatGPT es que sabe bien entender lo que le estás preguntando, y sabe expresarte sus respuestas utilizando el lenguaje correctamente, con independencia de que esas respuestas sean erróneas o contradictorias.

D

#2 En realidad ChatGPT no es muy coherente.
No es nada coherente ni lo puede ser. Es como si dices una máquina taladradora. No es coherente ni lo puede ser. Cuando aprietas en un sitio hace una cosa, la cosa que debe hacer en función de las leyes físicas, y ya está. El que alguien se monte una película interior intentando darle una justificación espiritual, no cambia nada, sigue taladrando independientemente de ello.

sorrillo

#4 Lo que indicas también aplica a los humanos.

joffer

#4 muy en desacuerdo con tu comentario y con comparar las IAs actuales y las futuras con una máquina simple que ante un mismo input obtiene siempre el mismo output.

D

#15 Bueno, es una máquina adaptable, pero máquina a fin de cuentas.

joffer

#16 tu también eres una máquina adaptable. Con la diferencia que estás más evalucionada y que tardaste miles de años en estarlo, mientras que estás pueden estarlo en décadas.

D

#24 pero todavía no. ¿ Se entiende ya mi comentario o lo explico más aún ?

joffer

#25 no, sigo sin entenderlo. La proyección en estos 5 últimos años ha sido tan brutal que no entiendo la miopía. Imagina en 2 décadas. Es algo alucinante y preocupante.

D

#26 Pero no estramos hablando del futuro, creo yo. Estamos hablando de lo que hace o no hace ahora.
A mí el que alucines y te preocupes no me afecta. Yo sé de estos temas desde hace muchos años, ya he pasado por todas esas fases.

h

No recuerda cosas de otras conversaciones porque
a) cada conversación se desarrolla en instancias diferentes en la nube
b) la gente se dedicaría a enseñarle gilipolleces para joder al resto

Seguramente se guardan las conversaciones para de vez en cuando reentrenar la red y ajustar pesos pero supongo que revisarán muy bien qué muestras la meten.

z

Cierto: la coherencia no significa verdadero. Pero la incoherencia si significa falso. Y, salvo honrosas excepciones, en general, esa es la principal lacra de nuestros políticos: su discurso incoherente.

D

¿ Qué hace esto en ciencia ?
No tiene ningún sentido que esté aquí. ¿ No hay un sub más adecuado ?