Hace 9 meses | Por rojo_separatist... a twitter.com
Publicado hace 9 meses por rojo_separatista a twitter.com

Puedes darle a ChatGPT una imagen de la pizarra de tu equipo y pedirle que escriba el código por ti.

Comentarios

C

Pero, tranquilos, que todavía se equivoca lol
Habrá que ver dónde llega esto en 5 años, pero la pinta que tiene es bastante espectacular.

c

#1 como le decía a un amigo, en este tipo de cosas es una curva asíntotica. Es decir, es muy fácil mejorar del 70% al 80% pero del 80 al 85 es más costoso que el paso anterior y así cuanto más se acerque al resultado que queremos...
Veremos. Por ahora ayuda pero no aprieta.

m

#1 #3 ChatGPT es una red neuronal. No se equivoca porque sea todavía algo imperfecto ni nada por el estilo. Se equivoca porque es una red neuronal. El cacharro es así. Esto no va a cambiar.

Un ejemplo de como funcionan es el problema que tienen al ponerle dedos en las manos de los dibujos que hacen. No saben cuantos dedos van debido a que eso no se ve nada bien en las fotos de su entrenamiento. La red neuronal no va a poder superar esto debido a que no puede contarlos, eso no está dentro de sus capacidades ni lo va a estar nunca debido a que una red neuronal no puede hacer esto, no tiene conceptos, solo recupera cosas de su entrenamiento y ya está,

Acido

#4

"Se equivoca porque es una red neuronal. El cacharro es así. Esto no va a cambiar."

Bueno, de momento parece previsible que siga siendo una red neuronal.
Y parece previsible que se equivoque...

Pero aunque los humanos no seamos exactamente iguales, también tenemos una red neuronal (no artificial) y también nos equivocamos.

"No saben cuantos dedos van debido a que eso no se ve nada bien en las fotos de su entrenamiento."

Bueno, a los artistas humanos las manos también es una de las cosas más difíciles de hacer bien. Aunque es cierto que los humanos sabemos contar bien y no solemos pintar más de 5 dedos.
Si en las fotos de entrenamiento no se observan bien los dedos, bastaría darle más fotos de manos, en más posiciones y supongo que alguna variante en los algoritmos para que "sepa contar" mejor...

"La red neuronal no va a poder superar esto debido a que no puede contarlos, eso no está dentro de sus capacidades ni lo va a estar nunca debido a que una red neuronal no puede hacer esto, "

A ver, el sistema actual no es perfecto, eso está claro, y de momento no han podido arreglarlo.

Pero, ¿cómo que nunca va a estar en sus capacidades????
¿En qué se basa esa afirmación???
No de qué partes ni sé tu razonamiento pero opino que o bien partes de algún supuesto falso o bien has usado un razonamiento incorrecto.
Por ejemplo, dices que nunca va a poder porque una red neuronal no puede hacer eso... Eso me parece un razonamiento circular: no puede porque no puede, "mataste a Manolete porque mataste a Manolete"....

"no tiene conceptos, solo recupera cosas de su entrenamiento y ya está"

Sí realiza sus propias abstracciones de los datos... de momento no siempre igual que lo hacemos los humanos, pero tiene "sus conceptos" por decirlo de alguna manera...

Y, aunque se basa en los ejemplos que le han dado, por un lado, las imágenes de ejemplo tienen 5 dedos en las manos, así que ahí tiene una base para mejorar; por otro lado, si los ejemplos son un poco malos para aprender eso, pueden darle más ejemplos diferentes; por último, si lo que falla es algún algoritmo de aprendizaje entonces también se pueden mejorar los algoritmos.
Realmente no sé cuándo se va a conseguir, quizá 2 años, quizá 20, pero estoy casi seguro de que se puede, y si se puede tarde o temprano se hará.

m

#5 aunque los humanos no seamos exactamente iguales, también tenemos una red neuronal (no artificial)

No tiene absolutamente nada que ver. Las palabras "red neuronal" no significan que tenga nada que ver con las neuronas. El tio que inventó este montaje dice que se inspiró en la forma que tienen las conexiones entre las neuronas, que es como decir que se inspiró en una red como las de los pescadores. Por otra parte las neuronas no están conectadas así (ni aproximadamente). Por no mencionar el simple hecho de que en una red neuronal no hay neuronas.

alguna variante en los algoritmos para que "sepa contar" mejor

Una red neuronal no tiene nada que sepa contar. Solo sabe repetir de forma mezclada los datos de su entrenamiento.

¿cómo que nunca va a estar en sus capacidades????
¿En qué se basa esa afirmación?


Una red neuronal no tiene ninguna capacidad de razonamiento. Hacerlas más grandes no les da lo que no tienen, solo les da más memoria y más capacidad de mezclar datos, es decir les da más de lo que ya tienen, pero no les da nada de lo que no tienen.

Eso me parece un razonamiento circular: no puede porque no puede

No es un razonamiento circular porque no es un razonamiento, es una descripción. Por ejemplo los cerdos no pueden volar. No vuelan porque no tienen alas. No tienen alas porque no vuelan. ¿Es esto un razonamiento circular? No. Es una descripción de los cerdos en cuanto a la capacidad de volar. No la tienen.

Ponerse a discutir si los cerdos podrán volar cuando sean mejores cerdos es no entender lo que un cerdo es.

Mira algun video como este:



Sí realiza sus propias abstracciones de los datos... de momento no siempre igual que lo hacemos los humanos, pero tiene "sus conceptos" por decirlo de alguna manera...

Una red neuronal no puede tener conceptos. No tiene donde guardarlos. Solo transforma entradas en salidas. No realiza inferencias. Es solamente reactiva.

si lo que falla es algún algoritmo de aprendizaje entonces también se pueden mejorar los algoritmos.

No hay ningún algoritmo ahí que sea capaz de tomar ninguna decisión. Sólo sabe escoger unos ejemplos de su entrenamiento y no otros. El resultado que da es ese. Ni la propia red neuronal sabe el porqué.

No hay forma posible de decirle: "los humanos tienen cinco dedos" porque eso son conceptos. Si le das esa frase la tratará como un ejemplo de su entrenamiento y será capaz de repetirla, y ya está. No tiene ni idea de que signifique algo. No importa si haces la red aún más grande, seguirá sin saberlo.

Todo esto es muy diferente de hablar sobre si puede haber máquinas capaces de pensar. Es por completo otra discusión distnta. Pero lo que está claro es que de haberlas no serán redes neuronales.

rojo_separatista

#6, por supuesto que tienen capacidad de abstraer conceptos para llegar a razonamientos que no estaban en su cuerpo de entrenamiento. Y como desde tiempos de Galileo las afirmaciones se demuestran con experimentos ahí, va uno que muestra como es capaz de entender qué es un unicornio y dibujarlo en una herramienta que no ha estado pensada para ello aplicando lo que ha aprendido:

m

#9 Aplicar los ejemplos memorizados es lo que una red neuronal hace. Si le pides un unicornio mirará los ejemplos de su entrenamiento donde se mencionen, porque otra cosa no puede hacer, y sacará lo que tengan en común.

rojo_separatista

#12, o no has visto el video o no lo has entendido. Los investigadores le pidieron que dibujara un unicornio con TikZ, una librería en Python pensada para visualización de datos pero no para hacer dibujos, en ningún lugar de internet hay un ejemplo remotamente parecido, sin embargo supo abstraer las características de un unicornio y representarlas con las funciones que proporciona la librería de una forma bastante aceptable. Repito, vuelvete a mirar el ejemplo y a poder ser toda la presentación para entender por qué GPT-4 no se limita a repetir lo que ya ha visto.

rojo_separatista

#4, malos ejemplos pones, GPT-4 se equivoca mucho menos que GPT-3 y GPT-5 se equivocará mucho menos que GPT-4, lo mismo ocurre con los dedos. Hace un año los modelos de generación de imágenes, hace un año eran incapaces de dibujar bien un imagen, hoy puedes pasarte por el discord de Midjourney para ver que ya no se equivoca nunca.

No es que el tiempo te desmentirá, es que ya lo está haciendo.

m

#8 El que una red neuronal "no se equivoque" es ante todo subjetivo. Lo que realmente quiere decir esa frase es que la respuesta que proporciona nos guste más o nos guste menos, porque eso de las respuestas correctas o incorrectas no tiene sentido dentro de lo que una red neuronal es.

Por supuesto que a base de hacer una red más gorda de forma que su entrenamiento incluya manos vistas en todos las posiciones y desde todos los ángulos hará que (casi) siempre pueda copiar de algún ejemplo y nos dé respuestas que nos gusten, pero eso no le hará entender que los humanos tienen cinco dedos, porque no tiene esa capacidad, por mucho que los excelentes resultados disimulen el hecho.

y no, no es lo mismo

rojo_separatista

#10, no, no es algo 100% subjetivo, existen decenas de benchmarks para evaluar el rendimiento factual de cada modelo, inspirándose en cosas como exámenes de acceso a la universidad.

Llegará el punto en que las manos o las preguntas que responda estarán cerca del 100% de precisión y seguiremos diciendo que a pesar de eso no entienden lo que hacen. Algo que es irrelevante a efectos prácticos y que incluso con otros humanos tampoco tienes forma de saber hasta qué punto entienden lo que hacen.

Butters

Como Analista Programador con más de 25 años de experiencia, puedo asegurar sin temor a equivocarme que ninguna máquina va a conseguir hacer un programa complejo. Básicamente porque los usuarios piden cosas que contradicen otras cosas, constantemente introducen casos excepcionales en los que el programa debe actuar de forma distinta, y muchas veces piden cambios sin pararse a pensar en las consecuencias y cómo afectará al resto.
Y estoy hablando de un programa escrito por completo con una sola tecnología. Pero lo normal es que tu aplicación tenga que relacionarse con otras aplicaciones y con diversas tecnologías a la vez

D

What a great tool.