Publicado hace 8 meses por Joseargen a ydequehablamosahora.wordpress.com

Es la Inteligencia Artificial un promisorio futuro tecnológico, o es solo un «simulador de lenguaje» humano, o es un «espejismo» que vemos por delante, o peor es un nuevo engaño de alcance global?

Comentarios

D

#1 Tú si que tienes una cogorza mental de aúpa.

La IA es una burda mentira que no sirve para nada, cualquiera con dos dedos de frente se daría cuenta del timo de la estampita que nos quieren vender, vaya fiasco la inteligencia artificial, no es inteligencia es una patraña, casi tan patraña como la mierda del Bitcoin, el timo de la estampita del siglo XXI.

Sorrillo te apuntas a todas las mierdas estas propias de engañabobos.

sorrillo

#5 Gracias por ejemplificar tan bien aquello a lo que me refería.

D

#8 ¿A qué te referías? Si no sabes ni lo que dices, "el ser humano es un simulador de lenguaje" dice el señorito, tú estás fatal, el ser humano es un superviviente mayo, mientras que la IA no vale para nada más que para almacenar y escupir datos.

sorrillo

#11 no vale para nada más que para almacenar y escupir datos.

Es gracioso ver tu reacción visceral contra lo que no entiendes, que demuestres ser incapaz de usar a una IA para obtener resultados útiles.

Dicen que ojos que no ven, corazón que no siente, espero que en tu incapacidad de ver puedas disfrutar de la falsa sensación de seguridad que te otorga durante el máximo tiempo que puedas, simplemente no te deseo lo que puedas pasar cuando finalmente entiendas lo que está ocurriendo, si es que tienes la capacidad para ello, espero que si se da el caso tengas la capacidad de afrontarlo entonces visto que ahora eres completamente incapaz.

D

#15 Sí, lo mismo que cuando vendías Bitcoin vamos, que oiga no se lo pierda señor, al bonito Bitcoin cómprelo mientras está fresquecito.

sorrillo

#33 Tu obsesión conmigo te hace desvariar y soltar burdas mentiras.

D

#37 Aquí las mentiras las has soltado tú mismo en #1 que has dicho una partida por muy intelectual que te creas. Ale, te dejo tranquilo por hoy Sorrillo.

sorrillo

#c-38" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3872409/order/38">#38 Aquí las mentiras las has soltado tú mismo en # 1

¿Eso era una mentira?

lol lol lol lol lol lol lol

Si es que cuando no llegas no llegas ...

rojo_separatista

#7, la última versión de chatGPT también hace más que procesar lenguaje, es capaz de ver imágenes y en los próximos años llegarán los videos, audios y cualquier otro estímulo físico que los humanos también procesamos con nuestros sentidos. Me pregunto qué excusa pondremos entonces para seguir argumentando que somos el centro del universo.

m

#30 La idea del centro del universo se descartó cuando Copérnico.

Una red neuronal es más que adecuada para tratar audio y video. Los resultados son espectaculares. En el fondo no son más que texto también.

D

#1 Desde luego.
El cerebro humano es lo mismo que esto pero multiplicado por decenas de millones, pero lo mismo al fin de al cabo,

https://www.xataka.com/robotica-e-ia/esta-placa-de-arduino-simula-todas-las-neuronas-del-cerebro-de-un-gusano-para-que-se-mueva-y-reaccione-como-tal

Sólo es cuestión de que avance la tecnología.

D

#12 Otro menso, con la misma bobada que el del Bitcoin.

Qué hace la IA que sea "inteligente"? Nada.

Bienvenidos a la noticia de los que se emocionan.

D

#13 > Qué hace la IA que sea "inteligente"? Nada.

Define inteligencia.

D

#16 Solucionar problemas reales y subsistir por ti mismo.

D

#13 Qué coño tendrá que ver el bitcoin con la IA ?

Sí, a la IA le queda mucho por avanzar, pero entiendo que te frustre que a ti ya te haya superado.

rojo_separatista

#13, se te nota nervioso y frustrado, casi, como si fuese una especie de cruzada personal. Me pregunto por qué te lo tomas tan a pecho para ser tan visceral a la hora de hablar de la IA.

D

#31 Que me parece un timo, una patraña, una quimera, el nuevo ídolo de barro.

m

#12 No es así. En un cerebro el proceso de información tiene lugar dentro de las neuronas.

D

#39 explica eso y por qué no puede ser simulado en un ordenador

D

#1 Seria hilarante que al final nosotros mimos fueramos loros estocasticos

h

#1 No sé lo que es el ser humano y no está claro lo que es un LLM, pero ya sería una puñetera increíble casualidad haber creado algo que sea igual que el ser humano... sólo por eso ya me parece que lo que dices tiene más de provocación que de ciencia.

sorrillo

#18 No es, ni de lejos, el primer intento. Se ha intentado y fracasado en multitud de ocasiones. Esta vez nos hemos inspirado en la biología para el diseño del cerebro digital y hemos usado la cultura humana como fuente de entrenamiento de ese cerebro digital. Todo ello teniendo como objetivo que los resultados sean lo más parecidos a los humanos posibles.

No tendría nada de increíble ni nada de casualidad que los resultados fueran equiparables debido a que el proceso para llegar a ellos fuera equiparable.

m

#20 nos hemos inspirado en la biología para el diseño del cerebro digital

"Inspirado" no significa prácticamente nada.

sorrillo

#42 Y a su vez puede significarlo todo, en función del resultado.

m

#43 No puede significar nada especial. Es como si yo diseño un carrito de bebé y digo que me he inspirado en el movimiento de las nubes.

En el caso de las redes neuronales, su estructura no se parece ni de coña a como están interconectadas las neuronas. Pero inspirado puede estar tan inspirado como se pretenda, faltaría plus.

sorrillo

#45 Hay conexiones entre neuronas, en eso sí se parecen.

D

#45 Zasca que le has dado.

m

#18 Nadie ha creado nada similar a un humano. Los resultados de ChatGPT son interesantes y demuestran que es posible hacer algo interesante de otra forma distinta. Lo que no es, es útil.

j

#1 Pero alguien se ha tomado el trabajo de leer el artículo o hablan por hablar??
Creo que nadie tiene nada de inteligencia natural.

alehopio

Las inteligencias artificiales actuales no son inteligencias, son simuladores.

Es tan fácil de demostrar como hacerles que razonen a dos o tres niveles a la vez de implicaciones: son incapaces. Y se puedo demostrar con muchísimos ejemplos. Si alguien quiere comprobarlo:

1) toma una frase larga de un refrán [primer nivel de razonamiento es entender el significado] luego desordena las palabras de forma que no existan ninguna relación posible entre ellas y entonces introdúcelas en la inteligencia artificial para que te diga cual es la frase [segundo nivel de razonamiento es ordenar correctamente las palabras para que se creen frases]

2) pídele a la inteligencia artificial que te dibuje un cubo cuyos laterales tengan X número de carácteres [primer nivel de razonamiento es discernir la longitud según el número de carácteres] en tres dimensiones usando arte ascii y le pides que numere los vértices [segundo nivel de razonamiento es saber dónde está el vértice] y después le pides que desdoble una cara en el plano perpendicular [tercer nivel de razonamiento es saber dónde está la vertical] y ya ni le pidas que desarrolle ese cubo en el plano porque no atinará de ninguna forma.

etc etc etc

m

Lo primero, la terminología. La inteligencia artificial es un nombre fantasioso que engloba cualquier tecnología presente y futura. Tipos de cacharros que se acogen a eso hay bastantes. Uno de ellos se ha hecho famoso con lo del ChatGPT, que es las redes neuronales. Otro nombre estúpido pues no tiene nada que ver con las neuronas.

Una red neuronal almacena los datos que se le dan. Si se le dan más datos de los que puede almacenar, hace algo muy interesante que es resumir esa información, mezclando todos los datos entre sí. Si luego se le hace una pregunta, dará una respuesta parecida a la que corresponde a los datos que se parecen a eso. Como resultado sale algo que parece nuevo, pero no lo es, eso es imposible, porque sólo sabe copiar. No puede hacer nada más y las cosas que no puede hacer incluyen comprender algo y aplicar la lógica. Procesa texto y devuelve texto, es todo.

D

#3 Claro que puede aplicar la lógica. No la aplica perfectamente, como tampoco lo hace una persona. Pero es capaz de aplicar un proceso lógico.

m

#6 En absoluto. Sí que puede seguir un documento que haya memorizado, y puede sustituir datos en ese documento para adaptarse a la pregunta realizada. Si ese documento tiene lógica, pues la respuesta la tenbrá también. Si ese documento dice insensateces, pues la respuesta seguirá ese patrón. La red neuronal no conoce la diferencia entre lo uno y lo otro.

rojo_separatista

#25, es capaz de aprobar examenes de este año que no estaban en su cuerpo de entrenamiento. O sea que no, no es cierto que se limita a repetir sin razonar, ya que puede resolver problemas completamente nuevos aplicando correctamente lo que ha aprendido.

m

#32 No puede hacer nada ni parecido a lo que dices. Si resuelve algo, es que ese algo está en sus datos. No puede calcular nada, razonar nada ni mucho menos crear nada. Solo copiar. ¿Te has mirado esos videos de cómo funciona? Ahí está muy claro.

rojo_separatista

#47, estás diciendo que los examenes de selectividad de 2023 estaban ya en su dataset de entrenamiento que termina en 2021? Esto no es posible, no se si te das cuenta.

m

#51 ¿Por qué no es posible?

rojo_separatista

#52, porque las probabilidades de que se haya escrito antes un ejercicio exactamente igual que uno aparecido en un examen de selectividad son casi nulas.

m

#53 Las probabilidades son cercanas al 100%, y si no digo directamente 100% es por si se diera algún caso raro que no se me ocurre.

Pongamos que en ese exámen se debe resolver una integral por el procedimiento del cambio de variable.
El trasto dispondrá de una serie de textos donde se sigue ese procedimiento. Los usará. Sustituirá ahí dentro lo que sea específico de ese enunciado. Imprimirá la solución correcta. No ha hecho otra cosa que copiar. Sigue sin saber qué es eso de una integral, para el trasto no es más que un texto que empieza por la "i".

rojo_separatista

#54, según tú lógica, las probabilidades de que casi cualquier texto que se le presente ya esté en su dataset son cercanas al 100%.

Obviamente no es así, que sea capaz de abstraer los datos de cada problema y aplicar soluciones que conoce de contextos completamente diferentes demuestra que capaz de razonar. ¿Lo digo yo? No, lo dice Geoffrey Hinton, padre de la IA moderna. Te invito que pongas este video en el minuto 1:

m

#55 Sabe distinguir un texto de otro ¿Esto es razonar? Yo digo que no, es un automatismo (de los que el cerebro humano está lleno). Razonar es otra cosa muy distinta de los automatismos. Razonar requiere establecer conceptos.

m

#55 las probabilidades de que casi cualquier texto que se le presente ya esté en su dataset

Si una red neuronal tiene alguna gracia es su capacidad de no necesitar los ejemplos exactos de su entrenamiento. Sabe reaccionar a cosas PARECIDAS a esos ejemplos.

De ninguna manera una red neuronal podrá presentar la solución a esa integral si esa solución no está en su entrenamiento. El texto con el que se le pregunte sólo necesita ser lo bastante parecido al de su entrenamiento como para que pueda tirar del documento con la solución.

rojo_separatista

#60, ahí va otro ejemplo que refuta completamente lo que dices que las redes neuronales son incapaces de relacionar conceptos y razonar, el extraño caso del unicornio (minuto 22:10 del video que adjunto). Estaría bien que lo miraras y el por qué este experimento prueba que las redes neuronales tienen una capacidad de abstracción parecida a la de los humanos.

m

#62 Por lo que he visto, la dificultad del problema consiste en usar una herramienta de dibujo concreta, una particularmente difícil.

Lo que no he visto es la capacidad de comprender nada. Se le pide que dibuje un unicornio, luego irá a buscar los dibujos unicónicos que tenga. A continuación usará la herramienta para aproximarse a eso.

Vale. Se podría argumentar que si automatizamos todos los procesos de la cognición humana acabaremos por hacer todo lo que hace un humano. ¿Todo? No, todo no, porque falta la comprensión. Ese replicador de procesos no podrá nunca crear algo nuevo.

rojo_separatista

#63, la dificultad se debe a que no es una librería diseñada para dibujar cosas, sino para representar datos gráficamente. Por este motivo explica que es prácticamente imposible que nadie haya dibujado un unicornio con esta librería. El hecho de que lo haga significa que está relacionando por un lado los elementos que caracterizan un unicornio y por el otro las funciones que proporciona la librería. Cuanto menos es interesante y demuestra que estas redes neuronales tienen cierta capacidad de abstracción.

sorrillo

#63 si automatizamos todos los procesos de la cognición humana acabaremos por hacer todo lo que hace un humano. ¿Todo? No, todo no, porque falta la comprensión.

¿La comprensión no es un proceso de la cognición humana?

m

#65 Pero no es un automatismo.

sorrillo

#66 Mira que le doy vueltas y no consigo entender a qué te refieres.

A ver si con algún ejemplo lo podemos aclarar, ¿qué procesos de la cognición humana son según tú automatismos y cuales no en la elaboración de un unicornio tras recibir instrucciones para ello? (o en la fase de aprendizaje para poder hacerlo, si es que allí está la diferencia sustancial)

abnog

Como escuché en un podcast de A Ciencia Cierta sobre el tema, el error fue llamarle "inteligencia artificial", pero claro, mola mucho más que "analizador estocástico".

m

#9 Fue un editor de la publicación.

xyria

#0 En castellano, el texto de una interrogación lleva dos signos, uno antes de la apertura y otro después del cierre.

m

#17 o no?

neiviMuubs

Yo no veo problema en que se llame a lo actual IA, aunque supongo que estamos un poco en la versión alfa de todo ello, o quizá ni eso. Pero que se estén intentando imitar precisamente las redes neuronales con nombres equivalentes, ya da bastante idea de a donde están enfocando el tema.

Siempre sabiendo que esto es como la "magia" que hacen los "magos", que en realidad son ilusionistas, claro. La idea es crear una suerte de equivalentes que den una ilusión de estar hablando con algo parecido a una persona. Y en ese sentido, se está avanzando mucho. Para mí ya es prácticamente un sueño hecho realidad, yo quería esto de crio cuando usaba aquel cutre dr Sbaitso que venía con la soundblaster a inicios/mediados de los 90 y que cabía en un floppy. Ha sido un cambio muy drástico en 30 años.

rojo_separatista

Tanta chapa para decir "las IAs no tienen alma como los humanos".

m

#2 Los humanos no tienen alma, si nos vamos al significado religioso. Las religiones son todas mentira.

El significado original de alma es más interesante. En la edad de bronce se refería a la capacidad de actuar de forma distinta a la instintiva.

Si aplicamos esto a las máquinas, es evidente que las máquinas no pueden tener instintos, ya que no tienen una historia evolutiva basada en la selección. Por lo tanto no, no pueden tener alma ni la necesitan.

j

#4 Ya hay en marcha un proceso de selección, dirigido por humanos. La IA que funciona peor, es más lenta o consume más recursos, muere.

m

#10 Se requiere reproducción. No juguemos tanto con las palabras y sus diversos significados.

j

#29 Es que está pasando. Cada día hay humanos que cogen el código de las mejores IAs, lo mejoran, combinan las mejores cosas de cada una...

m

#34 La idea de una red neuronal no ha cambiado un ápice desde que se inventó. Hay solamente optimizaciones para problemas específicos. Lo que han hecho con ChatGPT es hacerla enorme.

j

#46 Como el cerebro del mono

m

#56 Si te refieres al tamaño, pues ni de muy lejos. Un cerebro tiene billones de neuronas.

j

#58 cuestión de tiempo. Es parte de la evolución de las IAs, cada vez tienen más parámetros.

blak

Las conversaciones aquí, mostrando el asombroso nivel de cuñadismo entre los "expertos" de Menéame

j

Pero alguien se ha tomado el trabajo de leer el artículo o hablan por hablar??
Creo que nadie tiene nada de inteligencia natural.

m

#24 La verdad, ni lo he abierto. He leido el título y eso desincentiva ningún esfuerzo ulterior. La probabilidad de que se trate de gilipolleces escritas por alguien que no ha entendido nada es altísima.

A veces me reto a mi mismo y me obligo a leer algo de lo que he rechazado, para ver si me estaba equivocando. Nunca me ha pasado que estuviera equivocado. Sigue siendo posible, claro que sí. Seguiré con mis retos, pero no esta vez.