Hace 1 año | Por ElenaTripillas a eldiario.es
Publicado hace 1 año por ElenaTripillas a eldiario.es

La irrupción de ChatGPT y las inteligencias artificiales generativas, capaces de interactuar de manera coherente en lenguaje natural, diseñar imágenes artísticas o componer canciones de manera indistinguible de como lo haría una persona, ha disparado nuestra imaginación...

Comentarios

b

¿Y que importa que sea o no similar a la humana?

D

#1 Hombre, los humanos ya sabemos cómo jodernos, pero esto... tinfoil

y

#1 El tema está en que eso lleva a engaño. Hay ahora mismo una cantidad nada despreciable de gente alucinados con las últimas y más gordas redes neuronales.

Pero esos cacharros no tienen ningún concepto dentro. Para nada tienen una comprensión (ni simulada) de nada de lo que hacen. En cualquier momento pueden soltar una burrada enorme sin ninguna razón. No hay ninguna garantía de que ninguno de sus outputs cumpla con ninguna característica.

Pero el que lo que hacen se parezca a lo que hacen los humanos lleva a pensar que son inteligentes. De ninguna de las maneras son nada de eso. Pensarlo es un sesgo cognitivo.

i

#7 bueno, hay humanos que hablan con sus perros....lol

y

#10 Un perro es un animal muy especializado. Entiende a las personas. El tono de voz, la forma de moverse, la expresión de la cara. Lo entiende de verdad. Los hemos evolucionado hasta que lo han hecho. Ningún otro animal es capaz de nada parecido.

i

#11 un gato y/o cualquier mascota.
Lo que venía a referirme es que un humano considera inteligente y habla con cualquier cosa.

y

#12 Si, ya te entiendo. Hay quién tiene amigos invisibles.

Pero no. Un gato no puede hacer lo que hace un perro, tampoco un chimpancé.

i

#13 si tú lo dices....

b

#7 no se trata de simular un cerebro humano al completo sino coger las partes que nos interesen y ponerlas a trabajar. El error es pensar que se quiere crear una especie de cerebro artificial y, de momento, es algo que queda muy lejos.

y

#14 Yo creo que eso de llamarle "redes neuronales" lleva a confusiones. No tiene esa tecnología absolutamente nada que ver con el funcionamiento del cerebro.

D

#15 pues claro que tiene que ver. Es un modelo simplificado de una neurona. Es un símil adecuado, aunque haya evolucionado hacia un enfoque vectorial.

y

#27 Por favor. Deja de sonar pasteles. Nadie tiene ni la más mínima pista de como funciona una neurona. Si buscas la literatura, todavía dicen que si "señales elécticas".

Lo que dicen por ahí es sobre la red que conecta a las neuronas entre sí, lo que no es cierto. Una red neuronal conecta a todos los nodos con todos, por capas. En el cerebro, solo los axones van muy lejos, y que se sepa son solo output. Nada que ver.

El que puedas reepresentar todas las salidas de un nodo con un vector, no quiere decir que sea una "arquitectura vectorial". Simplemente le meten conexiones a todo, sin saber como funciona eso.

D

#31 como no se va a saber como funciona una neurona. Menuda cuñadez. Que haya cosas que no se conocen todavía no significa que no se entienda el funcionamiento de neuronas individuales. Y no sé qué te hace tanta gracia de que se traten como "señales eléctricas". No deja de ser un movimiento de cargas eléctricas que se inicia en los canales iónicos.

Los modelos más usados de redes neuronales están optimizados para el cálculo de matrices. Son una simplificación del modelo biológico, muy eficiente para la representación que usamos. Evidentemente no trata de imitar a un cerebro humano que tiene intrincadas formas de especializar partes diferentes del cerebro. Pero funciona de una forma en cierto modo similar.

Y claro que se sabe como funciona una rn. Los modelos son diseños que buscan objetivos concretos de aprendizaje. Las capas se organizan con un propósito concreto. Que no podamos dar una explicación concreta a una salida no quiere decir que no se pueda entender el aprendizaje que hay detrás e incluso representarlo visualmente en modelos sencillos.

y

#34 ¡joder! Lo siento. Adiós.

rojo_separatista

#15, sí, de hecho tiene que ver bastante con cómo funciona el cerebro humano.

y

#38 Nadie sabe como funciona un cerebro, ni aproximadamente.

y

#14 No digo que eso sea mala idea. Lo que digo es que nadie sabe como funciona un cerebro ni por aproximación, y que las redes neuronales no tienen nada que ver con eso. Son otro invento distinto.

D

#7 pues claro que una comprensión. Es exactamente lo que se hace con los modelos de rn, modelizar un conocimiento de las entradas. Exactamente lo mismo que hace un cerebro, aunque en una complejidad órdenes de magnitud por debajo.

y

#26 No se modelizan los conceptos en ninguna parte. Es solo transformación de entradas en salidas a lo bruto.

D

#32 se modelizan, en la estructura de la red.

rojo_separatista

#32, estás haciendo bastante el ridículo. Por supuesto que las redes neuronales artificiales terminan modelando internamente el conocimiento con el que se han entrenado. De otra manera no podrían comprimir como lo hacen la enorme cantidad de información con la que se alimentan.

y

#39 No. No necesariamente y no hay ninguna razón para suponerlo.

rojo_separatista

#7, y qué importa que lo que hacen lo hagan igual que nuestro cerebro o no? Si hay un algoritmo capaz de detectar tumores en imágenes de resonancia magnética mejor que un oncólogo, de responder mejor que un humano en un servicio de atención al cliente, de escribir un trozo de código 10 veces más rápido un humano o de dibujar igual que un ilustrador profesional. ¿De verdad que nos importa un carajo que lo haga como un humano? La verdad que yo pienso que no. Este negacionismo absurdo de la importancia de la IA solo porque no lo hace como lo hace el cerebro humano, nos llevará a estrellarnos por no haber tomado determinadas decisiones a tiempo.

powernergia

#1 Es que eso es lo que estamos buscando, una máquina que "piense" y no se limite a recopilar datos, aquí lo explica bien:

"ChatGPT puede analizar millones de periódicos, pero no puede entender lo que dice ninguno de ellos."

b

#16 para entender se necesita conciencia plena. Tal vez con ordenadores cuánticos se pueda conseguir, cuando se describa que es.

D

#19 no se de donde sacas una afirmación tan categórica. Para nada es así. Ni siquiera hay consenso d e lo que significa "entender"

rojo_separatista

#16, es completamente irrelevante que piense como lo hacen los humanos. Lo que nos importa es que produzca los mismos resultados.

Muchos ilustradores decían que un IA jamás podría sustituirlos porque el proceso creativo no puede ser replicado en una máquina. El tiempo ha demostrado que este argumento era una completa ridiculez.

powernergia

#40 No tengo claro si las IA son creativas o es más bien que la mezcla de millones de imágenes existentes nos parece creativo.

rojo_separatista

#43, lo mismo se puede decir del 99.999% de artistas humanos.

powernergia

#44 Ese 0,0001% es la verdadera creatividad.

lol

En serio y sin tener ni puta idea, estoy de acuerdo con el entrevistado (que si sabe de esto), estamos lejos de una verdadera inteligencia artificial, si es que llega alguna vez.

rojo_separatista

#47, es que los debates metafísicos sobre cómo funciona la mente humana son irrelevantes. Lo que importa es lo que puedan hacer las IA's, y no tengo dudas que en pocos años serán capaces de hacer la inmensa mayoría de tareas intelectuales y creativas igual o mejor que la inmensa mayoría de seres humanos. De hecho en campos como el de la ilustración ya ocurre.

powernergia

#49 Si, a eso me refiero, y se refiere este hombre cuando dice que las IAs hasta ahora no piensan.

rojo_separatista

#51, es que no le veo la relevancia a decir esto, la verdad.

D

#9 que simpleza

D

#20 qué cuñadez

rojo_separatista

#20, lo que dices no tiene ninguna clase de sentido. Yo le puedo pedir que escriba una frase nueva con 5 palabras aleatorias que jamás se han escrito juntas y lo hace de forma coherente. Demostrando que por supuesto ha entendido como hay que utilizar cada concepto para que suene coherente. No lo busca en ninguna base de datos, por favor.

y

#41 No hay ningúnn concepto usado ahí. Ha usado el patrón de "escribe frase con", ha sacado de su base de datos frases que contengan esas palabras y las ha encadenado de forma similar a otras frases de su base de datos.

Es interesante, entretenido, pero nada más. Sirve para escribir notícias deportivas.

rojo_separatista

#48, vamos, que lo hace exactamente igual que como lo harías tú.

y

#50 En este caso sí, pero es un caso en el que no hace falta pensar nada. Es un simple automatismo.

rojo_separatista

#52, en muchos casos en los que hay que "pensar", los modelos de lenguaje también lo hace bien. roll

La clave están en que no memorizan los datos de entrenamiento, sino que construyen representaciones abstractas a partir de los patrones que hay en el conjunto de datos de entrenamiento.

y

#53 Las redes neuronales están para eso, para parametrizar los datos comunes a muchos ejemplos, pero eso no es un concepto, es compresión de datos.

rojo_separatista

#55, da igual el nombre que le quieras poner. El caso es que aprenden a razonar porque son capaces de resolver problemas que no han visto antes a partir de lo que han aprendido de generalizar con los datos de ejemplo.

¿Fallan a veces? Por supuesto, igual que el 100% de seres humanos que han existido en la faz de la tierra.

De lo que se trata es de hacerlos cada vez mejores y viendo como han evolucionado los últimos años lo serán. Solo hay que ver como han mejorado las IA's generativas de imágenes en apenas un año.

c

#9 "solo son bases de datos"
Te veo con un gran nivel de conocimiento sobre sistemas de AI, ahora explica cómo un sistema como chatGPT, que según tú solo tiene una base de datos detrás, puede escribir una respuesta única, jamás vista anteriormente, y que además se invente los datos contenidos en ella.

y

#18 No tiene la capacidad de inventar nada. Tiene unos parámetros almacenados que representan la parte que se ha guardado de todos los ejemplos con los que se le ha entrenado. Todos juntos y mezclados. Cada cosa que se le dice es identificada por conjuntos de esos parámetros y lanza otros nodos que son activados por esos parámetros. En definitiva usa trozos de los ejemplos memorizados mezclados de la forma en la que identifica sus entradas.

Lo que parece inventado es copia de cualquier ejemplo con el que se le haya entrenado. Vete a saber cual, eso no es posible everiguarlo. Es, en definitiva, una máquina determinista.

c

#20 Con inventar me refiero a que no extrae los datos de la base de datos, ya que lo que genera no ha existido nunca, y la prueba es que puede crear respuestas con datos inexactos, no contenidos en los ejemplos de entrenamiento.

Que los sistemas generativos no tienen conciencia creo que lo entendemos todos. A lo que me refiero es que no son "bases de datos", sino sistemas bastante más complejos, que no escupen lo que han visto, lo que hacen es almacenar un análisis de lo que han visto, que no es lo mismo, y con ese análisis crear cosas nuevas. Eso es bastante más complicado que tu visión simplista de "son solo bases de datos". Lo estás explicando como si las nuevas IAs fueran simples sistemas de regresión, cuando están compuestas por muchos más elementos.

y

#22 Es al revés, no tienen más nodos, sino menos. Eso es lo que las fuerza a generalizar.

D

#36 lo importante es la lógica. También hay implementación es de rn en hw. Pero el cómo no es lo importante. Son comparables desde un punto de vista general. Como una inspiración.

D

#24 pues como un cerebro humano. A ver si te crees que unos minutos después de que deja de recibir oxígeno hay mucha vida ahí.

j

#30 el cerebro humano es "hardware" y la IA software, no son comparables.

Y además estás comparando apagar un ordenador con la muerte de una persona.

Armagnac

Todo esto que llaman "inteligencia artificial" solo son procesos de automatización, ni más ni menos. Esto de la tecnología va por "olas" y esta es la que toca.

y

#6 Todos los sistemas de AI existentes son bases de datos de ejemplos. Tú les preguntas y te sacan la respuesta correspondiente al ejemplo con el que se les entrenó. Pueden mezclar muchos entre sí y sacar respuestas generales para luego adaptarlas al caso que les pongas, pero es eso y ya está. Solo son bases de datos.

j

Los avances actuales son mejoras para generar respuestas basadas en lo que hay en internet.

Pero no hay una ia multifunción que pueda decidir por sí misma qué hacer.

Ferran

#3 Todavía tinfoil

y

#4 No. "todavía" no. No es que ahora haya algo que sea pequeño y pueda crecer en el futuro. Ahora no hay nada. Eso está por inventar.

D

#3 hombre, pero todo ayuda. Se están generando modelos, arquitecturas nuevas, inversión en IA, hardware especializado, gente formada.. Claro que conduce a una IA más general. Yo diría que el último año nos hemos acercado mucho a ese objetivo. Y aunque no llegáramos nunca, la funcionalidad es inmensa, se están logrando recursos para un montón de entornos.

j

#5 lo que quiero decir es que todas las ias hasta ahora son herramientas, no entes autónomos.

Por supuesto que suponen un gran avance en muchos medios como los modelos predictivos y van a traer nuevas profesiones.

Siempre hay que tener en cuenta que hay gente que ha hecho la programación, el entrenamiento y la supervisión para controlar los resultados indeseados.

Una ia es un sw ejecutándose en un ordenador que una vez se apaga, simplemente deja de existir. Ni entes ni almas ni conciencia ni muchas cosas que he leído en las últimas semanas.