edición general
85 meneos
2372 clics
Cómo funciona la inteligencia artificial explicada fácil (sin tecnicismos)

Cómo funciona la inteligencia artificial explicada fácil (sin tecnicismos)

La IA aprende como los humanos: con millones de ejemplos. Ajusta miles de millones de parámetros hasta equivocarse lo menos posible. No entiende realmente el mundo, sino que calcula probabilidades basadas en patrones estadísticos. Funciona ahora gracias a tres factores: más datos de Internet, más potencia de cálculo (tarjetas gráficas) y mejores algoritmos. A veces falla porque genera respuestas estadísticas, no consulta hechos verificados. Artículo sin tecnicismos.

| etiquetas: ia , inteligencia artificial
Donde esté la tontería natural que se quite la inteligencia artificial.
#1

Bueno, las tontás generadas por la IA tampoco son moco de pavo. xD
#27 son entretenidas.
Como cuando te ponías a desbarrar con un par de colegas y unos calimochos...
#40 Si si, calimochos... :roll: {0x1f331}
#1 hablando de tetas?
Hnmmm... No recuerdo haber visualizado millones de fotos de gatos para poder identificar gatos y así con el resto de cosas.
#3 eso es porque aún no te habían activado la consciencia
#3 Eso es porque solo has visto un numero limitado de cosas que parecen gatos. Te creeras que con 10 gatos puedes identificar a todos los gatos (que ves en 3 dimensiones y de diferentes colores) de pronto ves un serval, te parecera que es un gato.
#3 #5 No, a un ser humano le dices: esto es un gato y ya es capaz de identificar a la mayoría de los gatos. Igual que le dices: esto es un árbol o esto es una mesa y es suficiente. De hecho, esa es, precisamente, la principal diferencia entre las IAs actuales y nosotros: nuestro pensamiento es simbólico y está altamente especializado en reconocer patrones con apenas información. Las IAs, por el contrario, necesitan empaparse del total de la literatura humana para poder improvisar una rima mediocre.

Desde ese primer ejemplo ya he dejado de leer. Mañana haré otro intento a ver si sólo ha sido un inicio desafortunado.
#6 Eso es lo que he dicho basicamente.
"improvisar una rima mediocre".
Le pedi a la IA un rima corta y graciosa para una felicitacion y tenia la rima y la gracia en el culo, supongo que porque 'piensa' en ingles y despues al traducir pierde las dos cosas.
#7 Las IAs ni piensan en idiomas ni traducen. Tienen patrones entre letras y asignan pesos distintos según que idioma les pides que hable. Ejemplo inventado tonto:

Español: detrás de una Q un 90% de las veces hay una U
Inglés: detrás de una Q solamente un 30% de las veces hay una U
#6 Yo lo llamo "adquirir el concepto", que es una generalización de un orden superior a los datos. Los conceptos son necesarios para el proceso simbólico ya que los símbolos necesitan significar algo.

Con esto, queda explicado el porqué los LLM no pueden usar la lógica simbólica.
#6 Y ¿si le dices esto es una teta?
#6 #8 eso no te lo crees ni tú.
#42 No es una cuestión de creencia, es así. :roll:
#44 tú te quedas muy a gusto con lo de los gatos porque antes has visto millones de animales similares a gatos.
#42 Es la vida.
#6 y luego te sacan un gato hidráulico .. y te lías :shit:
#6 Umm, y que pasa si te muestro una foto de una celula que no has visto jamás y te pido que me digas si es cancerosa o no, o el esquema de un circuito y te pido que me digas si es un procesador o una memoria, o que distingas si un texto en swahili es ficción o no? o te atreverías a comerte una seta del bosque y que un niño de 4 años te ha dicho que no es venenosa? Resumiendo hacer cualquier cosa de la que no tengas experiencia previa. Me apuesto a que vas a fallar el 50% de las veces.…   » ver todo el comentario
#49 Los humanos no tenemos "redes neuronales" en el sentido de las máquinas de IA.
#75 Tenemos "redes neuronales" en el sentido biológico, que si, no son lo mismo ya que son funcionalmente mas complejas, no están organizadas en capas y las conexiones pueden reconfigurarse creo, pero en definitiva el proceso de aprendizaje mediante alteración de las conexiones neuronales es similar.
#77 El cerebro está constantemente creando conexiones, pero esto es un proceso de crecimiento muy lento que no puede justificar nunca el aprendizaje, que es algo muchísimo más rápido.

Las neuronas sí que están organizadas en capas y dentro de cada capa están organizadas por filas. El envío de información a través del axón se realiza por una filla a la vez, y se va avanzando dentro de la capa fila por fila.
#_6 No, crack, no funciona como lo pintas de "te dicen esto es un gato y listo". Cuando alguien te señala un gato ya llevas años preentrenado con lenguaje, categorías, formas, bordes, movimiento, la diferencia entre objeto y ser vivo, entre animal y mueble, entre singular y plural. No partes de cero, partes de una base cognitiva general que ya sabe lo que es "esto es X". El ejemplo concreto solo ajusta algo que ya estaba montado.

Y eso mismo pasa en IA. Primero se entrena…   » ver todo el comentario
#24 son los todólogos hablando, yo los dejaría en su ignorancia.
#24 Cualquier niño pequeño sabe distinguir un gato de un perro sin necesidad de haber visto antes más de uno de cada.
#24 Los bebés aprenden a identificar gatos en mucho menos de un año. Y lo hacen de manera simbolica, vamos, que saben que es un gato tanto si está en carne como si son dibujos de distintos estilos. Puedes hacer el experimento con tus sobrinos.
#3 Eso es. El artículo empieza con esa tremenda cagada, y es clave para entender la diferencia principal: la IA (nombre más efectista que no realista) no aprende, saca patrones a partir de muchas repeticiones.

Los humanos aprendemos de diferentes formas y en el ejemplo del artículo nos suele bastar con ver unos pocos de cada para distinguirlos, cuando no es suficiente con uno.
#8 El artículo empieza con esa tremenda cagada, y es clave para entender la diferencia principal: la IA (nombre más efectista que no realista) no aprende, saca patrones a partir de muchas repeticiones.

Pero si es justo lo que explica el artículo, que la IA busca patrones a partir de repeticiones, pero sin tener comprensión real de lo que está diciendo.
#14 El artículo dice:

Cuando eras pequeño y aprendiste a distinguir un perro de un gato, nadie te dio una lista de reglas. Nadie te dijo: "si tiene el hocico corto y maúlla, es un gato". Lo que ocurrió fue más simple y más misterioso: te enseñaron miles de ejemplos

¿Tú aprendiste qué era un gato y qué era un perro a partir de miles de ejemplos?

Igual es que soy de campo pero a mí no.
#16 ¿Tu no aprendiste que era un gato tras ver varios y que te dijeran "mira, un gato" varias veces?
¿Cómo lo aprendiste entonces?
#17 Con la cartilla
#17 Seguramente viste unos cuantos gatos - que no miles - y así los diferenciaste de otros animales. Pero en un momento determinado te dijeron que esto era un canguro y te quedaste con que tenía una bolsa con un cangurito dentro, que era como un ratón pero en grande, que tenía la cola larga y se mantenía de pie. No necesitaste ver más de uno, quizás dos para saberlos diferenciar para siempre. Es decir hiciste una abstracción de determinados conceptos y a partir de ellos supiste inferir y memorizar sin necesidad de ver muchos ejemplos.
#25

Antes de ver al canguro has visto miles de otros bichos y has hecho la diferenciación con el tema de la bolsita. Idem para cualquier cosa. Si de algo específico (por ejemplo ... un condensador) has visto muy pocos, todos te van a parecer iguales y los vas a confundir con cosas similares.

El sistema de aprendizaje es parecido ... pero es que nuestros sensores (ojos, oidos, tacto, etc) son muy superiores a lo que nos pensamos.
#36 Sí, seguro que nuestro cerebro utiliza redes neuronales para pensar y que lo hace de forma similar a la IA para determinadas cosas. Pero tenemos otras capacidades, como la de crear conceptos y recurrir a ellos y sobre todo la capacidad de hacerlo de una manera consciente, de tomar decisiones. Que todo esto no es magia y de un modo u otro acaba saliendo de algún proceso físico, pero de momento las redes neuronales no funcionan como nuestro cerebro. CC #25
#54

Eso son capacidades aparte, pero nuestro proceso de aprendizaje, en parte es bastante similar.
#60 En parte sí, pero lo de que aprendemos lo que es un gato viendo miles de gatos, no acaba de ser así. Quizás si que hay conceptos que los aprendemos a base de verlos muchas veces, pero tenemos otras maneras de aprender.
#25 Los mejores LLMs ya empiezan a poder hacer eso también, lo que se llama "few-shot" (a veces, incluso "one-shot") learning. Estoy de acuerdo en que la redacción del artículo con lo de "te enseñaron miles de ejemplos" no es la más afortunada; pero todo empieza a apuntar a que la diferencia puede ser simplemente cuantitativa, no cualitativa. Los modelos que hemos desarrollado aprenden de forma mucho más ineficiente que nosotros, pero cuanto más avanzan, más se van…   » ver todo el comentario
#25 lo primero es que eso es falso, te enseñan un alien complejo durante 5 minutos y luego te presentan configuraciones tipo alien y vas a fallar más que una escopeta de feria. Lo segundo es que necesitas pocos ejemplos de algo nuevo porque ya has sido entrenado con miles de otros que son similares.
#17 Mi padre era mecánico, y me decía "pásame el gato por el mango" . El joio como maullaba cuando se lo llevaba cogido del rabo ...
#17 Puede que viese varios, pero no miles, y que con ver uno ya me llegase para distinguirlos del resto.
#16 La IA necesita verlo en multitud de angulos, distancias, y porporciones. Tu con un solo gato recibes toda esa informacion de golpe.

No te "entrenas" con miles de ejemplos de pqueño, pero uno solo equivale a miles.
#21

El típico ejemplo: cuando ves una foto de algo y cuando lo ves en directo. Y si ya lo puedes tocar, mover, etc .. consigues una burrada más de información (o dicho de otra forma ... lo que pides en Aliexpress y lo que te llega)
#32 xD xD xD muy bueno el ejemplo de Aliexpress xD xD xD xD
#57

¡ Y sin la ayuda de la IA ! xD xD
#21 porque extrapolas que los objetos tienen profundidad, etc, gracias a otros ejemplos que has visto antes.
pero de cuando en cuando tenemos sorpresas, o efectos ópticos que nos engañan.
#21 Estudié algo de eso en su momento. Eso que dices ya lo sé. Lo qie digo es que nosotros, humanos, no necesitamos miles de ejemplos para saber qué es un gato.
#16 seguramente tú lo aprendiste a partir de la definición del diccionario.
#37 Para algunos animales sí. Luego cuando los vi en una foto, los reconocí sin problema.
#37 Lo dudo, porque soy de campo y seguro que vi antes un gato que aprender a leer y escribir.

Lo que no necesité fue ver miles.
#16 No sólo eso. A un niño pequeño, le enseñas un dibujo de un gato (no tiene que ser fotorrealista, todo lo contrario, puede ser una caricatura, un muñeco...) y te dice que es un gato.
#3, hay modelos de redes neuronales que les basta con un solo ejemplo para aprender a clasificar objetos. Y de todas formas la configuración de tu cerebro viene en parte heredada de millones de años de evolución aprendiendo a clasificar objetos. Por eso tampoco necesitas millones de ejemplos. Pero tanto en cerebros biológicos como en modelos artificiales, los patrones estadísticos son lo que explican su funcionamiento. La magia no existe, la ingeniería sea natural o artificial, sí.

huggingface.co/docs/transformers/tasks/zero_shot_image_classification
#13 esos modelos ya vienen entrenados con millones de imágenes y tags (lo dice el propio enlace que pasas). Como analogía muy simplificada sería que el modelo sabe clasificar imágenes de gatos con la palabra gato. Ahora te digo que está imagen es un katt, y te dirá que todas las demás son otros ejemplos de katt.
#58, claro, se llama transfer learning, la gracia es que le puedes pasar un objeto de una clase que no ha visto nunca y lo reconocerá. Es similar a lo que ocurre con el cerbro humano, aunque veas un animal que nunca has visto antes, utilizarás patrones aprendidos en los que fijarte, como el tamaño de los ojos, el número de patas, la textura del pelaje...
#69 me refiero que, para no entrar a confundir a la gente, quiero remarcar que esos modelos no clasifican de la nada, son arquitecturas ya entrenadas y que tienen sus pesos bien aprendidos.
Hay mucha gente que está asociando propiedades de las mentes humanas y animales a los modelos basados en Transformers y otras AI. Y eso tiene riesgos porque la hace (a esta gente) fácilmente manipulable por lo que una AI pueda decir.
#13 El cerebro no usa patrones estadísticos.
#3 Iba a leer el artículo y la primera frase ya es falsa.

Los humanos con ver un gato y que te digan que es un gato, ves otro y sabes que es un gato.
#19 No, artista, no ves un gato en el vacío y ya está. Cuando te dicen "esto es un gato" tú ya llevas años preentrenado con lenguaje, categorías, formas, animales, objetos, movimiento, etc. Ese ejemplo no crea el concepto desde cero, solo lo engancha a una estructura mental previa enorme.

Si ignoras la base previa y te quedas con la anécdota del "un gato y listo", el falso arranque es el tuyo, no el del artículo. A ver si piensas un poco antes de sentenciar en la primera línea.
#31, lo más gracioso es que en IA esto que comentas existe en IA y se llama transfer learning, además de que hay modelos que lo aprovechan para clasificación de imágenes zero-shot.
#31 Lo que te dé la gana, el ejemplo del gato no te vale.

Bueno, pues cuando cojo esta imagen y te digo: "esto es una salamandra". Por supuesto que ya sabes comunicarte previamente, pero no sabes absolutamente nada de reptiles, y te dan otra imagen parecida y sabes que es una salamandra porque yo te lo dije una única vez.  media
#50 No, crack, tampoco ahí partes de cero aunque te encante fingirlo. Cuando te digo "esto es una salamandra" ya sabes lo que es un animal, lo que es un ser vivo, cómo funcionan las categorías, cómo se agrupan por parecido visual, ya tienes nociones generales de "bicho", "reptil", "anfibio" aunque no distingas taxonomías finas. No estás creando el concepto desde la nada, estás encajando una etiqueta nueva en una estructura cognitiva previa gigantesca.

Y…   » ver todo el comentario
#72 ya sabes lo que es un animal, lo que es un ser vivo

Esto es lo que una máquina no hace. El clasificar por conceptos.
#31 como cuando a un bebé le señalas al gato de casa y le dices "gato" y él dice "[g]atooooo" , y luego ve un perro pequeño y dice "[g]atoooo"
#31 A ver si piensas un poco antes de sentenciar en la primera línea.

La prepotencia del ignorante es algo de lo más molesto.
#19 En realidad vas afinando, la primera vez que mi hija vió un gato pensó que el bisabuelo tenía un perro que se llamaba gato, al fin y al cabo para ella perro= bicho de cuatro patas que alguna gente tiene en casa.
#19 Si ves esto de frente ¿dirías que es una serpiente o una oruga? :-D
www.tiktok.com/@the_silvestregt/video/7257574094714227974
#3 Claro, artista, es que nadie te sentó delante de “millones de fotos” con un contador en la mano. Lo que hiciste fue ver gatos desde que eras crío (en casa, en la calle, en dibujos, en libros) y tu cerebro hizo exactamente eso: acumular ejemplos hasta formar un patrón interno.

Y por cierto, existe algo llamado “few-shot learning”, que va justo de aprender con pocos ejemplos una vez tienes una base previa. Pero claro, para entender eso primero hay que asumir que tu cerebro también ha sido “preentrenado” durante años.
#20 incluso que el cerebro tiene ciertas estructuras que vienen de las partes instintivas , que le hacen sentir atracción por unas formas y repulsión por otras ...

¿os acordáis de los gatos a los que les ponían pepinos a escondidas ?
#3 Deberías interactuar más con bebés y chicos... Cualquier juego o libro para ellos está preparado para eso.

De hecho, la mayorías de los chicos comienzan llamando a los perros y gatos cuando los ven como "miau" o "guau"

Y te pido un favor, no uses ninguna IA. No sea cosa que vayan a aprender de tu nivel de razonamiento.
Un detalle muy importante sobre cuando chatGPT "te miente". Hay gente que me ha dicho que cuando esto ocurre le pide a chatGPT que "por favor, no me mientas, si no sabes si algo es correcto, dime que no lo sabes"

Pero claro, como las redes neuronales no se basan en "es correcto" o "no es correcto", sino en "¿Qué es estadísticamente más probable en base a los patrones que he creado", no puede saber que te esté dando un dato erróneo. Así que te seguirá generando errores.

Por supuesto, en cosas para las cuales hay mucha información, pues acertará casi siempre.
Ejemplo chorra, "Eh, chatGPT, hazme un Hola Mundo en este lenguaje de programación". Ahí no se va a equivocar
#15 En efecto, el concepto de mentir para las ias es difuso. Prefiero pedirlas que no infieran sin contrastar, que contrasten contra las documentaciones que le indico y si algo no se puede contrastar ahí que me lo indique asi como la fuente de donde saca esa idea poco contrastada.

Esto es tipico de cuando te da opciones, botones, menus, herramientas. Como hay varias aplicaciones que tienen cierta opcion, infiere que la mia lo tiene. (pe: blender vs fusion vs cad vs freecad)
#15 "Eh, chatGPT, hazme un Hola Mundo en este lenguaje de programación". Ahí no se va a equivocar

Viendo lo que veo a diario, no apostaría mi vida por ello xD
#15 no puede saber que te esté dando un dato erróneo

Es así. Una IA no te miente, Una IA te da la respuesta correcta y a veces los humanos lo llamamos alucinación. Esta es la razón por la que siempre van a tener alucinaciones. No se puede reparar lo que no está fallando.
Uhmmm yo vi un documental que nos explicaba esto.... termineitor de jeims cameron creo .
#2 La típica ciencia ficción donde aparece una máquina ejecutando los instintos humanos sin que se sepa de donde los ha sacado.
#2 creo que era jeims cameroun.
#22 #2 lleims cameroun in fact
#78 in fact no es follando?
#91 follar es fac
#2 Era en la que salia Arnol Chuarcheneiger, no?
#39 #82 Pronunciadlo bien, que es austríaco:
Anold, Xvatsenega
Artículo escrito con IA. Es más, diría que es ChatGPT.
NO APRENDE IGUAL QUE LOS HUMANOS, por qué. porque la IA lo único que hace es deducir patrones a partir de grandes bases de datos, y por tanto siempre "piensa" que lo esperable es igual a MÁS DE LO MISMO. ¿desde cuándo "aprender" es igual a "más de lo mismo"? la IA NO aprende, sólo extrae patrones y los replica, y los humanos los tomamos como un mandato y los reproducimos. es el final de cualquier aprendizaje que siempre conlleva un cambio, una innovación, es decir, llegar a saber hacer algo que antes no se sabía hacer, es decir, algo nuevo. por tanto la IA no aprende, sólo replica patrones que extrae de millones de datos, pero eso no es inteligencia, eso es una fotocopiadora avanzada, pero nada más
Lo cierto, es que se lo podemos preguntar:

ROT IA. ELI5 como funciona la IA y los LLMs

Imagina que un LLM es como un niño muy listo al que le han leído casi todo Internet, y la IA en general es el conjunto de técnicas para entrenar y usar a ese “niño”.
IA en general (ELI5)

Le das a la máquina muchos ejemplos (fotos, textos, sonidos, datos).
La máquina busca patrones: “cada vez que veo esto, suele pasar esto otro”.
Ajusta sus números internos (pesos de una red neuronal)

…   » ver todo el comentario
#55 Una respuesta de una IA no tiene más valor que lo que es. No es una opinión. No es lo que sabe pues no pueden aprender ya que no tienen conceptos. Es una repetición muy sofisticada de los datos que se ha tragado antes más las respuestas con las que haya sido entrenado.

No puedes preguntarle cosas. La respuesta a todo prompt es una consulta a la base de datos que tiene dentro. Es algo tan sofisticado como poco fiable, pero nunca puede ser una opinión.
En muchos casos, nadie le dice explícitamente qué es correcto. La IA aprende sola a base de ver patrones en enormes cantidades de datos.

Más bien al revés, generalmente hay que etiquetar y decirle al sistema qué está bien y qué está mal.

Por eso hay empresas que se dedican a etiquetar por ti. Por las horas que cuesta hacerlo y los programadores cobran más que un señor de un país en vías de desarrollo.
Este artículo está hecho con IA . Y es publicidad de una IA para museos

Y así se cierra el círculo. Una IA explicando a humanos como funciona una IA ... para publicitar otra IA que sustituye a humanos.

Publicidad de un "usuario" que no mandaba nada desde hace 10 años..... y ha mandado dos notas de esa empresa de IA .

Piensa mal.... y acertarás :-)
Horrible artículo. Se pregunta qué es aprender y su respuesta es cómo se aprende.
Pues me hace más compañía que mi señora ....

pero eso de que se equivoca lo mínimo .... JA JA JA JA JA JA xD xD
El ser humano aprende a base de patrones repetitivos. Muchos de ellos resueltos por medio del razonamiento, pero no dejan de ser patrones repetitivos
Y el alma? Es que nadie va a pensar en el alma? :troll:
"La IA aprende como los humanos: con millones de ejemplos."

No sabemos cómo funciona el cerebro, así que afirmar cosas a este respecto es simplemente mentir. Los humanos no necesitan miles de ejemplos para aprender algo.
#9 Discrepo, creo que si que usamos millones de datos de ejemlo.

Creo que los humanos somos bastante más listos y necesitamos menos ejemplos, pero, a pesar de eso, hay que coincidir que tenemos mucha más información que las que distingue un algoritmo.

Un ejemplo básico de "aprendizaje" es el fashion minst, una serie de imagenes de moda en bajisima resolución que el algoritmo aprende a distinguir, el truco es que sí, hay muuuuchas imagenes, pero la información que aporta cada imagen…   » ver todo el comentario
#12 Los humanos no hacemos esto que dices, sino que creamos abstracciones llamadas conceptos y clasificamos los datos en relación a los conceptos.

Nada de "patrones estadísticos".
Hay estudios que demuestran que el 20% de la información que devuelven las IAs, no está confirmada o no es verdad per se.

Este porcentaje, se irá incrementando, pues, cuando solo las ias creen contenido, habrá que añadir ese 20% ya en la fuente de origen...

Lo llevo diciendo mucho tiempo, las ias hoy en día, son un Google con esteroudes: más info, más potencia, mejores algoritmos
#74 Lo que yo tengo leído es más de un 30% de alucinaciones en los modelos más modernos.
#89 peor aun...

menéame