JovenCarcamal

#7 Me da que tiene poco conocimiento de lo que subyace por debajo de uno de estos sistemas. Habla de oídas

JungSpinoza

#73 #12 >> Es decir, basado en datos anteriores puede sacar información nueva

No, esta premisa no es correcta. Consideremos la evolución de los sistemas inteligentes en el juego de Go:

1. AlphaGo: Utilizó datos históricos, conocimiento experto y las reglas del juego para aprender.
2. AlphaGo Zero: Aprendió jugando contra sí mismo, utilizando únicamente las reglas del juego.
3. AlphaZero: Aplicó el mismo algoritmo para aprender otros juegos.
4. MuZero: Dominó Go, ajedrez, Shogi y Atari sin conocimiento previo de las reglas del juego.

https://deepmind.google/discover/blog/muzero-mastering-go-chess-shogi-and-atari-without-rules/

.

JovenCarcamal

#56 Cualquiera de estas: combinar, componer, acoplar, agregar, compaginar, conjuntar, juntar, unir, casar te la compro.
Pero copiar. No. Hay una cosa que se llama overfitting y que se evita, justo para que no copie.

c

#72 Te refieres a la copia literal. Yo, no.

l

#16 no. Un humano puede decidir que tiene que crear nuevos instrumentos o nuevos experimentos para llegar a conclusiones cuando considera que no tiene datos suficientes para llegar a una conclusión. No quero generalizar pero en general la ia te dirá cualquier cosa que le parezca que tiene sentido.

Por ejemplo, a chatgpt le dices que te saque la letra de una canción y si no la tiene se inventa la letra. Una IA puede usar muchos mecanismos para llegar a su conclusión, pero suelen ser métodos estadísticos y no llega a esas conclusiones

c

#22 Una IA no sabe si lo que dice tiene sentido. Solo saca la media y te la da.

N

#28 Lo que "sabemos" los seres humanos es simplemente el resultado que "sacan" los algortmos con los que trabaja nuestro cerebro, al igual que hace la IA.

Sí coincido con que las IAs generalistas actuales son muy imperfectas en comparación, e incluso es posible que la base tecnológica que estamos usando ahora mismo tenga limitaciones matemáticas insalvables y en algún momento haya que empezar de 0 con algoritmos completamente diferentes.

Pero en qualquier caso, el "saber" de los seres humanos no es algo místico que marque una diferencia con las computadoras artificiales: en ambos casos se trata de reconocimiento de patrones, predicción, y evaluación de resultados posibles (solo que uno tiene una base biológica y algoritmos que todavía no conocemos del todo, y otro una base sintética con algoritmos bien conocidos).

c

#42 Que sí. No hay ninguna diferencia fundamental entre un robot y un animal. Ambos son autómatas deterministas. Si parecen tan distintos es debido a la enorme diferencia en complejidad.

Pero yo me refería concretamente a las redes neuronales como las que se desarrollan actualmente. Hay que interpretar las frases dentro de su contexto porque sino sería imposible comunicarse. Es obligación del lector el hacer este trabajo.

N

#52 Por eso, ante la ambigüedad de un comentario (no es tu caso, pero esa misma frase en este contexto se usa frecuentemente de la otra manera), no he asumido tu intención, sino que he comentado en ambos sentidos. Para otros lectores que entiendan lo mismo que tú, contesto con que estoy de acuerdo con la naturaleza muy limitada de las IAs actuales. Para quienes entiendan que la inteligencia biológica es fundamentalmente diferente a la inteligencia artificial, comento que no estoy de acuerdo y por qué.

sauron34_1

#42 no, no, no. Un humano no trabaja en base a algoritmos, no somos autómatas. Para empezar el cerebro es plástico, un programa no.

N

#57 Los programas pueden crearse para seguir siempre el mismo conjunto de instrucciones (lo cuál es lo más simple y habitual), pero también para actualizar dinámicamente sus instrucciones en base a cambios en el contexto (incluso a cambios que no pueden preverse en el momento de la creación del programa, y cuya adaptación se delegue al estado futuro del mismo).

No somos intrínsicamente diferentes a las IAs, es solo que en el momento actual somos mucho mejores que las mismas en las tareas en las que destacamos.

sauron34_1

#81 que un programa puede actualizar dinámicamente sus instrucciones? Quieres decir que se puede reprogramar a sí mismo? No, hombre, no! Lo que se cambian son los datos, el programa, no. Eso seria un hito histórico y no se ha logrado, claro. Es más, el cerebro no se cambia a nivel de software, si no que cambia su hardware, las neuronas se reconfiguran.
Y claro que somos diferentes a una IA, ya en la segunda guerra mundial Alan Turing definió lo que es un computador, primero a nivel teórico con su Maquina de Turing y luego a nivel práctico con su máquina Enigma. Pero lo importante del asunto es que cualquier programa sigue la lógica preposicional y no puede escapar de ella (ya sabes, las puertas lógicas de las que están hechas los chips) y un cerebro humano no tiene absolutamente nada que ver con eso, más allá de que usa también para su funcionamiento impulsos eléctricos.
Esto ya lo vio Paulov con sus famosos experimentos de conductismo clásico que se trataron de aplicar a humanos a mediados de siglo y que acabaron en absoluto fracaso.

ChukNorris

#57 Las asociaciones que hace una ia se automodifican a medida que le meten más datos, esa es la correlación a nuestra "plasticidad cerebral" para manejar los datos.

sauron34_1

#124 no, no, no tiene nada que ver. La creación y destrucción de conexiones neuronales cambian los propios circuitos y procesos cerebrales, nada que ver con el cambio de datos de un programa.

f

#22 Exactamente lo que digo a todo el que me saca el temita de la IA, que hasta que no sepa que no sabe, hasta que no sepa que lo que está diciendo es una soplapollez porque le faltan datos no será medianamente inteligente. Y ahora mismo por más que le digas "oye, que no, que no tienes ni puta idea, que eso está mal, ellas siguen erre que erre"

Muy buenas herramientas pero lo de llamarlo Inteligencia creo que fue una estrategia de marketing del copón, y lo peor es que les ha resultado

E

#37 Te refieres a John McCarthy en el año 55? https://en.wikipedia.org/wiki/John_McCarthy_(computer_scientist)
Sí, seguro que estaba pensando en el marketing.

f

#45 Pues lo mismo se vino muy arriba nombrándolo.

E

#80 Todo el mundo parece tener alguna idea intuitiva de lo que es la inteligencia. Algunas son extremada restrictivas y otras poco operativas. Pero lo cierto es que no existe una única que además sea precisa y no plantee problemas. En el sentido de que algunos de los aspectos que normalmente se han asumido constituyentes de alguna de ella son resueltos, y se tiene alguna idea de cómo resolver otros, no parece un nombre tan inadecuado. Además estás asumiendo una concepción muy antropocéntrica de la inteligencia. Existen otras que son radicalmente diferentes (incluso entre humanos se ven variaciones).

D

#37 El término correcto es LLM. Pero a eldiario.es para hacer demagogia les viene mejor llamarles "inteligencias artificiales", y decir que "colapsan".

sauron34_1

#16 pues no y me frustra mucho que muchos sigáis pensando eso. No se ha aprendido nada del fracaso del conductismo? No has visto La naranja mecánica?
Los humanos NO somos autómatas, esto está demostrado desde los años 60. Las IA, como cualquier programa humano, son maquinas de Turing, es decir, autómatas.

black_spider

#55 por? Te refieres a fenómenos cuánticos en el cerebro?

sauron34_1

#60 no, no me refiero a nada en concreto, nadie sabe exactamente como funciona el cerebro humano y como consigue no ser un autómata. Lo que sí se consiguió demostrar es que no somos autómatas. Piénsalo, si lo fuéramos, se nos podría reprogramar (algo que se intentó con mucho ímpetu el siglo pasado) y por fortuna no se puede.

black_spider

#118 bueno existe el adoctrinamiento/propaganda que funciona bastante bien a gran escala. Por fortuna hay gente con la que no funciona tan bien, pero en término generales.

En todo caso la conducta humana es una materia que se me escapa. Puede ser que tengas razón porque yo no tengo mucha idea la verdad.

sauron34_1

#119 claro, por eso la sociología es una rama distinta, exactamente por lo que dices, porque funcionan a gran escala. Pero convencer a la fuerza a un individuo de algo es complicado, este nunca debe estar al tanto del proceso para que surja efecto.
Eso no quiere decir que no se pueda en un futuro, o que el cerebro sea algo mágico que escapa a la física, no digo eso. Tan solo que somos algo diferente a un autómata.

ChukNorris

#118 Pero lo de Pavlov y Watson no fue un éxito (totalmente fuera de la ética, y) de que se puede programar (no reprogramar) el comportamiento humano dado un entorno de aprendizaje y estimulos adecuados?

sauron34_1

#131 perros, lo logró con perros. Cuando lo intentaron con humanos, fracasó y La naranja mecánica explica muy bien por qué falla. Es lo que se intenta hacer por ejemplo en las terapias de conversión. Un desastre.

ChukNorris

#132 ¿Watson no lo hizo con un niño y funcionó?

DonScumm

#16 Ninguno de los procesos que realiza la iA a la hora de aprender y representar imágenes son análogos a la serie de procesos cognitivos que desempeña un cerebro humano cuando estudia y se inspira en otras obras.

Las personas aprendemos de forma muy distinta, creando conceptos mentales estructurados, en los que se vinculan muchas propiedades y asociaciones diferentes. (Ejemplo: nuestro concepto de "naranja" incluye su forma, color, textura, el conocimiento de que es una fruta, cómo cogerla, etc.)

Las IAs no adquieren conocimientos conceptuales de ese tipo. Extraen asociaciones estadísticas complejas y las aplican a contextos similares. Además, utilizan algoritmos de retropropagación imposibles de replicar por un cerebro humano. 

Debido a su naturaleza, las Redes Neuronales Artificiales obtienen malos resultados al tratar con relaciones simbólicas y son muy malas a la hora de resolver problemas utilizando el razonamiento abductivo, mientras que a los seres humanos se nos da de fábula. 

Es decir, las iAs no tienen las mismas capacidades cognitivas generales de los seres humanos y, a la inversa, las capacidades especializadas que tienen las iAs no las posee ningún ser humano. Hay una gran diferencia en operaciones, procedimientos, métodos, medios y resultados. 

Están infinitamente lejos de lo que compone una consciencia viva. Tampoco pueden representar una imagen con una determinada intención y mucho menos tienen la capacidad de expresar nada a través de las imágenes. La inspiración o la influencia es infinitamente más compleja en las personas, por lo que se trata de algo completamente distinto. 

Equiparar ambas cosas es simplemente una falsa equivalencia y un error de categoría. 

Además, ninguna tecnología debería tener los mismos derechos que un ser humano.

JovenCarcamal

Hay una cuestión, que nada tiene que ver con la parte técnica de la IA, sino con la parte económica. Hasta ahora el contenido generado artificialmente no tiene marca de agua o algún mecanismo para diferenciarlo, aunque los artistas se estaban quejando a las empresas no les interesaba. Ahora con esto, simplemente les interesa tener un mecanismo de no retroalimentación. Y, hasta te lo pueden vender como algo bueno para detectar fakes y cosas así.

Vamos que si esto del colapso es verdad, OpenAI, Meta, Google, empiezan a meter marcas de aguas por su propio interés en 3, 2, 1...

JovenCarcamal

#5 Por desgracia, para muchos, las IA's actuales muestran unos niveles de creatividad acojonantes. Creeme, llevo desde 2019, con GTP2, intentando generar texto literario de calidad y nunca lo había conseguido, hasta hace pocos días. Con estas indicaciones: "Siguiendo las directrices del documento sobre la creación de personajes, escribe un microrrelato de un gato al que se le ha muerto su dueño. Estilo Foster Wallace." generó esta maravilla:

"Schrödinger's Human"
El gato[1] observaba la urna sobre la repisa, su cola moviéndose en patrones fractales de inquietud. La paradoja de su existencia actual[2] le resultaba insoportablemente fascinante: ¿estaba su humano realmente muerto si él, el gato, no había presenciado el cese de sus funciones vitales? La incertidumbre cuántica de la situación lo estaba volviendo loco[3]. Decidió que la única solución lógica era derribar la urna. Ya sea que las cenizas se esparcieran o no, al menos tendría una respuesta definitiva sobre el estado de la materia dentro del recipiente. Con determinación felina, saltó hacia la repisa, ignorando la voz del humano que gritaba "¡No, Whiskers!", porque claramente esa voz solo podía ser un producto de su imaginación sobrecargada de atún y culpa[4].
[1] Un Maine Coon de 7 años, 3 meses y 12 días, para ser precisos.
[2] Post-humano, pre-adopción, cuasi-huérfano.
[3] Más de lo habitual para un felino doméstico promedio.
[4] La culpa derivada de haber ignorado los últimos deseos de su humano de "no comerse las plantas" y "no arañar el sofá nuevo", no necesariamente en ese orden.

c

#36 Todo lo que saca una máquina de estas proviene de sus entradas. Habrá creatividad ahí, pero lo que ha hecho la máquina es copiar.

JovenCarcamal

#56 Cualquiera de estas: combinar, componer, acoplar, agregar, compaginar, conjuntar, juntar, unir, casar te la compro.
Pero copiar. No. Hay una cosa que se llama overfitting y que se evita, justo para que no copie.

c

#72 Te refieres a la copia literal. Yo, no.

woopi

#36 Me encantó el relato! El humano de Schrödinger Una vuelta de tuerca a un tema sobado. Lo veo bastante humano, y hasta tiene una dosis de mala leche...

c

#33

JovenCarcamal

Resumiendo las primeros chinos ya se comían cualquier bicho con el que se cruzaban.