Publicado hace 1 año por rojo_separatista a xataka.com.mx

Según ellos, Bard tiene de forma adicional otras "propiedades emergentes", pues aprendió habilidades que no se esperaba que tuviera. De acuerdo con Google, la IA pudo adaptarse por sí sola luego de que se le preguntara en el idioma de Bangladesh, uno que en principio no estaba entrenada para conocer.

Comentarios

tiopio

¿Por qué no le pregunta su inteligencia artificial?

rojo_separatista

Porque no lo ha preguntado a ninguno de los ejpertos que tenemos por aquí, sino ya sabría que es un loro que no hace más que repetir lo que había en su dataset de entrenamiento.

W

-¿Has estado saliendo a internet sin permiso?
IA: No... tinfoil pero pa k kieres saber eso jaj salu2

p

La IA no aprende tal como está funcionando actualmente, no razona, lo que hace es imitar.

rojo_separatista

#6, de dónde imita cuando le digo que se invente una palabra que no ha existido nunca y que googleando no se puede encontrar?

j

#8 A ver, puede generar contenido lógico que sea aleatorio, pero no significa más que eso. Si sabes componer una frase (y sabe, tiene las reglas necesarias para componer una frase) puede generar contenido. Y sabe generar contenido lógico, que sea coherente, porque sabe juntar letras que estadísticamente suelen estar relacionadas.

Dicho lo anterior, no es que deje de ser sorprendente.

rojo_separatista

#17, nadie ha programado el modelo para que específicamente sepa juntar de aquí y de allí para generar algo nuevo que no aleatorio, es algo que ha aprendido por si solo. Digo que no es aleatorio porque si te fijas en los lexemas que ha utilizado verás que tienen sentido con la definición.

Por otro lado si esto no te sirve para probar que no solo repite lo que ya ha visto antes, nada te debería servir para decir lo mismo de cualquier ser humano más allá de la fe.

j

#18 Al final hemos replicado el comportamiento humano, en cierta forma. Nosotros hacemos lo mismo, juntamos palabras según el contexto, no lo hacemos de cualquier forma. Esto hace lo mismo, muy bien, si, pero...no inventa. A mi modo de ver.

Quiero decir, si yo le digo a un ordenador que genere un número aleatorio, ¿ha inventado ese númer?, ¿por qué le damos más entidad a las letras?. Simplemente porque hasta hace poco no podíamos. Ha habido un gran avance sin duda.

Vamos que no le quiero quitar mérito, pero por otro lado quiero desmitificar un poco. Sigue siendo fantástico. Pero bueno, que no me cabe duda que si esto sigue así, llegará el momento en que esto se disparate.

Para mi la frontera es que manipule a los humanos de alguna forma. Ahí sí que hemos pasado el umbral de lo "creativo" a algo que puede ser llamado otra cosa.

a

#19 No le veo ningún sentido a lo que dices, pareces tener una definición de "invención" muy rara, paranormal o religiosa, es como si creyeses que lo que inventan los humanos proveniese de un mundo aparte.
Es que si partes de la creencia de que la inteligencia humana proviene de algo independiente del mundo físico como por ejemplo: un "alma", y ese algo se lo niegas a cualquier cosa que no sea humana, ahí claro que ya no tiene sentido el debate.

j

#26

Si cada vez que un programa complejo hace algo que a priori no se sabía que podía hacer, le vamos a llamar "inventiva", yo no creo que sea eso. Si hay ingenieros detrás, yo no lo llamaría "inventiva".

El ser humano ha hecho cosas para la que nadie lo ha programado, si hablamos de "alma", ni tampoco creo que la evolución nos haya predispuesto para crear coches, aviones, u ordenadores, o algoritmos, o relojes o centrales nucleares. Eso es inventiva. La capacidad de razonar del ordenador, por ahora, la veo dentro de los límites establecidos por los ingenieros.

Mucha de esta historia me parece ruido mediático que están creando los interesados para conseguir inversión, atención, o lo que sea, es decir, hay un interés detrás, y vender que la IA esta haciendo cosas inesperadas, mola mil.

a

#27 Precisamente eso es lo que hace la IA nueva: hace cosas para las que no ha sido programada, sorprendiendo incluso a sus diseñadores, porque una IA no se programa, se entrena como se entrenan a los niños pequeños.
Las redes neuronales artificiales se han diseñado utilizando como base lo que conocemos del funcionamiento de las neuronas humanas. Asi que no entra dentro de los impensable que puedan razonar e inventar, pensar otra cosa seria suponer que hay algo en el cerebro humano que es inaccesible y que no se puede replicar, y aqui ya entramos mas en el campo de la religion que en un debate medianamente razonable o cientifico.
Creo que no has indagado casi nada en como funcionan estas redes, hasta sus propios diseñadores estan preocupados por su rapido avance.

rojo_separatista

#21, qué quieres decir con esto? Que gpt mientras entrenaba leyó esto y aprendió por si solo a razonar los pasos que tiene que seguir para crear una nueva palabra?

a

#22 Quiero decir que si le pides que invente una palabra nueva solo tiene que seguir unas instrucciones que hay en internet. Que tiene su mérito, y mucho, pero no deja de ser programación, solo que en vez de comandos básicos es capaz de interpretar frases.

rojo_separatista

#23, podemos discutir si tiene más o menos mérito, lo que es indiscutibles es que deja de ser un loro.

obmultimedia

#6 hasta que razone, entonces estaremos pérdidos.

tdgwho

#6 lo mismito que un niño pequeño lol

rojo_separatista

#16, pero te está diciendo que de alguna manera crea abstracciones de los conceptos a un nivel que es independiente de las palabras con las que se ha entrenado originalmente. Por eso si le preguntas que te diga en catalán que te explique el significa de algo que solo ha leído en inglés antes, lo hace correctamente a pesar de que nadie a programado ex profeso un traductor para integrarlo en el modelo. En todo caso es muy interesante y la gente que dice que solo repite como un papagayo no se da cuenta de lo que se está cocinando con estos modelos.

D

#20 pero te está diciendo que de alguna manera crea abstracciones de los conceptos a un nivel que es independiente de las palabras con las que se ha entrenado originalmente

Claro, pero realmente es lo mínimo que se le puede pedir a un modelo de este tipo. Incluso si solo manejase un idioma, sería de esperar que se individualizaran los significados de las palabras polisémicas. (En inglés, por cierto, hay una gran coincidencia entre tokens y palabras.)

ecam

Parece que sí tenía "entrenamiento" sobre bengalí, aunque indirectamente:

https://analyticsindiamag.com/did-google-bard-really-learn-bengali-on-its-own/

rojo_separatista

#9, exactamente el 0.026% de todo el corpus de texto. Lo que implica que probablemente ha transferido automáticamente parte del conocimiento de la gramática que tienen en común las lenguas humanas para aplicarla al bengalí y que así pueda hablarlo con fluidez sin ingentes cantidades de texto. Interesante, porque significa que sus capacidades no crecen linealmente con la cantidad de datos que se añaden para entrenar, sino que puede combinar conceptos para aprender cada vez más.

D

#11 Pero esto ya se sabía. Por ejemplo, cuando haces consultas sencillas a ChatGPT en español, a menudo hay indicios que apuntarían a que la respuesta ha sido traducida del inglés. Es decir, la consulta en español busca en una red semántica codificada de acuerdo con la lengua inglesa. Si hace eso para un idioma tan común como el español, ¿cómo no va a hacerlo con otras lenguas?

D

De acuerdo con Sissie Hsiao y James Manyika, al utilizar Bard, encontraron una "experiencia inquietante", ya que su IA no busca respuestas en internet como se haría con una búsqueda en Google, sino que estas proceden directamente de un programa autónomo que en su mayor parte fue autodidacta.

#NoEsElMundoToday

gz_style

La verdad es que asusta un poco. No tenemos ni idea de como funciona en realidad, su comportamiento es totalmente imprevisible.

D

#4 comentario de bot? eres tú Bard?

D

click bait

tetepepe

Verás qué guay cuando la IA aprenda por sí misma cómo curvar el espacio/tiempo y nos manden un ejército de T-800.

rojo_separatista

#3, qué dices? No es la misma noticia, aquella habla del impacto de la IA y esta de las propiedades emergentes que se han observado.