Hace 10 horas | Por Lord_Cromwell a jotdown.es
Publicado hace 10 horas por Lord_Cromwell a jotdown.es

El pasado jueves 26 de septiembre, en el marco de las Conversaciones de Formentor, se celebró un «Coloquio de revistas, suplementos y monográficos, literarios y culturales» que pretendía girar en torno al tema «El dilema postmoderno: ¿lectores o usuarios?», algo que no llegó a suceder. En este evento se reunieron responsables de medios y suplementos culturales para analizar y discutir la complejidad de los medios y suplementos culturales. A raíz de la intervención de Isaac Marcet de Playground Magazine el debate se centró en la inteligencia...

Comentarios

WcPC

#1 Lo de ponerle nombre distinto a las IAs que gestionan el contenido y a las que "chatean" contigo es lo que tiene.
Lo de pedir que los algoritmos sean públicos cuando muchos se diseñan de tal manera que "aprenden" de manera independiente es peligroso porque da a entender lo que no es.

Y una cosa, los que dicen que "va demasiado rápido", "no podemos adaptarnos"...

Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas en los años 60s y 70s, solamente que entonces el hardware ha mejorado exponencialmente y se ha introducido un par de mejoras algorítmicas que permiten optimizar el uso de hardware de manera bestial (básicamente el uso de memoria)
Pero las "soluciones" presentadas por escritores como Assimov en su época son perfectamente aplicables.
Si se obliga a implementar restricciones desde el inicio de la IA, desde antes de comenzar su entrenamiento, se pueden solucionar muchos de los problemas...
Y esas decisiones no tienen porqué ser, simplemente, las 3 leyes de la robótica (ya sé que al final fueron 4), pero son un buen comienzo.
Porque ahora, con la selección de blancos automáticos que algunas naciones están admitiendo su desarrollo, podemos encontrarnos en situaciones muy chungas en poco tiempo.

Lo digo porque, algunos están diciendo que la siguiente generación de IAs está cerca, si no hemos tomado consciencia de lo que debemos y no debemos dejar hacer a la generación que lleva con nosotros desde hace 50 años, la siguiente se nos va a escapar de las manos si o si.

tul

#2 las leyes de la robotica? que eso es fantasia, ni existen, ni existiran en el mundo real.

RamonMercader

#5 Asimov: aquí tienes las leyes que todo robot debe cumplir

También asimov: aquí tienes decenas de cuentos y novela explicando porqué esas leyes van a fallar

Solo le faltaba haber propuesto soluciones a los problemas que sus leyes han creado para convalidar la carrera de político lol

vjp

#2 como puntillosito profesional agregaría que el gran cambio fue el backpropagation en el año 86.

RamonMercader

#2 no es cierto, el paper de los transformers (Atention is all you need) es de 2017 y es lo que ha habilitado esta generación de IAs y ha abierto nuevas vías de investigación y de negocio.

Obviamente se apoya en fundamentos matemáticos desarrollados en los 50-60 como dices, pero no ha sido solo hardware.

WcPC

#17 Claro...
Ese paper es la mejora algorítmica que comento, que permite la optimización bestial en el uso de memoria.

oLiMoN63

#1 eso era una buena entradilla...

sat

A mi las IAs me parecen geniales mientras no manguen el trabajo de la gente para entrenarlas.

haprendiz

#7 Si eso fuera cierto, seguiríamos en la Prehistoria, básicamente.

BM75

#7 Lo que dices es imposible, por pura lógica. En algún momento alguien ha tenido que crear algo para que otros puedan copiarlo. Si no, sería como dice #8

A

#8 #9 Obviamente comienzas interpretando la naturaleza, es lo primero que te dicen en historia del arte. Luego aprendes y reinterpretas lo que existe, es de lo primero que te dicen en historia del arte.

#8 Creo que más bien lo contrario. Si cada individuo tuviera que crear desde cero, entonces sí que seguiríamos en la prehistoria. Todo el conocimiento acumulado se refleja en cada creación, tanto artística como técnicamente. De vez en cuando aparecen "genios" que hacen algo totalmente diferente, pero ninguno de ellos tuvo que inventar el pincel, experimentar hasta entender la perspectiva o inventar un lenguaje musical.

sat

#7 Por supuesto que se inventan cosas nuevas y por supuesto que mangan. No te hablo de una persona que se "Inspira" en algo ya hecho. Te hablo de una corporación que manga las imágenes de un banco de imágenes sin pagar la correspondiente licencia de uso para entrenar una IA generativa y cobrarte una suscripción por usar su "invento". Eso por poner un ejemplo real y que está en los tribunales.

rojo_separatista

#11, el problema son las corporaciones o la tecnología? Porque hay modelos de código abierto que pueden hacer cosas parecidas.

A mi me da que algunos prefieren prohibir una tecnología que bien utilizada nos podría llevar a una era de abundancia sin parangón, porque tienen el capitalismo tan metido en la cabeza, que no pueden imaginar una solución en la que podamos utilizar esta tecnología en beneficio de todos.

#20 Hace tiempo que tenemos tecnología que potencialmente puede solucionar todos los problemas de la humanidad. Ignorar que siempre hay quien va a querer capitalizarlo es naif, y ya me gustaría poder creer lo contrario. Cuando empecé a manejar internet me flipaba la democratización del conocimiento. Luego pasó lo de Aaron Schwarz y me caí del guindo. Y hoy por hoy cualquier simple búsqueda te recuerda que prácticamente todo está sujeto a intereses mercantiles.

rojo_separatista

#31, no en la magnitud ni con la abundancia de lo que se podrá lograr ahora.

laguerrillasilenciosa

#35 no en la magnitud ni con la abundancia de lo que se podrá podría lograr ahora
Fix'd
A mi pesar.

sat

#20 Obviamente el problema son las corporaciones. La tecnología no toma la decisión de mangar el trabajo de un creador para aprovecharse económicamente del asunto.

Por eso en mi primer comentario digo que las IAs me parecen geniales siempre que no manguen el trabajo de nadie.

Barbol_Pelao

#11 Hace un año salió un arXiv ("Scalable Extraction of Training Data from (Production) Language Models") que mostraba evidencias de que es posible extraer datos de entrenamiento de los LLMs (el que más ChatGPT, a veces por el sobreentrenamiento sobre los mismos datos). Sumado a una nueva legislación en California para 2026 que estarán obligados a mostrar el origen de los datos, parece que empieza a haber esperanza por el lado legal de crujir a estas empresas por usar datos sin permiso (privatizar el beneficio y socializar las pérdidas), ojalá haya suerte.

sat

#23 Ojalá. Con que publiquen los data sets yo me doy por satisfecho.

Barbol_Pelao

#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

XQNO

#11#7 Bueno, el tema es algo más complejo, porque las licencias permiten ciertos usos (por ejemplo ver las imágenes), por ello -en principio- que yo o una IA estemos mirando bancos de imágenes para aprender no es automáticamente "mangar". La cosa es si al reproducir las ideas aprendidas la IA copia o no fragmentos de imágenes con derechos de autor.

Te pongo un ejemplo: Yo , o una IA, miramos un banco de imágenes para buscar ideas sobre como ilustrar el concepto "madrugar" y vemos una imagen molona de alguien mirando con ansia una cafetera. Yo podría hacerme una foto a mi mismo mirando una cafetera y no incumpliría ninguna licencia. La IA podría reproducir esa situación (generando una persona y una cafetera "nuevas") sin incumplir la licencia, otra cosa es que reproduzca la cara de los actores o la misma cafetera, con lo que ya estaría usando elemento protegidos. Por tanto, a no ser casos extremos de IAs mal programadas que reproduzcan sistemáticamente elementos protegidos por derechos de autor (creo recordar un caso de una IA que incluía en sus creaciones la marca de agua de un banco de imágenes) en general, al igual que pasa con las obras producidas por humanos con cualquier otra herramienta, para sentenciar que "han mangado" no queda otra que juzgarlo caso a caso, o cambiar la legislación diferenciando en las licencias el uso "entrenar IAs", pero esto es abrir un melón con muchas ramificaciones

sat

#27 Sin entrar es que una IA no "ve" las imágenes. Te pongo yo a ti un ejemplo mejor. Tu eres una persona y una IA no. Tu puedes mirar porque tienes ojos y capacidad suficiente para ver por ejemplo que una marca de agua no es parte de una imagen. Una IA es una máquina que no sabe de eso. Entonces ocurren cosas como la denuncia de Getty images a Stable difussion. Échale un ojo al enlace. En la primera imagen la IA copia hasta la marca de agua...

https://www.xataka.com/robotica-e-ia/getty-images-denuncia-a-stable-diffusion-agencias-imagenes-se-han-cansado-que-ia-robe-sus-fotos

XQNO

#34 Claro, yo mismo pongo el mismo ej de la marca de agua en #27 . Por eso digo que, en general, entiendo que la infracción del Copyright puede darse cuando IA reproduce una imagen con elementos protegidos por derechos de autor (que habría que juzgar caso a caso), pero usar esas imágenes para entrenar una IA me parece que entra dentro del uso legitimo. Por ejemplo hay IAs entrenadas en bancos de imágenes cuya función no es crear otras imágenes, si no reconocer elementos concretos - como la IA de Google Fotos que te ayuda a encontrar en tu propia galería las fotos que has hecho de "playas" o "comidas"- y creo que en esos casos ninguna denuncia por derechos de autor podría prosperar.

sat

#36 En lo del uso legítimo es en lo que diferimos. Adobe por ejemplo usa las imágenes de Adobe Stock para entrenar Firerfly, pero paga a los contribuidores por ese uso. Igual que el resto de agencias de stock. No veo el motivo por que el una empresa externa puede venir a usar ese material sin pagar la correspondiente licencia de uso. Por el simple hecho de que una IA no está viendo una imagen, que obviamente es gratis. Es por el hecho de que estás usando esa imagen con un fin comercial que es sacar tajada de la venta de suscripciones a una IA generadora de imágenes.

Ashlie

#7 Hablar de aprendizaje o inspiración poniendo a la misma altura a seres humanos y a una aplicación hecha por una megacorporación. Aham. Sigue, José Luis, que me interesa.

A

#42 Insinuar que otra persona es un cuñado por dar una opinión sin que tú aportes absolutamente nada, ni datos ni opinión argumentada. Y te creerás que estás entre los listos de la clase. lol
Aham. Sigue, José Luis, que me interesa.

stygyan

#7 en mi opinión, estamos hablando de churras y merinas. Yo he aprendido no sólo de diversos autores y diversos fotógrafos, sino de mi propia vida, mis vivencias y la serendipia del día a día. Esa serendipia del día a día —y esa forma de adaptarla e introducirla en mi arte— es lo que hace que mi arte sea único.

La IA no tiene vida, no tiene vivencias, no puede plantarse en una manifestación ni observar el juego de sombras y luces creado por un sombrero de paja. La IA no se enamora, no se pone cachonda ni se pone en modo hiperfijación autista.

A

#44 Si, es un punto de vista valido y no te falta razón, tiene esas carencias, pero la IA también tiene otras virtudes diferentes como la capacidad de generar contenido a gran velocidad, sin esfuerzo y con acceso a millones de referencias que un ser he es imposible que acumule.
No olvides que es una tecnología en pañales, dale unos años.

j

Teniendo en cuenta que la mayoría de páginas tienen la desfachatez de pedir dinero por navegar sin cookies en lugar de por el contenido que producen, es para desearles la ruina más absoluta.

Que fracase esta puta mierda de internet.

Se han convertido en putillas recabadoras de datos para grandes compañías y han adoptado un formato lleno de referencias a su web, de explicaciones que no vienen a cuento y de suposiciones sin fundamento.

Se han convertido en meros datos de entrada para algoritmos publicitarios y tienen miedo de que una ia pueda suplirles en esa tarea.

No me extraña. Cuando su fuente son artículos traducidos, comentarios en redes sociales o noticias de medios (los pagan a agencias de noticias), es normal que teman que un algoritmo les suplante. No hace falta ni que sea una IA.

D

Ha cambiado el titular

N

Las leyes de la robótica sí se pueden expresar mediante lógica formal. Pero las IAs modernas usan lógica probabilística, no es posible (actualmente) hacerlas razonar de forma que apliquen proposiciones lógicas a sus acciones.

Bueno, a las que eligen objetivos a los que disparar sí.

rojo_separatista

#10, no se que te refieres exactamente con la lógica probabilística de las IAs modernas. Pero desde luego que existen formas de alinear los modelos para que no se salgan de lo que sus diseñadores quieren que hagan. Intenta que chatpt-o1-preview te diga algo fuera de tono a ver si lo consigues.

N

#22 Los LLMs generan respuestas en base a la distribución de muestras con las que fueron entrenadas. Básicamente, analizan la entrada y generan su salida como la sucesión de sílabas (tokens) más probable que se correspondería a la misma. El muestreo es aleatorio y por ello responden cosas levemente distintas cada vez.

Lo que tienen los sistemas comerciales es filtros de moderación, que eliminan y modifican texto de la entrada y de la salida. Muchas veces es otra red por encima que bloquea la salida del LLM cuando detecta algo "problemático". Notarás que cuando le preguntas ciertas cosas las respuestas negativas son mucho más genéricas y directas. Eso es porque lo que estás leyendo está generado por el modelo moderador y no por el modelo completo. El modelo moderador funciona mucho más parecido a un robot de Asimov, en cierto modo.

rojo_separatista

#25, no, no siempre es el token con mayor activación el que se muestra, para eso está la temperatura del modelo y de hecho está demostrado que la calidad de las respuestas empeora si la temperatura es cero.

Por otro lado lo de generar respuestas en base a la distribución es una definición muy vaga de cómo funcionan que podría incluso aplicarse a los humanos. Sinceramente, definir los LLM como modelos puramente probabilísticos es simplista y engañoso, uno podría pensar que se limitan a mostrar el token que aparece con más frecuencia dada una serie histórica y no es así, tienen la capacidad de entender el contexto, ponderar la importancia de los tokens que les preceden y la importancia de las relaciones entre ello con múltiples órdenes de profundidad, esto hace que emerjan capacidades de razonamiento en estos modelos y puedan resolver problemas que no han visto antes.

N

#29 Lo que están haciendo es eso, elegir el siguiente token teniendo en cuenta una serie de tokens de entrada, pasando dicha entrada por una función de codificación increíblemente compleja. La capacidad de comprensión está implícita en la distribución aprendida. Es decir, la mayoría de las preguntas han sido ya respondidas y el problema es "aprender" (en verdad guardar de forma comprimida) la relación entre pregunta y respuesta. Por eso pueden contestar con exactitud a preguntas textuales sobre física cuántica pero tienen problemas con aritmética (el espacio de relaciones entre pregunta y respuesta es infinito).

Sobre la inteligencia humana, honestamente creo que la mayor parte de nuestra capacidad de razonamiento se puede explicar con reconocimiento de patrones. Por eso en ausencia de mejores modelos tendemos a antromorfizar la realidad.

rojo_separatista

#39, no es verdad. Es capaz de resolver nuevos problemas aplicando el conocimiento que ha aprendido anteriormente a nuevos contextos.

Por ejemplo, yo le dije que dibujase el escudo de mi ciudad utilizando primitivas OpenCV, esto no lo ha hecho nadie jamás, sin embargo, ha aprendido como es el escudo de mi ciudad y como se dibuja en OpenCV y ha combinado ambas cosas. No es distinto a lo que hacemos los humanos. La única diferencia es que nosotros podemos hacer experimentos en el mundo físico, pero a nivel de razonamiento la última versión ya supera a la mayoría de seres humanos en una amplia variedad de dominios, incluso en problemas que no ha visto antes ya que sabe cómo utilizar el conocimiento previo correctamente ante nuevos problemas.

XQNO
rojo_separatista

#37, el problema que tenéis algunos con la IA es que os falta perspectiva del ritmo al que evoluciona. Mira que he sido específico en mi comentario, he hablado de chatpt-o1-preview, no de la versión de chatGPT de la que habla la noticia que enlazas. Esta versión, liberada hace un par de semanas es mucho más robusta en cuanto alineación y hasta ahora nadie ha logrado saltarse las restricciones en cuanto alineación del modelo.

XQNO

#38 ¿Te suena lo de hecha le ley hecha la trampa? El el problema que tenéis algunos es que pensáis que la solución a este dilema se puede alcanzar desde un perspectiva meramente técnica (Mejorando la IA), cuando el problema es epistemológico.

Las leyes de la robótica - o cualquier otra forma "alinear las IAs para que no se salgan de lo que sus diseñadores quieren que hagan" - requiere crear y programar un sistema normativo, pero el problema es que la única forma en que los humanos podemos normativizar cualquier comportamiento complejo es a través de la simplificación a través de conceptos necesariamente vagos y llenos de grises. Como usuario de Meneame habrás comprobado que cuando en cualquier foro intenta aplicar lo de impedir comentarios "fuera de tono" con moderadores humanos constantemente hay situaciones donde se enciende un acalorado debate sobre sus decisiones. En el mundo real hemos creado todo un sistema judicial que a través de leyes, reglamentos que las desarrollan, recomendaciones de instituciones que las aplican, jurisprudencia en casos similares...intenta delimitar si un hecho cumple o no una norma y los humanos especializados en esta tarea difieren constantemente.

Por eso Wittgenstein decía eso de que "los límites de mi lenguaje son los límites de mi mundo" y Popper sostenía que ninguna teoría se puede verificar, solo refutar. Los limites epistemológicos del conocimiento humano son los que son, y los programadores no viven fuera de ellos.

A

Se sale un poco del contenido del artículo, pero es como cuando dicen que la IA solo copia y no tiene capacidad creativa, como si por ejemplo la música popular o el Hollywood de los últimos 50 años hubiera hecho muchos productos innovadores.

A

#12 Justo mi opinión sobre el tema.

r

#12 A lo mejor la diferencia es que la IA tiene tantas fuentes más que una persona y es tan eficiente compartimentando los conocimientos que el resultado canta demasiado a plagio. Tú tienes una combinación única y abundante de influencias en un batiburrillo en tu cabeza en el que coges algo que te gusta de este, esto otro que te gusta de esto otro, las influencias se interfieren y anulan entre sí dando como resultado una combinación "única", mientras que a la IA le dices, respóndeme a esto como si fueras mi madre y si la tiene en su base de datos te lo va a aislar de todo lo demás y te va a responder como mi madre.

Barbol_Pelao

#12 En realidad no es así, no hace lo mismo que nosotros. Pero entiendo que es muy dificil rebatir ese argumento con ejemplos cuando desde hace 30-40 años la producción creativa (por ejemplo la música o Hollywood, y también la literatura best-seller) apenas aporta contraejemplos de lo contrario, y mucho antes del advenimiento de los LLMs: el ecosistema creativo actual hace perfectamente válida esa afirmación.

A

Las IAs son BA SU CO.