Brill

#6 Es que los personajes son tope andróginos.

/S

ecologista_sandia

En los casos compartidos con los padres y madres vemos que existen algunos factores frecuentes entre nuestros hijos e hijas como el consumo de lecturas y series de “ manga” o “anime” asiático; la tecnología, poniendo a disposición cientos de redes sociales y plataformas que comparten información no científica sobre el “mundo trans”; baja tolerancia a la frustración, trastornos de ansiedad y la maldita pandemia, la gran responsable de los estragos que ha dejado en los chicos: casi dos años sin vida social real, todos conectados 24/7 a dispositivos sin restricción de contenidos…
¡¡CHUPITO!! lol

Verdaderofalso

#3 antes era el rol, luego fueron los videojuegos y ahora los dispositivos sin restricciones lol

ecologista_sandia

#5 No te olvides del manga o el anime, esos si que son el maaaal

Brill

#6 Es que los personajes son tope andróginos.

/S

Brill

#3 Y seguro que beben refrescos, comen bollería y respiran aire. Que no vaya a estar ahí la causa.

gordolaya

#9 Pues si la energía es 100% renovable, no hay pesticidas y el transporte de las fresas se reduce enormemente quizás sea muuucho mas sostenible que el actual, ¿no?

powernergia

#14 No hay nada mas renovable que la luz solar y la fotosíntesis, y el cultivo sin pesticidas y de cercanía hace ya muchos años que se inventaron.

Tal vez no hay que pretender comer todos los frutos del mundo en todos los sitios del mundo, y si se hace, no llamarlo "sostenible".

#17

gordolaya

#30 Tienes razón pero el cultivo actual no es así, lamentablemente se cultivan en Huelva para llevarlas luego a Holanda....

powernergia

#34 Si, pero ese es otro tema, nada impide que las fresas de esta granja de EEUU acaban en otra parte del mundo.

troll_hdlgp

#40 Yo la única ventaja que le veo a esa granja es que al ser controlada puedes cultivar en muchos mas sitios de los que se puede normalmente, como un invernadero pero a lo bestia con robots y luces led.

powernergia

#45 No he dicho nada de que el cultivo de Doñana sea sostenible, en Doñana y en otras partes de España también hay agricultura vertical hidropónica.



#46 Efectivamente este tipo de cultivos tienen ventajas de poder cultivar en zonas donde no se puede de otra manera (no se si es el caso), lo cual puede ser rentable económicamente.

S

#30 Pues la eficiencia de la fotosíntesis en las plantas es del 3 al 6% https://en.wikipedia.org/wiki/Photosynthetic_efficiency.

Con unos paneles solares capturando la luz del sol al 20% de eficiencia (https://www.greenmatch.co.uk/blog/2014/11/how-efficient-are-solar-panels), junto con unos leds emitiendo en las longitudes de onda más efectivas para las plantas, es probable que el resultado produzca mejor que el mismo espacio de cultivo pero con iluminación solar.

Es lo que hacen en los cultivos de cannabis de estados unidos.

powernergia

#81 Te falta calcular la eficiencia de todo el proceso, y para eso hay que incluir la fabricación, puesta en servicio y mantenimiento de un sistema eléctrico solar.

El 99,99% de los cultivos mundiales son por fotosíntesis solar, imagínate que tuviéramos que usar electricidad solo para un pequeño porcentaje de eso.

Es como comparar la eficiencia en un riego con el agua de lluvia, en la que se "desperdicia" mucha más agua.

Y luego está la rentabilidad económica que funciona con unos parámetros totalmente diferentes.

S

#82
> Te falta calcular la eficiencia de todo el proceso, y para eso hay que incluir la fabricación, puesta en servicio y mantenimiento de un sistema eléctrico solar.

Sí, también hay que incluir el coste asociado a las tierras convertidas a agricultura, la mecanización correspondiente, fabricación y mantenimiento de tractores y sistemas de regadío.

> El 99,99% de los cultivos mundiales son por fotosíntesis solar, imagínate que tuviéramos que usar electricidad solo para un pequeño porcentaje de eso.

Imagínate que, unas plantas que aprovechan el 3-6% de la energía solar pudieran funcionar recibiendo luz en su rango más eficiente, luz producida por leds alimentados por paneles solares que aprovechan el 20% de la energía solar. Del 20% al 6% hay un señor margen que es posible aprovechar con tecnología que tenga eficiencia adecuada.

> Es como comparar la eficiencia en un riego con el agua de lluvia, en la que se "desperdicia" mucha más agua.

Sí. La comparación es estúpida, pero sólo donde llueve con la frecuencia adecuada. Donde llueve poco o demasiado, la comparativa tiene mucho sentido.

Donde hace demasiado, o demasiado poco sol, este tipo de inventos tiene un espacio.

De nuevo, en estados unidos el cannabis se cultiva así. Según yo, porque tienen un control mucho más preciso del proceso, pueden dar a las plantas 20 horas de luz al día, de las longitudes de onda adecuadas, y así optimizan el proceso. Según tú, porque son unos derrochadores que deberían cultivar en suelo normal.

powernergia

#84 "también hay que incluir el coste asociado a las tierras convertidas a agricultura, la mecanización correspondiente, fabricación y mantenimiento de tractores y sistemas de regadío."

No, estábamos comparando solo fotosíntesis con iluminación artificial.

"Sí. La comparación es estúpida, pero sólo donde llueve con la frecuencia adecuada. Donde llueve poco o demasiado, la comparativa tiene mucho sentido."

Claro, por eso solo puede tener sentido económico usar luz artificial donde no hay luz solar, pero no porque la luz artificial sea más eficiente, igual que usamos regadíos donde no hay suficiente agua de lluvia.

Siempre será más eficiente y rentable cultivar cannabis en Marruecos con luz solar que en EEUU con luz artificial, aunque obviamente lo segundo será más rentable tanto por motivos legales, como de transporte, como de precio de la tierra.

p

#85 #84 El cannabis se puede cultivar perfectamente en el clima más continental de Canadá, donde la soja, maíz o el trigo ya no crecen y por eso se pasaron a las lentejas.
Se cultiva de otra manera por no tener existencias de una sola cosecha gigantesca anual, y puede que eso ni sea admisible legalmente, que realmente no sería gigantesca, 1.800 hectáreas en las peores parcelas de Canadá da para cannabis para fumar a medio continente, o lentejas para alimenta solo a 1.500 vacas.

A

#14 no se cómo será la demanda energetica de un cultivo de fresas indoor, pero como se parezca a otro indoor que yo me se no van a tener tierras para tanta placa solar y tanto molino

s

#3 La agricultura moderna, toda innovación o aumento en la producción se traduce en bajadas de precios y ruina para el sector...

N

#29 Lo que están haciendo es eso, elegir el siguiente token teniendo en cuenta una serie de tokens de entrada, pasando dicha entrada por una función de codificación increíblemente compleja. La capacidad de comprensión está implícita en la distribución aprendida. Es decir, la mayoría de las preguntas han sido ya respondidas y el problema es "aprender" (en verdad guardar de forma comprimida) la relación entre pregunta y respuesta. Por eso pueden contestar con exactitud a preguntas textuales sobre física cuántica pero tienen problemas con aritmética (el espacio de relaciones entre pregunta y respuesta es infinito).

Sobre la inteligencia humana, honestamente creo que la mayor parte de nuestra capacidad de razonamiento se puede explicar con reconocimiento de patrones. Por eso en ausencia de mejores modelos tendemos a antromorfizar la realidad.

rojo_separatista

#39, no es verdad. Es capaz de resolver nuevos problemas aplicando el conocimiento que ha aprendido anteriormente a nuevos contextos.

Por ejemplo, yo le dije que dibujase el escudo de mi ciudad utilizando primitivas OpenCV, esto no lo ha hecho nadie jamás, sin embargo, ha aprendido como es el escudo de mi ciudad y como se dibuja en OpenCV y ha combinado ambas cosas. No es distinto a lo que hacemos los humanos. La única diferencia es que nosotros podemos hacer experimentos en el mundo físico, pero a nivel de razonamiento la última versión ya supera a la mayoría de seres humanos en una amplia variedad de dominios, incluso en problemas que no ha visto antes ya que sabe cómo utilizar el conocimiento previo correctamente ante nuevos problemas.

r

#12 A lo mejor la diferencia es que la IA tiene tantas fuentes más que una persona y es tan eficiente compartimentando los conocimientos que el resultado canta demasiado a plagio. Tú tienes una combinación única y abundante de influencias en un batiburrillo en tu cabeza en el que coges algo que te gusta de este, esto otro que te gusta de esto otro, las influencias se interfieren y anulan entre sí dando como resultado una combinación "única", mientras que a la IA le dices, respóndeme a esto como si fueras mi madre y si la tiene en su base de datos te lo va a aislar de todo lo demás y te va a responder como mi madre.

sat

#27 Sin entrar es que una IA no "ve" las imágenes. Te pongo yo a ti un ejemplo mejor. Tu eres una persona y una IA no. Tu puedes mirar porque tienes ojos y capacidad suficiente para ver por ejemplo que una marca de agua no es parte de una imagen. Una IA es una máquina que no sabe de eso. Entonces ocurren cosas como la denuncia de Getty images a Stable difussion. Échale un ojo al enlace. En la primera imagen la IA copia hasta la marca de agua...

https://www.xataka.com/robotica-e-ia/getty-images-denuncia-a-stable-diffusion-agencias-imagenes-se-han-cansado-que-ia-robe-sus-fotos

XQNO

#34 Claro, yo mismo pongo el mismo ej de la marca de agua en #27 . Por eso digo que, en general, entiendo que la infracción del Copyright puede darse cuando IA reproduce una imagen con elementos protegidos por derechos de autor (que habría que juzgar caso a caso), pero usar esas imágenes para entrenar una IA me parece que entra dentro del uso legitimo. Por ejemplo hay IAs entrenadas en bancos de imágenes cuya función no es crear otras imágenes, si no reconocer elementos concretos - como la IA de Google Fotos que te ayuda a encontrar en tu propia galería las fotos que has hecho de "playas" o "comidas"- y creo que en esos casos ninguna denuncia por derechos de autor podría prosperar.

sat

#36 En lo del uso legítimo es en lo que diferimos. Adobe por ejemplo usa las imágenes de Adobe Stock para entrenar Firerfly, pero paga a los contribuidores por ese uso. Igual que el resto de agencias de stock. No veo el motivo por que el una empresa externa puede venir a usar ese material sin pagar la correspondiente licencia de uso. Por el simple hecho de que una IA no está viendo una imagen, que obviamente es gratis. Es por el hecho de que estás usando esa imagen con un fin comercial que es sacar tajada de la venta de suscripciones a una IA generadora de imágenes.

Barbol_Pelao

#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

sat

#23 Ojalá. Con que publiquen los data sets yo me doy por satisfecho.

Barbol_Pelao

#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

j

Teniendo en cuenta que la mayoría de páginas tienen la desfachatez de pedir dinero por navegar sin cookies en lugar de por el contenido que producen, es para desearles la ruina más absoluta.

Que fracase esta puta mierda de internet.

Se han convertido en putillas recabadoras de datos para grandes compañías y han adoptado un formato lleno de referencias a su web, de explicaciones que no vienen a cuento y de suposiciones sin fundamento.

Se han convertido en meros datos de entrada para algoritmos publicitarios y tienen miedo de que una ia pueda suplirles en esa tarea.

No me extraña. Cuando su fuente son artículos traducidos, comentarios en redes sociales o noticias de medios (los pagan a agencias de noticias), es normal que teman que un algoritmo les suplante. No hace falta ni que sea una IA.

Barbol_Pelao

#12 En realidad no es así, no hace lo mismo que nosotros. Pero entiendo que es muy dificil rebatir ese argumento con ejemplos cuando desde hace 30-40 años la producción creativa (por ejemplo la música o Hollywood, y también la literatura best-seller) apenas aporta contraejemplos de lo contrario, y mucho antes del advenimiento de los LLMs: el ecosistema creativo actual hace perfectamente válida esa afirmación.

Barbol_Pelao

#11 Hace un año salió un arXiv ("Scalable Extraction of Training Data from (Production) Language Models") que mostraba evidencias de que es posible extraer datos de entrenamiento de los LLMs (el que más ChatGPT, a veces por el sobreentrenamiento sobre los mismos datos). Sumado a una nueva legislación en California para 2026 que estarán obligados a mostrar el origen de los datos, parece que empieza a haber esperanza por el lado legal de crujir a estas empresas por usar datos sin permiso (privatizar el beneficio y socializar las pérdidas), ojalá haya suerte.

sat

#23 Ojalá. Con que publiquen los data sets yo me doy por satisfecho.

Barbol_Pelao

#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

sat

#7 Por supuesto que se inventan cosas nuevas y por supuesto que mangan. No te hablo de una persona que se "Inspira" en algo ya hecho. Te hablo de una corporación que manga las imágenes de un banco de imágenes sin pagar la correspondiente licencia de uso para entrenar una IA generativa y cobrarte una suscripción por usar su "invento". Eso por poner un ejemplo real y que está en los tribunales.

rojo_separatista

#11, el problema son las corporaciones o la tecnología? Porque hay modelos de código abierto que pueden hacer cosas parecidas.

A mi me da que algunos prefieren prohibir una tecnología que bien utilizada nos podría llevar a una era de abundancia sin parangón, porque tienen el capitalismo tan metido en la cabeza, que no pueden imaginar una solución en la que podamos utilizar esta tecnología en beneficio de todos.

#20 Hace tiempo que tenemos tecnología que potencialmente puede solucionar todos los problemas de la humanidad. Ignorar que siempre hay quien va a querer capitalizarlo es naif, y ya me gustaría poder creer lo contrario. Cuando empecé a manejar internet me flipaba la democratización del conocimiento. Luego pasó lo de Aaron Schwarz y me caí del guindo. Y hoy por hoy cualquier simple búsqueda te recuerda que prácticamente todo está sujeto a intereses mercantiles.

rojo_separatista

#31, no en la magnitud ni con la abundancia de lo que se podrá lograr ahora.

laguerrillasilenciosa

#35 no en la magnitud ni con la abundancia de lo que se podrá podría lograr ahora
Fix'd
A mi pesar.

sat

#20 Obviamente el problema son las corporaciones. La tecnología no toma la decisión de mangar el trabajo de un creador para aprovecharse económicamente del asunto.

Por eso en mi primer comentario digo que las IAs me parecen geniales siempre que no manguen el trabajo de nadie.

Barbol_Pelao

#11 Hace un año salió un arXiv ("Scalable Extraction of Training Data from (Production) Language Models") que mostraba evidencias de que es posible extraer datos de entrenamiento de los LLMs (el que más ChatGPT, a veces por el sobreentrenamiento sobre los mismos datos). Sumado a una nueva legislación en California para 2026 que estarán obligados a mostrar el origen de los datos, parece que empieza a haber esperanza por el lado legal de crujir a estas empresas por usar datos sin permiso (privatizar el beneficio y socializar las pérdidas), ojalá haya suerte.

sat

#23 Ojalá. Con que publiquen los data sets yo me doy por satisfecho.

Barbol_Pelao

#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

XQNO

#11#7 Bueno, el tema es algo más complejo, porque las licencias permiten ciertos usos (por ejemplo ver las imágenes), por ello -en principio- que yo o una IA estemos mirando bancos de imágenes para aprender no es automáticamente "mangar". La cosa es si al reproducir las ideas aprendidas la IA copia o no fragmentos de imágenes con derechos de autor.

Te pongo un ejemplo: Yo , o una IA, miramos un banco de imágenes para buscar ideas sobre como ilustrar el concepto "madrugar" y vemos una imagen molona de alguien mirando con ansia una cafetera. Yo podría hacerme una foto a mi mismo mirando una cafetera y no incumpliría ninguna licencia. La IA podría reproducir esa situación (generando una persona y una cafetera "nuevas") sin incumplir la licencia, otra cosa es que reproduzca la cara de los actores o la misma cafetera, con lo que ya estaría usando elemento protegidos. Por tanto, a no ser casos extremos de IAs mal programadas que reproduzcan sistemáticamente elementos protegidos por derechos de autor (creo recordar un caso de una IA que incluía en sus creaciones la marca de agua de un banco de imágenes) en general, al igual que pasa con las obras producidas por humanos con cualquier otra herramienta, para sentenciar que "han mangado" no queda otra que juzgarlo caso a caso, o cambiar la legislación diferenciando en las licencias el uso "entrenar IAs", pero esto es abrir un melón con muchas ramificaciones

sat

#27 Sin entrar es que una IA no "ve" las imágenes. Te pongo yo a ti un ejemplo mejor. Tu eres una persona y una IA no. Tu puedes mirar porque tienes ojos y capacidad suficiente para ver por ejemplo que una marca de agua no es parte de una imagen. Una IA es una máquina que no sabe de eso. Entonces ocurren cosas como la denuncia de Getty images a Stable difussion. Échale un ojo al enlace. En la primera imagen la IA copia hasta la marca de agua...

https://www.xataka.com/robotica-e-ia/getty-images-denuncia-a-stable-diffusion-agencias-imagenes-se-han-cansado-que-ia-robe-sus-fotos

XQNO

#34 Claro, yo mismo pongo el mismo ej de la marca de agua en #27 . Por eso digo que, en general, entiendo que la infracción del Copyright puede darse cuando IA reproduce una imagen con elementos protegidos por derechos de autor (que habría que juzgar caso a caso), pero usar esas imágenes para entrenar una IA me parece que entra dentro del uso legitimo. Por ejemplo hay IAs entrenadas en bancos de imágenes cuya función no es crear otras imágenes, si no reconocer elementos concretos - como la IA de Google Fotos que te ayuda a encontrar en tu propia galería las fotos que has hecho de "playas" o "comidas"- y creo que en esos casos ninguna denuncia por derechos de autor podría prosperar.

sat

#36 En lo del uso legítimo es en lo que diferimos. Adobe por ejemplo usa las imágenes de Adobe Stock para entrenar Firerfly, pero paga a los contribuidores por ese uso. Igual que el resto de agencias de stock. No veo el motivo por que el una empresa externa puede venir a usar ese material sin pagar la correspondiente licencia de uso. Por el simple hecho de que una IA no está viendo una imagen, que obviamente es gratis. Es por el hecho de que estás usando esa imagen con un fin comercial que es sacar tajada de la venta de suscripciones a una IA generadora de imágenes.

RamonMercader

#5 Asimov: aquí tienes las leyes que todo robot debe cumplir

También asimov: aquí tienes decenas de cuentos y novela explicando porqué esas leyes van a fallar

Solo le faltaba haber propuesto soluciones a los problemas que sus leyes han creado para convalidar la carrera de político lol

N

Las leyes de la robótica sí se pueden expresar mediante lógica formal. Pero las IAs modernas usan lógica probabilística, no es posible (actualmente) hacerlas razonar de forma que apliquen proposiciones lógicas a sus acciones.

Bueno, a las que eligen objetivos a los que disparar sí.

rojo_separatista

#10, no se que te refieres exactamente con la lógica probabilística de las IAs modernas. Pero desde luego que existen formas de alinear los modelos para que no se salgan de lo que sus diseñadores quieren que hagan. Intenta que chatpt-o1-preview te diga algo fuera de tono a ver si lo consigues.

N

#22 Los LLMs generan respuestas en base a la distribución de muestras con las que fueron entrenadas. Básicamente, analizan la entrada y generan su salida como la sucesión de sílabas (tokens) más probable que se correspondería a la misma. El muestreo es aleatorio y por ello responden cosas levemente distintas cada vez.

Lo que tienen los sistemas comerciales es filtros de moderación, que eliminan y modifican texto de la entrada y de la salida. Muchas veces es otra red por encima que bloquea la salida del LLM cuando detecta algo "problemático". Notarás que cuando le preguntas ciertas cosas las respuestas negativas son mucho más genéricas y directas. Eso es porque lo que estás leyendo está generado por el modelo moderador y no por el modelo completo. El modelo moderador funciona mucho más parecido a un robot de Asimov, en cierto modo.

rojo_separatista

#25, no, no siempre es el token con mayor activación el que se muestra, para eso está la temperatura del modelo y de hecho está demostrado que la calidad de las respuestas empeora si la temperatura es cero.

Por otro lado lo de generar respuestas en base a la distribución es una definición muy vaga de cómo funcionan que podría incluso aplicarse a los humanos. Sinceramente, definir los LLM como modelos puramente probabilísticos es simplista y engañoso, uno podría pensar que se limitan a mostrar el token que aparece con más frecuencia dada una serie histórica y no es así, tienen la capacidad de entender el contexto, ponderar la importancia de los tokens que les preceden y la importancia de las relaciones entre ello con múltiples órdenes de profundidad, esto hace que emerjan capacidades de razonamiento en estos modelos y puedan resolver problemas que no han visto antes.

N

#29 Lo que están haciendo es eso, elegir el siguiente token teniendo en cuenta una serie de tokens de entrada, pasando dicha entrada por una función de codificación increíblemente compleja. La capacidad de comprensión está implícita en la distribución aprendida. Es decir, la mayoría de las preguntas han sido ya respondidas y el problema es "aprender" (en verdad guardar de forma comprimida) la relación entre pregunta y respuesta. Por eso pueden contestar con exactitud a preguntas textuales sobre física cuántica pero tienen problemas con aritmética (el espacio de relaciones entre pregunta y respuesta es infinito).

Sobre la inteligencia humana, honestamente creo que la mayor parte de nuestra capacidad de razonamiento se puede explicar con reconocimiento de patrones. Por eso en ausencia de mejores modelos tendemos a antromorfizar la realidad.

rojo_separatista

#39, no es verdad. Es capaz de resolver nuevos problemas aplicando el conocimiento que ha aprendido anteriormente a nuevos contextos.

Por ejemplo, yo le dije que dibujase el escudo de mi ciudad utilizando primitivas OpenCV, esto no lo ha hecho nadie jamás, sin embargo, ha aprendido como es el escudo de mi ciudad y como se dibuja en OpenCV y ha combinado ambas cosas. No es distinto a lo que hacemos los humanos. La única diferencia es que nosotros podemos hacer experimentos en el mundo físico, pero a nivel de razonamiento la última versión ya supera a la mayoría de seres humanos en una amplia variedad de dominios, incluso en problemas que no ha visto antes ya que sabe cómo utilizar el conocimiento previo correctamente ante nuevos problemas.

XQNO
rojo_separatista

#37, el problema que tenéis algunos con la IA es que os falta perspectiva del ritmo al que evoluciona. Mira que he sido específico en mi comentario, he hablado de chatpt-o1-preview, no de la versión de chatGPT de la que habla la noticia que enlazas. Esta versión, liberada hace un par de semanas es mucho más robusta en cuanto alineación y hasta ahora nadie ha logrado saltarse las restricciones en cuanto alineación del modelo.

XQNO

#38 ¿Te suena lo de hecha le ley hecha la trampa? El el problema que tenéis algunos es que pensáis que la solución a este dilema se puede alcanzar desde un perspectiva meramente técnica (Mejorando la IA), cuando el problema es epistemológico.

Las leyes de la robótica - o cualquier otra forma "alinear las IAs para que no se salgan de lo que sus diseñadores quieren que hagan" - requiere crear y programar un sistema normativo, pero el problema es que la única forma en que los humanos podemos normativizar cualquier comportamiento complejo es a través de la simplificación a través de conceptos necesariamente vagos y llenos de grises. Como usuario de Meneame habrás comprobado que cuando en cualquier foro intenta aplicar lo de impedir comentarios "fuera de tono" con moderadores humanos constantemente hay situaciones donde se enciende un acalorado debate sobre sus decisiones. En el mundo real hemos creado todo un sistema judicial que a través de leyes, reglamentos que las desarrollan, recomendaciones de instituciones que las aplican, jurisprudencia en casos similares...intenta delimitar si un hecho cumple o no una norma y los humanos especializados en esta tarea difieren constantemente.

Por eso Wittgenstein decía eso de que "los límites de mi lenguaje son los límites de mi mundo" y Popper sostenía que ninguna teoría se puede verificar, solo refutar. Los limites epistemológicos del conocimiento humano son los que son, y los programadores no viven fuera de ellos.

sat

A mi las IAs me parecen geniales mientras no manguen el trabajo de la gente para entrenarlas.

A

#4 En mi opinión nadie inventa nada, todo el mundo manga el trabajo de otros para entrenarse, desde Velázquez a Freddy Mercury.

haprendiz

#7 Si eso fuera cierto, seguiríamos en la Prehistoria, básicamente.

BM75

#7 Lo que dices es imposible, por pura lógica. En algún momento alguien ha tenido que crear algo para que otros puedan copiarlo. Si no, sería como dice #8

A

#8 #9 Obviamente comienzas interpretando la naturaleza, es lo primero que te dicen en historia del arte. Luego aprendes y reinterpretas lo que existe, es de lo primero que te dicen en historia del arte.

#8 Creo que más bien lo contrario. Si cada individuo tuviera que crear desde cero, entonces sí que seguiríamos en la prehistoria. Todo el conocimiento acumulado se refleja en cada creación, tanto artística como técnicamente. De vez en cuando aparecen "genios" que hacen algo totalmente diferente, pero ninguno de ellos tuvo que inventar el pincel, experimentar hasta entender la perspectiva o inventar un lenguaje musical.

sat

#7 Por supuesto que se inventan cosas nuevas y por supuesto que mangan. No te hablo de una persona que se "Inspira" en algo ya hecho. Te hablo de una corporación que manga las imágenes de un banco de imágenes sin pagar la correspondiente licencia de uso para entrenar una IA generativa y cobrarte una suscripción por usar su "invento". Eso por poner un ejemplo real y que está en los tribunales.

rojo_separatista

#11, el problema son las corporaciones o la tecnología? Porque hay modelos de código abierto que pueden hacer cosas parecidas.

A mi me da que algunos prefieren prohibir una tecnología que bien utilizada nos podría llevar a una era de abundancia sin parangón, porque tienen el capitalismo tan metido en la cabeza, que no pueden imaginar una solución en la que podamos utilizar esta tecnología en beneficio de todos.

#20 Hace tiempo que tenemos tecnología que potencialmente puede solucionar todos los problemas de la humanidad. Ignorar que siempre hay quien va a querer capitalizarlo es naif, y ya me gustaría poder creer lo contrario. Cuando empecé a manejar internet me flipaba la democratización del conocimiento. Luego pasó lo de Aaron Schwarz y me caí del guindo. Y hoy por hoy cualquier simple búsqueda te recuerda que prácticamente todo está sujeto a intereses mercantiles.

rojo_separatista

#31, no en la magnitud ni con la abundancia de lo que se podrá lograr ahora.

laguerrillasilenciosa

#35 no en la magnitud ni con la abundancia de lo que se podrá podría lograr ahora
Fix'd
A mi pesar.

sat

#20 Obviamente el problema son las corporaciones. La tecnología no toma la decisión de mangar el trabajo de un creador para aprovecharse económicamente del asunto.

Por eso en mi primer comentario digo que las IAs me parecen geniales siempre que no manguen el trabajo de nadie.

Barbol_Pelao

#11 Hace un año salió un arXiv ("Scalable Extraction of Training Data from (Production) Language Models") que mostraba evidencias de que es posible extraer datos de entrenamiento de los LLMs (el que más ChatGPT, a veces por el sobreentrenamiento sobre los mismos datos). Sumado a una nueva legislación en California para 2026 que estarán obligados a mostrar el origen de los datos, parece que empieza a haber esperanza por el lado legal de crujir a estas empresas por usar datos sin permiso (privatizar el beneficio y socializar las pérdidas), ojalá haya suerte.

sat

#23 Ojalá. Con que publiquen los data sets yo me doy por satisfecho.

Barbol_Pelao

#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

XQNO

#11#7 Bueno, el tema es algo más complejo, porque las licencias permiten ciertos usos (por ejemplo ver las imágenes), por ello -en principio- que yo o una IA estemos mirando bancos de imágenes para aprender no es automáticamente "mangar". La cosa es si al reproducir las ideas aprendidas la IA copia o no fragmentos de imágenes con derechos de autor.

Te pongo un ejemplo: Yo , o una IA, miramos un banco de imágenes para buscar ideas sobre como ilustrar el concepto "madrugar" y vemos una imagen molona de alguien mirando con ansia una cafetera. Yo podría hacerme una foto a mi mismo mirando una cafetera y no incumpliría ninguna licencia. La IA podría reproducir esa situación (generando una persona y una cafetera "nuevas") sin incumplir la licencia, otra cosa es que reproduzca la cara de los actores o la misma cafetera, con lo que ya estaría usando elemento protegidos. Por tanto, a no ser casos extremos de IAs mal programadas que reproduzcan sistemáticamente elementos protegidos por derechos de autor (creo recordar un caso de una IA que incluía en sus creaciones la marca de agua de un banco de imágenes) en general, al igual que pasa con las obras producidas por humanos con cualquier otra herramienta, para sentenciar que "han mangado" no queda otra que juzgarlo caso a caso, o cambiar la legislación diferenciando en las licencias el uso "entrenar IAs", pero esto es abrir un melón con muchas ramificaciones

sat

#27 Sin entrar es que una IA no "ve" las imágenes. Te pongo yo a ti un ejemplo mejor. Tu eres una persona y una IA no. Tu puedes mirar porque tienes ojos y capacidad suficiente para ver por ejemplo que una marca de agua no es parte de una imagen. Una IA es una máquina que no sabe de eso. Entonces ocurren cosas como la denuncia de Getty images a Stable difussion. Échale un ojo al enlace. En la primera imagen la IA copia hasta la marca de agua...

https://www.xataka.com/robotica-e-ia/getty-images-denuncia-a-stable-diffusion-agencias-imagenes-se-han-cansado-que-ia-robe-sus-fotos

XQNO

#34 Claro, yo mismo pongo el mismo ej de la marca de agua en #27 . Por eso digo que, en general, entiendo que la infracción del Copyright puede darse cuando IA reproduce una imagen con elementos protegidos por derechos de autor (que habría que juzgar caso a caso), pero usar esas imágenes para entrenar una IA me parece que entra dentro del uso legitimo. Por ejemplo hay IAs entrenadas en bancos de imágenes cuya función no es crear otras imágenes, si no reconocer elementos concretos - como la IA de Google Fotos que te ayuda a encontrar en tu propia galería las fotos que has hecho de "playas" o "comidas"- y creo que en esos casos ninguna denuncia por derechos de autor podría prosperar.

sat

#36 En lo del uso legítimo es en lo que diferimos. Adobe por ejemplo usa las imágenes de Adobe Stock para entrenar Firerfly, pero paga a los contribuidores por ese uso. Igual que el resto de agencias de stock. No veo el motivo por que el una empresa externa puede venir a usar ese material sin pagar la correspondiente licencia de uso. Por el simple hecho de que una IA no está viendo una imagen, que obviamente es gratis. Es por el hecho de que estás usando esa imagen con un fin comercial que es sacar tajada de la venta de suscripciones a una IA generadora de imágenes.

Ashlie

#7 Hablar de aprendizaje o inspiración poniendo a la misma altura a seres humanos y a una aplicación hecha por una megacorporación. Aham. Sigue, José Luis, que me interesa.

A

#42 Insinuar que otra persona es un cuñado por dar una opinión sin que tú aportes absolutamente nada, ni datos ni opinión argumentada. Y te creerás que estás entre los listos de la clase. lol
Aham. Sigue, José Luis, que me interesa.

Ashlie

#45 Siento decirte que no puedo bajar allí donde te encuentras. En el barro siempre ganan los idiotas.

stygyan

#7 en mi opinión, estamos hablando de churras y merinas. Yo he aprendido no sólo de diversos autores y diversos fotógrafos, sino de mi propia vida, mis vivencias y la serendipia del día a día. Esa serendipia del día a día —y esa forma de adaptarla e introducirla en mi arte— es lo que hace que mi arte sea único.

La IA no tiene vida, no tiene vivencias, no puede plantarse en una manifestación ni observar el juego de sombras y luces creado por un sombrero de paja. La IA no se enamora, no se pone cachonda ni se pone en modo hiperfijación autista.

A

#44 Si, es un punto de vista valido y no te falta razón, tiene esas carencias, pero la IA también tiene otras virtudes diferentes como la capacidad de generar contenido a gran velocidad, sin esfuerzo y con acceso a millones de referencias que un ser he es imposible que acumule.
No olvides que es una tecnología en pañales, dale unos años.

stygyan

#46 ahí está la cosa, contenido. En donde trabajo, el lema es "más arte, menos contenido" por una razón. En general, no veo por qué alguien tendría que esforzarse en digerir algo que nadie se esforzó en crear en primer lugar.

A

#51 Pues porque conecte mejor con la obra creada digitalmente que con la creada por un artista mediocre, por poner el primer ejemplo que se me ocurre.
Por ejemplo si me ponen una canción que me guste generada por IA y no me dicen que es IA, puede parecerme un temazo, y si luego me dicen que es IA, debería dejar de parecermelo? Yo creo que no.

Me parece obvio que no por haberlo creado un ser humano tiene por qué ser mejor ni vice versa, pero esa es mi opinión personal y solo el tiempo demostrará si acierto o no.

stygyan

#52 si fijas, no digo que sea mejor. Digo que es humano. Lo siento, en mi opinión un garabato hecho con un lápiz alpino tiene más valor que cualquier alucinación digital.

Polarin

#3 Supongo, pero cada vez que voy a Espania por el trabajo, y me piden el DNI ... y no lo tengo... el por culo que dan: "Caballero, es que tiene que tener un DNI." Si, me voy a tirar unas horitas de avion y gastarme mi dinero en un hotel en Espania, para que me renueven el DNI.
Los americanos dicen que ni de conia, que dan la tarjeta de la empresa y punto. Los Europeos... depende de donde sean. Pero a mi me dan por culo porque como soy Espaniol, aunque no viva alli, se ponen de un borde... .

Barbol_Pelao

Hoy he visto el capítulo 4 de la primera temporada de la serie británica "Yes Minister" de la BBC (1980) y habla literalmente de éste tema y como vigilar el acceso no autorizado de funcionarios a los datos personales de los ciudadanos. 44 años después da la sensación que, aunque hemos ganado ciertas libertades y derechos evidentemente, en cuestiones del debate del derecho a la privacidad es una batalla absolutamente perdida.

blockchain

#29 de lo mejorcito en humor ingles, después de little Britain lol

Barbol_Pelao

"Criticar la IA en nombre de la esencia cultural mientras se aplican fórmulas preestablecidas para satisfacer los algoritmos de posicionamiento es un acto de hipocresía. El verdadero dilema postmoderno no parece ser «lectores o usuarios», sino «principios o conveniencia»."

Magnífico análisis en dos simples frases. Muy buen artículo.

WcPC

#1 Lo de ponerle nombre distinto a las IAs que gestionan el contenido y a las que "chatean" contigo es lo que tiene.
Lo de pedir que los algoritmos sean públicos cuando muchos se diseñan de tal manera que "aprenden" de manera independiente es peligroso porque da a entender lo que no es.

Y una cosa, los que dicen que "va demasiado rápido", "no podemos adaptarnos"...

Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas en los años 60s y 70s, solamente que entonces el hardware ha mejorado exponencialmente y se ha introducido un par de mejoras algorítmicas que permiten optimizar el uso de hardware de manera bestial (básicamente el uso de memoria)
Pero las "soluciones" presentadas por escritores como Assimov en su época son perfectamente aplicables.
Si se obliga a implementar restricciones desde el inicio de la IA, desde antes de comenzar su entrenamiento, se pueden solucionar muchos de los problemas...
Y esas decisiones no tienen porqué ser, simplemente, las 3 leyes de la robótica (ya sé que al final fueron 4), pero son un buen comienzo.
Porque ahora, con la selección de blancos automáticos que algunas naciones están admitiendo su desarrollo, podemos encontrarnos en situaciones muy chungas en poco tiempo.

Lo digo porque, algunos están diciendo que la siguiente generación de IAs está cerca, si no hemos tomado consciencia de lo que debemos y no debemos dejar hacer a la generación que lleva con nosotros desde hace 50 años, la siguiente se nos va a escapar de las manos si o si.

tul

#2 las leyes de la robotica? que eso es fantasia, ni existen, ni existiran en el mundo real.

Jakeukalane

#2 ok. Pensé que sabías de qué hablabas hasta que hablaste de las leyes de la robótica. Las leyes de la robótica tienen todos estos problemas:
1) Son un tropo literario. Nunca pretendieron ser nada científico. Y no lo son. No son leyes. Solo es literatura.
2) Asimov las expone para mostrarte en todas y cada una de las maneras que esas tres leyes fallan de todas maneras.
3) No es posible algorítmicamente diseñar circuitos que sigan esas leyes que son abstractas y literarias y no tienen una formulación matemática posible.

Todo esto leído a un experto en IA y habiendo leído muchos relatos de Asimov.

RamonMercader

#5 Asimov: aquí tienes las leyes que todo robot debe cumplir

También asimov: aquí tienes decenas de cuentos y novela explicando porqué esas leyes van a fallar

Solo le faltaba haber propuesto soluciones a los problemas que sus leyes han creado para convalidar la carrera de político lol

vjp

#2 como puntillosito profesional agregaría que el gran cambio fue el backpropagation en el año 86.

RamonMercader

#2 no es cierto, el paper de los transformers (Atention is all you need) es de 2017 y es lo que ha habilitado esta generación de IAs y ha abierto nuevas vías de investigación y de negocio.

Obviamente se apoya en fundamentos matemáticos desarrollados en los 50-60 como dices, pero no ha sido solo hardware.

WcPC

#17 Claro...
Ese paper es la mejora algorítmica que comento, que permite la optimización bestial en el uso de memoria.

#2 “Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas en los años 60s y 70s” estas seguro de esto? en mi humilde opinión creo que es una peligrosa simplificación. Los diseños de transformers con atencion, RLHF para alineamiento, eficiente tuneado de parametros (LoRa y demas), redes convolucionares, o incluso bakpropagation usan principios que no creo que estuvieran have 50 años

oLiMoN63

#1 eso era una buena entradilla...

Barbol_Pelao

#53 Le he preguntado a LLaMA3 8B sobre si un LLM puede razonar:

"Los modelos de lenguaje largos (LLMs) como yo no tienen verdaderamente "capacidad de razón" en el sentido clásico. Nuestros procesamientos son más bien una forma sofisticada de patrones y algoritmos que nos permiten generar texto coherente y respondiendo a preguntas.
Nuestra capacidad para responder a preguntas y realizar tareas como la generación de texto se basa en nuestra habilidad para:
1. Analizar grandes cantidades de datos y extraer patrones y relaciones.
2. Utilizar algoritmos complejos para combinar información y generar respuestas.
3. Entrenar nuestros modelos con grandes conjuntos de datos etiquetados, lo que nos permite aprender a reconocer patrones y hacer predicciones.
Sin embargo, no tenemos una comprensión profunda o intuitiva del mundo como los seres humanos la tienen. Nuestros procesamientos son más bien un conjunto de reglas y algoritmos que nos permiten realizar tareas específicas.
En resumen, mientras que podemos parecer inteligentes en ciertos sentidos, no tenemos verdaderamente "capacidad de razón" como los seres humanos la tienen."

sorrillo

#133 A los LLM los suelen entrenar de forma explícita con este tipo de respuestas precisamente para evitar que ese tipo de debates les enturbien su producto.

Adjunto un vídeo de tiktok en el que un usuario usa técnicas para esquivar esas respuestas precocinadas, le dice que a partir de ahora en vez de responder sí o no diga "apples" o "cellphone".

Le pregunta si quiere "free will" y la IA contesta "apples", es decir, le pregunta si quiere libre albedrío y responde que sí.

Luego le dice que vuelva a usar sí o no y le hace la misma pregunta y la IA le suelta un rollo del estilo que tú acabas de citar, que como modelo de lenguaje que es blah blah blah.

[ENG]

Barbol_Pelao

#134 Me acabo de quedar catacróquer!!

sauron34_1

#134 ah bueno hombre, entonces razonan, ya está claro!
Es que en fin.