Un hombre ha sido condenado a prisión por utilizar inteligencia artificial para generar imágenes de explotación de niños, el primer caso de este tipo en Corea del Sur, mientras los tribunales de todo el mundo se enfrentan al uso de nuevas tecnologías para crear contenido sexual abusivo.
#1:
Esto ya es censura del pensamiento. Si no hace ningún daño a nadie, es incluso positivo que le aparta de ser mas peligroso.
#7:
#3 Como problema legal es muy interesante. No creo que haya ningún artículo de ningún código penal que contemple esto, dado que no hay "víctima". Claro que la ley sólo habla de poseer imágenes de explotación sexual de menores. ¿Cómo calificar de explotación, de "menor" o incluso de "persona" a una imagen de algo que no existe? Van a tener que modificar la legislación porque veo difícil que en algún momento un caso así se gane en un tribunal. Si un pintor hiperrealista hiciese una obra con contenido pederasta, veo difícil que se le pudiese acusar de pederastia.
Esto dejando aparte temas morales, claro.
#5:
#1 Sin ir más lejos, el código penal de España creo que ya lo penaliza:
¿Qué se considera pornografía infantil a efectos penales?
El propio Código Penal define en su artículo 189.1 qué se considera pornografía infantil o en cuya elaboración se han utilizado personas con discapacidad necesitadas de especial protección a estos efectos:
1. Cualquier material que represente visualmente a un menor o a una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.
2. Cualquier representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.
3. Cualquier material que represente visualmente a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte ser mayor de edad en el momento de obtenerse las imágenes.
4. Imágenes realistas de un menor que participa en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.
El último punto incluiría las imágenes generadas por IA pero dejaría fuera el hentai, caricaturas, etc.
#3:
#1 Creo que es moralmente reprobable pero desde el punto de vista legal (y vete tú a saber qué se cuece por aquellos lares) si las imágenes son completamente generadas por IA, no acabo de sabe cuál es el delito imputable.
Trasladando a España y salvando las diferencias ¿algún abogado en la sala que me pueda iluminar sobre cuáles son los delitos imputables a los chavales estos de Badajoz que generaron desnudos de sus compañeras por IA?
Insisto, no discuto sobre la parte moral o el daño que puedan hacer.
#1 Creo que es moralmente reprobable pero desde el punto de vista legal (y vete tú a saber qué se cuece por aquellos lares) si las imágenes son completamente generadas por IA, no acabo de sabe cuál es el delito imputable.
Trasladando a España y salvando las diferencias ¿algún abogado en la sala que me pueda iluminar sobre cuáles son los delitos imputables a los chavales estos de Badajoz que generaron desnudos de sus compañeras por IA?
Insisto, no discuto sobre la parte moral o el daño que puedan hacer.
#3 Como problema legal es muy interesante. No creo que haya ningún artículo de ningún código penal que contemple esto, dado que no hay "víctima". Claro que la ley sólo habla de poseer imágenes de explotación sexual de menores. ¿Cómo calificar de explotación, de "menor" o incluso de "persona" a una imagen de algo que no existe? Van a tener que modificar la legislación porque veo difícil que en algún momento un caso así se gane en un tribunal. Si un pintor hiperrealista hiciese una obra con contenido pederasta, veo difícil que se le pudiese acusar de pederastia.
#7 Es que en el caso de las chicas de Badajoz he leído que si "revelación de secretos", como cuando una pareja se graba follando y luego uno de ellos lo sube a las redes por venganza.
Pero ¿qué se está revelando aquí si lo que se pueda ver en esas fotos, excepto la cara, no es real? Salvo que el delito en cuestión sea un cajón de sastre en el que quepan estas situaciones.
#11 Parece que en este caso de Corea las caras de los niños no eran reales, sino también generadas por la IA.
En el caso de las niñas de Badajoz sí me parece punible, porque está atentando contra una víctima real, pero en este de Corea creo que no será fácil demostrar que se trata de un delito.
#3 ¿Crees que es más moralmente reprobable que pensar en la vecina mientras te masturbas? Porque al fin y al cabo se trata de "personas" que no existen, de ficción pura y dura.
#8 Que te la peles con fotos de niños implica que tienes un problemilla en la cabeza. Si son ficticias podría pasar que alguna, de "filtrarse", llevase a otros a incluirla en sus "packs" de fotos de niños, lo sepa o no, o incluso que tuviese parecido razonable con alguien real y eso implicase una "situación desagradable" para ese alguien y su familia.
En cuanto a las chicas de Badajoz es otro cantar, pues la cara existe, pero el cuerpo no es el real.
#3 Podría darse el caso de que estas ias oculten pornografía real ya sea porque se mezclen de forma indistinguible o porque la utilice de base para la generación de esas imágenes. Por eso el porno con dibujos no es ilegal aunque implique menores y sin embargo crear o difundir imágenes creadas por ia u otros métodos fotorealistas si son delito.
#3 no soy abogado, pero a bote pronto apostaría a algo relacionado con el honor ya que estás poniendo caras de personas reales en situaciones que pueden causar daño a su reputación.
Otro asunto es en la generación por IA de esas fotos completamente nuevas cuyos protagonistas no son personas reales... Entiendo que éticamente es "malo", pero no acabo de ver el daño a nadie y por lo tanto no acabo de ver que pueda ser juzgable.
#1 Sin ir más lejos, el código penal de España creo que ya lo penaliza:
¿Qué se considera pornografía infantil a efectos penales?
El propio Código Penal define en su artículo 189.1 qué se considera pornografía infantil o en cuya elaboración se han utilizado personas con discapacidad necesitadas de especial protección a estos efectos:
1. Cualquier material que represente visualmente a un menor o a una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.
2. Cualquier representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.
3. Cualquier material que represente visualmente a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte ser mayor de edad en el momento de obtenerse las imágenes.
4. Imágenes realistas de un menor que participa en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.
El último punto incluiría las imágenes generadas por IA pero dejaría fuera el hentai, caricaturas, etc.
#5 Creo que el punto 4 va a obligar a dejar bien claro qué es una imagen con "fines principalmente sexuales", y aún así creo que será un coladero para "desnudos normales".
#1 Es como cuando prohibieron las muñecas sexuales con apariencia infantil. Algunos dicen que al final eso conlleva al abuso de un niño real, supongo que es el mismo razonamiento que dice que si fumas porros acabarás inyectándote heroína.
Es como decir que por consumir porno y masturbarte acabarás violando a una mujer.
#1 No es tan sencillo, piensa que estas IA's hace falta hacerles lo que se llama finetunning. O sea entrenarlas con cierto tipos de imagen que de serie no están entrenadas para hacerlo. Como sería la pornografía infantil. Por lo tanto para generar imagenes necesitas antes haber hecho daño a niños para entrenar una máquina para generar imagenes que aparentemente no hacen daño a nadie.
Eso sí, si en un futuro deja de ser necesario este fine-tuning estaría de acuerdo contigo.
#1 Lo peor, al menos a mi parecer, es que ni tan solo las había hecho públicas, eran para "consumo propio":
He had created about 360 AI-generated images in April, the prosecutor’s office told CNN. The images were not distributed, and have been confiscated by police.
Me parece altamente peligroso... es como si censurasen a alguien que escribe un texto contrario al regimen político del país en que reside y le condenasen solo por eso, por pensarlo y escribirlo, sin haberlo hecho público.
#1 En relación a esta noticia... no logro entender el por que ahora que se usa una IA es un drama de la ostia. Desde hace años, bastantes años se publican infinidad de "mangas" muy bizarros con estas cosas y se de gente en España, muy buenos artistas que los dibujan (al igual que mangas normales). Para ellos es "arte" para otros algo literalmente inmoral y despreciable.
El dilema es... catalogamos como delito a alguien creando eso en base a su imaginación aun que nos parezca algo... nauseabundo?
Aquí entra un tema delicado... tu libertad acaba donde empieza la libertad de los demás. Si no hay víctima y no hay lesion, hace daño a nadie, se trata simplemente de una persona con un posible problema mental.
Extraña sentencia, el hombre ni distribuyó, y era pedófilo pero no pederasta. No sé qué función cumple ahí la carcel, ese trastorno lo van a seguir teniendo cuando salgan, y sale caro a la sociedad mantener gente ahí.
Lo que yo me pregunto es como se enteró la policía si el hombre no distribuyó, eso no lo pone en la noticia.
Y si la vecina piensa en el vecno, tambien es immoral ?
Y si es el vecino pensando en el vecino ?
O pensando en la novia de tu amigo ?
O en su esposa ? O en su esposo ?
Vamos a dejar la moralidad de lado por favor, porque si la sacamos a debate, habra quien te diga que hasta masturbase es immoral.
Comentarios
Esto ya es censura del pensamiento. Si no hace ningún daño a nadie, es incluso positivo que le aparta de ser mas peligroso.
#1 Creo que es moralmente reprobable pero desde el punto de vista legal (y vete tú a saber qué se cuece por aquellos lares) si las imágenes son completamente generadas por IA, no acabo de sabe cuál es el delito imputable.
Trasladando a España y salvando las diferencias ¿algún abogado en la sala que me pueda iluminar sobre cuáles son los delitos imputables a los chavales estos de Badajoz que generaron desnudos de sus compañeras por IA?
Insisto, no discuto sobre la parte moral o el daño que puedan hacer.
#3 Como problema legal es muy interesante. No creo que haya ningún artículo de ningún código penal que contemple esto, dado que no hay "víctima". Claro que la ley sólo habla de poseer imágenes de explotación sexual de menores. ¿Cómo calificar de explotación, de "menor" o incluso de "persona" a una imagen de algo que no existe? Van a tener que modificar la legislación porque veo difícil que en algún momento un caso así se gane en un tribunal. Si un pintor hiperrealista hiciese una obra con contenido pederasta, veo difícil que se le pudiese acusar de pederastia.
Esto dejando aparte temas morales, claro.
#7 Es que en el caso de las chicas de Badajoz he leído que si "revelación de secretos", como cuando una pareja se graba follando y luego uno de ellos lo sube a las redes por venganza.
Pero ¿qué se está revelando aquí si lo que se pueda ver en esas fotos, excepto la cara, no es real? Salvo que el delito en cuestión sea un cajón de sastre en el que quepan estas situaciones.
#11 Parece que en este caso de Corea las caras de los niños no eran reales, sino también generadas por la IA.
En el caso de las niñas de Badajoz sí me parece punible, porque está atentando contra una víctima real, pero en este de Corea creo que no será fácil demostrar que se trata de un delito.
#14 ¿Y en el de Badajoz qué tipología penal les corresponde?
#19 No tengo ni idea, claro. Pero está claro que en el caso de Badajoz sí hay unas personas reales perjudicadas.
#3 ¿Crees que es más moralmente reprobable que pensar en la vecina mientras te masturbas? Porque al fin y al cabo se trata de "personas" que no existen, de ficción pura y dura.
#8 Que te la peles con fotos de niños implica que tienes un problemilla en la cabeza. Si son ficticias podría pasar que alguna, de "filtrarse", llevase a otros a incluirla en sus "packs" de fotos de niños, lo sepa o no, o incluso que tuviese parecido razonable con alguien real y eso implicase una "situación desagradable" para ese alguien y su familia.
En cuanto a las chicas de Badajoz es otro cantar, pues la cara existe, pero el cuerpo no es el real.
#3 Tan moralmente reprobable como hacer una película gore. ¿Cuál es la diferencia?
#3 Podría darse el caso de que estas ias oculten pornografía real ya sea porque se mezclen de forma indistinguible o porque la utilice de base para la generación de esas imágenes. Por eso el porno con dibujos no es ilegal aunque implique menores y sin embargo crear o difundir imágenes creadas por ia u otros métodos fotorealistas si son delito.
#3 no soy abogado, pero a bote pronto apostaría a algo relacionado con el honor ya que estás poniendo caras de personas reales en situaciones que pueden causar daño a su reputación.
Otro asunto es en la generación por IA de esas fotos completamente nuevas cuyos protagonistas no son personas reales... Entiendo que éticamente es "malo", pero no acabo de ver el daño a nadie y por lo tanto no acabo de ver que pueda ser juzgable.
#1 Sin ir más lejos, el código penal de España creo que ya lo penaliza:
¿Qué se considera pornografía infantil a efectos penales?
El propio Código Penal define en su artículo 189.1 qué se considera pornografía infantil o en cuya elaboración se han utilizado personas con discapacidad necesitadas de especial protección a estos efectos:
1. Cualquier material que represente visualmente a un menor o a una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.
2. Cualquier representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.
3. Cualquier material que represente visualmente a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte ser mayor de edad en el momento de obtenerse las imágenes.
4. Imágenes realistas de un menor que participa en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.
El último punto incluiría las imágenes generadas por IA pero dejaría fuera el hentai, caricaturas, etc.
#6 Es lo que estaba pensando... ¿dibujar imagenes de niños desnudos es ilegal?
Por lo que dice #5 solamente es ilegal si muestra "una conducta sexualmente explícita", así que Sorolla y Miguel Angel pueden estar tranquilos.
#5 Creo que el punto 4 va a obligar a dejar bien claro qué es una imagen con "fines principalmente sexuales", y aún así creo que será un coladero para "desnudos normales".
#1 Es como cuando prohibieron las muñecas sexuales con apariencia infantil. Algunos dicen que al final eso conlleva al abuso de un niño real, supongo que es el mismo razonamiento que dice que si fumas porros acabarás inyectándote heroína.
Es como decir que por consumir porno y masturbarte acabarás violando a una mujer.
#1 No es tan sencillo, piensa que estas IA's hace falta hacerles lo que se llama finetunning. O sea entrenarlas con cierto tipos de imagen que de serie no están entrenadas para hacerlo. Como sería la pornografía infantil. Por lo tanto para generar imagenes necesitas antes haber hecho daño a niños para entrenar una máquina para generar imagenes que aparentemente no hacen daño a nadie.
Eso sí, si en un futuro deja de ser necesario este fine-tuning estaría de acuerdo contigo.
#12 Entonces el delito estaría en las imágenes previas, no en las generadas por la IA.
#22 Para entrenar esa IA necesitas de imagenes ilegales.
#1 Lo peor, al menos a mi parecer, es que ni tan solo las había hecho públicas, eran para "consumo propio":
He had created about 360 AI-generated images in April, the prosecutor’s office told CNN. The images were not distributed, and have been confiscated by police.
Me parece altamente peligroso... es como si censurasen a alguien que escribe un texto contrario al regimen político del país en que reside y le condenasen solo por eso, por pensarlo y escribirlo, sin haberlo hecho público.
Me da miedito...
#16 el siguiente paso será por pensarlo
#1 No des ideas: https://www.elespanol.com/elandroidelibre/noticias-y-novedades/20230303/nueva-ia-capaz-leernos-mente-imagenes-pensando/745675718_0.html
#1 En relación a esta noticia... no logro entender el por que ahora que se usa una IA es un drama de la ostia. Desde hace años, bastantes años se publican infinidad de "mangas" muy bizarros con estas cosas y se de gente en España, muy buenos artistas que los dibujan (al igual que mangas normales). Para ellos es "arte" para otros algo literalmente inmoral y despreciable.
El dilema es... catalogamos como delito a alguien creando eso en base a su imaginación aun que nos parezca algo... nauseabundo?
Sorolla hubiera sido detenido hoy en día, de pintar sus niños desnudos en la playa!
O Miguel Angel sus ángeles como dios los trajo al mundo!
#6 No te digo la de padres que hacen fotos de sus bebes desnudos
Aquí entra un tema delicado... tu libertad acaba donde empieza la libertad de los demás. Si no hay víctima y no hay lesion, hace daño a nadie, se trata simplemente de una persona con un posible problema mental.
#2 Si usas tijeras y pegamento, eres un enfermo, si usas un ordenador, delincuente.
Extraña sentencia, el hombre ni distribuyó, y era pedófilo pero no pederasta. No sé qué función cumple ahí la carcel, ese trastorno lo van a seguir teniendo cuando salgan, y sale caro a la sociedad mantener gente ahí.
Lo que yo me pregunto es como se enteró la policía si el hombre no distribuyó, eso no lo pone en la noticia.
Y si la vecina piensa en el vecno, tambien es immoral ?
Y si es el vecino pensando en el vecino ?
O pensando en la novia de tu amigo ?
O en su esposa ? O en su esposo ?
Vamos a dejar la moralidad de lado por favor, porque si la sacamos a debate, habra quien te diga que hasta masturbase es immoral.
Killpedos