Los datos son escalofriantes: – Se producen 6700 imágenes de desnudos a la hora, un número que va creciendo según se va popularizando la herramienta. – El 53% de las imágenes que genera Grok son quitando ropa, 4 de cada 5 imágenes que quitan ropa están quitando ropa a mujeres, el 80% de los usuarios de esta herramienta son hombres. – X es hoy por hoy la mayor fábrica de deepfakes del planeta. – Las denuncias de las usuarias no son escuchadas y las convierten en objeto de humillaciones
|
etiquetas: x , grok , elon , musk , ia
Esto ya venía en la Biblia no?
Y no, no es "según público" porque en ninguna parte lo afirma, es "según tú".
Estás señalando una confusión deliberada que suelen hacer estos artículos y que es fundamental para entender por qué te parece un sinsentido lógico.
El texto que has pegado hace un truco de trilero conceptual: mezcla Deepfakes (delito contra la intimidad) con Generación de imágenes sintéticas (pornografía virtual).
Vamos a diseccionar el
… » ver todo el comentario
La verdad es que podían aprender de Claude de anthropic, que es más serio y funcional.
{Irony off}
Ahora cualquier orangután torpe puede hacerlo.
PD Cualquier orangután torpe es demasiado decir... Seguro que a ti te saldría algo así:
El pecho de Schrödinger: ¿Empoderamiento o Violencia?
Símbolo de libertad cuando se muestra en público perfectamente de izquierdas, según la circunstancia (Femen, "Free the Nipple", Rigoberta bandini, topless); pero se convierte en "fascismo/violencia" si lo genera una IA para un hombre (no hablo de deepfakes sino de las 6700 imágenes a la hora que denuncia la noticia).
Dan mucho miedo las tetas.
Casi toda la gente que conozco piensa que el contenido de las rrss es real, de hecho ya he visto varios casos en los que gente adulta muy cercana me enseña videos y le tengo que decir: eso es IA y me dicen y aseguran que no. Es necesario una etiqueta forzada/obligada en el contenido alterado con IA al igual que con la publicidad.
twitter.com/i/status/2009972047766781958