Nos encantaría decir que en cuanto a inteligencia artificial lo hemos visto todo, pero no, lo que hoy hemos descubierto supera por mucho nuestras expectativas y nos acerca a un mundo que pocos imaginaban. Sí, un mundo donde podremos crear vídeos porno con celebridades, sin que éstas siquiera sepan que están ahí y todo gracias a la inteligencia artificial.
Para lograr estos vídeos, el programador desarrollo un algoritmo que hace lo siguiente: Tiene una IA que analiza muchos vídeos de una famosa, y luego analiza miles de videos porno e intenta encontrar que actriz porno hace expresiones que se corresponden con alguna de las expresiones que hizo la actriz de Hollywood.
Esto se puede realizar sin IA? Claro que sí. Pero sería engorroso, y nada cool. Así que si, es IA y de la buena.
#8:
Empezamos por poder falsear las fotos. Pronto, podremos crear vídeos casi reales con animaciones de personas reales y, finalmente, a partir de muestras de audio podremos sintetizar la voz exacta de alguien diciendo lo que queramos que diga. Si todo esto se cumple será una bendición porque habremos recuperado un espacio de libertad ya que todo acto de chantaje o prueba quedará inmediatamente invalidado.
#11:
Ultimamente se usa el termino IA para todo lo que no es IA.
superponer una cara a otra y que imite los gestos de la original será un algoritmo de edición de vídeo automatizado, pero llamarle IA a esto es totalmente erróneo pues no hay "aprendizaje profundo" de ningun tipo.
IA sería que generar automáticamente a partir de varios vídeos de la persona, una cabeza en 3d exactamente con las dimensiones reales a la que se pueda superponer su cara, siguiendo sus gestos. Ya se ha hecho esto pero a un nivel mucho mas avanzado.
Vaya crack, ya que no lo ponen en ningún sitio https://www.reddit.com/user/deepfakes el enlace es SFW pero si pincháis en sus comentarios obviamente ya no
#3 Es lo que tiene esa mierda página, son muy cuicos pero una basura, hace años valía la pena pero desde que el dinero se mete de por medio y meten becarios pasa lo que pasa
#11 El autor de los vídeos comenta que usa Keras (a high-level neural networks API) y TensorFlow (An open-source software library for Machine Intelligence)...
Podría estar matando moscas a cañonazos, pero parece que hace algo más que intercambiar las caras de dos imágenes. Según sus propios comentarios (del enlace que ha puesto #3), usa cientos de imágenes para que la aplicación sepa reproducir las expresiones y cabezas de las famosas
Empezamos por poder falsear las fotos. Pronto, podremos crear vídeos casi reales con animaciones de personas reales y, finalmente, a partir de muestras de audio podremos sintetizar la voz exacta de alguien diciendo lo que queramos que diga. Si todo esto se cumple será una bendición porque habremos recuperado un espacio de libertad ya que todo acto de chantaje o prueba quedará inmediatamente invalidado.
#8 Pero también se abre la puerta a que gente que comete crimenes horríbles (no hablamos de chantaje), si tienen como prueba principal un vídeo, pudiesen no ser condenados
#60 Yo, por lo que he interpretado, he creído que lo decía como algo bueno, yo defiendo que eso podría invalidar pruebas no sólo de "delitos que nos gusten" (o que creamos que no deben serlo) sino también de aquellos que nos horrorizan y deberían serlo (asesinatos, atentados, etc. )
#8 Aunque no sea un experto, creo que hay bastantes maneras de saber si una imagen ha sido retocada o es original.
Imagino que para los videos será igual. Habrá patrones para detectar si un contenido es generado por IA o no.
#8 En el tema foto, la "validación" de las fotos para temas periciales es casi imposible. Incluso intentaron sacar una tarjeta SD que iba encriptada de serie y de "un solo uso" de forma que se pudiese asegurar que las fotos que se hacian con esa tarjeta eran reales y no manipuladas, para el uso por los forenses y la encriptación no duro ni una semana cuando salio al mercado. Por no hablar de diferentes formas de "validar y certificar" los raws de cámara que tampoco han sobrevivido mas de unos días una vez lanzados. Mira que hay MUCHO MUCHO dinero involucrado, por que quien saque una forma de certificar las fotos tendria como clientes a todos los departamentos jurídicos y forenses del mundo (aunque existen ya Software especializado, que analiza los datos de imagen y comprueban que han salido de un procesador de camara y no manipulados por un software de imagen, buscando los defectos del sensor y demas, pero siempre va respaldado por un perito, no es darle a un boton). Por ejemplo esta foto del año pasado en Mexico de policias con armas sacadas en una protesta de profesores fue llevada a juicio: https://verne.elpais.com/verne/2016/06/21/mexico/1466467549_467060.html
Ultimamente se usa el termino IA para todo lo que no es IA.
superponer una cara a otra y que imite los gestos de la original será un algoritmo de edición de vídeo automatizado, pero llamarle IA a esto es totalmente erróneo pues no hay "aprendizaje profundo" de ningun tipo.
IA sería que generar automáticamente a partir de varios vídeos de la persona, una cabeza en 3d exactamente con las dimensiones reales a la que se pueda superponer su cara, siguiendo sus gestos. Ya se ha hecho esto pero a un nivel mucho mas avanzado.
Para lograr estos vídeos, el programador desarrollo un algoritmo que hace lo siguiente: Tiene una IA que analiza muchos vídeos de una famosa, y luego analiza miles de videos porno e intenta encontrar que actriz porno hace expresiones que se corresponden con alguna de las expresiones que hizo la actriz de Hollywood.
Esto se puede realizar sin IA? Claro que sí. Pero sería engorroso, y nada cool. Así que si, es IA y de la buena.
#63 Es que esto es meneame. Aquí hay que ser "políticamente correcto" si no quieres que te linchen.
(cuando digo políticamente correcto, me refiero a lo que los meneantes consideran correcto, no la gente normal).
#38 Y que tenga vestidos como la Barbie: el de Viuda Negra, el de Ghost in the Shell, el de Leía Esclava (si, se que la película no es suya, pero es mi onanismo y me imagino lo que me da la gana) o de Catwoman.
La verdad es que no entiendo como los daban hecho antes sin IA alguna. Eso si el problema es que se pueden usar para extorsionar a personas famosas, actrices, actores, artistas en general... y no solo su derecho de imagen.
El porno es el gran motor de la innovación. Pasó con los medios de grabación (steady cam), reproducción casera (VHS) y está pasando con todo el desarrollo comercial de internet.
#24 en realidad no, probablemente ella solita las ha proporcionado gratis a facebook, instagram, youtube...
Y ahora señores es cuando descubrimos el verdadero negocio de las redes sociales. ¿Tu vida es lo que has vivido o lo que has retransmitido y lo que se puede hacer con esa información?.
He visto el de Gal Gadot i bueno, hay planos como el del GIF que es impresionante lo bien hecho que está, pero luego en la acción.... se nota mucho donde empieza la cara de ella, el cuerpo de la actriz porno, etc...
Comentarios
Vaya crack, ya que no lo ponen en ningún sitio https://www.reddit.com/user/deepfakes el enlace es SFW pero si pincháis en sus comentarios obviamente ya no
#3 Interesante
#3 vas a reventar el contador de Karma
#3 Es lo que tiene esa mierda página, son muy cuicos pero una basura, hace años valía la pena pero desde que el dinero se mete de por medio y meten becarios pasa lo que pasa
#3 una pena que no los pueda ver
#11 El autor de los vídeos comenta que usa Keras (a high-level neural networks API) y TensorFlow (An open-source software library for Machine Intelligence)...
Podría estar matando moscas a cañonazos, pero parece que hace algo más que intercambiar las caras de dos imágenes. Según sus propios comentarios (del enlace que ha puesto #3), usa cientos de imágenes para que la aplicación sepa reproducir las expresiones y cabezas de las famosas
#22 pues lo de matar moscas a cañonazos (Algo muy típico de los pseudo-programadores hispánicos) no es Inteligencia Artificial, es Estupidez Natural
#36
Ya has perdido el toque de buen troll que tenías, lástima.
#36 Lo siento, no había reconocido tu nombre de usuario... en el futuro intentaré estar más atento e ignorarte.
#3 SFW ?
#23 Safe For Work vs. Not Safe For Work
#3 Gracias.
...
María de los Dolores de Cospedal y García, te van a dar lo tuyo y lo de tu prima.
Empezamos por poder falsear las fotos. Pronto, podremos crear vídeos casi reales con animaciones de personas reales y, finalmente, a partir de muestras de audio podremos sintetizar la voz exacta de alguien diciendo lo que queramos que diga. Si todo esto se cumple será una bendición porque habremos recuperado un espacio de libertad ya que todo acto de chantaje o prueba quedará inmediatamente invalidado.
#7 te responde muy bien el comentario de #8
#8 Pero también se abre la puerta a que gente que comete crimenes horríbles (no hablamos de chantaje), si tienen como prueba principal un vídeo, pudiesen no ser condenados
#32 Creo que iba por ahí #8 pero oye... ya me haces dudar... o no.
#60 Yo, por lo que he interpretado, he creído que lo decía como algo bueno, yo defiendo que eso podría invalidar pruebas no sólo de "delitos que nos gusten" (o que creamos que no deben serlo) sino también de aquellos que nos horrorizan y deberían serlo (asesinatos, atentados, etc. )
#8 Aunque no sea un experto, creo que hay bastantes maneras de saber si una imagen ha sido retocada o es original.
Imagino que para los videos será igual. Habrá patrones para detectar si un contenido es generado por IA o no.
#8 Ya se puede sintetizar la voz a partir de muestras de audio:
#8 En el tema foto, la "validación" de las fotos para temas periciales es casi imposible. Incluso intentaron sacar una tarjeta SD que iba encriptada de serie y de "un solo uso" de forma que se pudiese asegurar que las fotos que se hacian con esa tarjeta eran reales y no manipuladas, para el uso por los forenses y la encriptación no duro ni una semana cuando salio al mercado. Por no hablar de diferentes formas de "validar y certificar" los raws de cámara que tampoco han sobrevivido mas de unos días una vez lanzados. Mira que hay MUCHO MUCHO dinero involucrado, por que quien saque una forma de certificar las fotos tendria como clientes a todos los departamentos jurídicos y forenses del mundo (aunque existen ya Software especializado, que analiza los datos de imagen y comprueban que han salido de un procesador de camara y no manipulados por un software de imagen, buscando los defectos del sensor y demas, pero siempre va respaldado por un perito, no es darle a un boton). Por ejemplo esta foto del año pasado en Mexico de policias con armas sacadas en una protesta de profesores fue llevada a juicio: https://verne.elpais.com/verne/2016/06/21/mexico/1466467549_467060.html
Rule 34
#1 stranger things
#6
Ultimamente se usa el termino IA para todo lo que no es IA.
superponer una cara a otra y que imite los gestos de la original será un algoritmo de edición de vídeo automatizado, pero llamarle IA a esto es totalmente erróneo pues no hay "aprendizaje profundo" de ningun tipo.
IA sería que generar automáticamente a partir de varios vídeos de la persona, una cabeza en 3d exactamente con las dimensiones reales a la que se pueda superponer su cara, siguiendo sus gestos. Ya se ha hecho esto pero a un nivel mucho mas avanzado.
#11 te voy a explicar porque si es IA:
Para lograr estos vídeos, el programador desarrollo un algoritmo que hace lo siguiente: Tiene una IA que analiza muchos vídeos de una famosa, y luego analiza miles de videos porno e intenta encontrar que actriz porno hace expresiones que se corresponden con alguna de las expresiones que hizo la actriz de Hollywood.
Esto se puede realizar sin IA? Claro que sí. Pero sería engorroso, y nada cool. Así que si, es IA y de la buena.
Todo avance tecnológico sirve para hacer porno en primer lugar.
#15 Y para videos de gatitos. No te olvides de los gatitos.
#44 Vídeos porno de gatitos... El internet 3.0
doppelbanger de toda la vida
me acaba de explotar el cerebro con esta idea: en poco tiempo, podríamos ver a Bud Spencer azotando el culo de la Kardashian.
#10 O a el Trence Hill "detrás de las cámaras"
#57 🐓
#63 Es que esto es meneame. Aquí hay que ser "políticamente correcto" si no quieres que te linchen.
(cuando digo políticamente correcto, me refiero a lo que los meneantes consideran correcto, no la gente normal).
Al fin una IA con una utilidad real para toda la humanidad, y no esas mierdas de jugar al ajedrez, o al go, o a curar el cáncer.
#34 Esta no cura el cáncer pero ayuda a prevenirlo:
Los médicos recomiendan masturbarse más de tres veces por semana
Los médicos recomiendan masturbarse más de tres ve...
nosexophobia.comLa eyaculación frecuente en el hombre disminuye el riesgo de cáncer de próstata
La eyaculación frecuente en el hombre disminuye el...
diazcremades.esMasturbarse puede llegar a ser muy saludable
Masturbarse puede llegar a ser muy saludable
foxnews.com#47 Ese es el camino a seguir, la IA que la chupe.
#56 Estaba pensando en una respuesta graciosa pero no vaya a ser que me frían a negativos por hacer chistes machistas.
#57 Ah, sí, que graciosa! AjajajajajJjj
Se va a poder ver la otra teta de Terelu?
Preferiria androides personales con aspecto de.......
Como en futurama.
#18 yo también sueño con imprimirme en 3d un androide funcional copia de scarlett johansson.
#38 Y que tenga vestidos como la Barbie: el de Viuda Negra, el de Ghost in the Shell, el de Leía Esclava (si, se que la película no es suya, pero es mi onanismo y me imagino lo que me da la gana) o de Catwoman.
#50 no entiendo la necesidad de vestido ninguno, la verdad....
Pd. Al de viuda negra le pones unas orejas del chino y te vale como el de catwoman.
#54 yo estaba más por la Catwoman dominatrix de Batman 2 que de la Dark Knigth Rising
#38 Jejeje, mi lista es mas larga, pero usted tiene un gusto exquisito.
Celebrities? Al contrario: lo que lo va a petar son las porno con la vecina, la panadera, la jefa...
#40 Ahora si que van a triunfar las Google Glasses con su discreta camarita incorporada.
El siguiente paso: " Be right back"
https://es.wikipedia.org/wiki/Anexo:Episodios_de_Black_Mirror
La verdad es que no entiendo como los daban hecho antes sin IA alguna. Eso si el problema es que se pueden usar para extorsionar a personas famosas, actrices, actores, artistas en general... y no solo su derecho de imagen.
Salu2
#7 O al revés. A partir de ahora cada vez que se filtre material delicado de alguien, podrá alegar que es una falsificación.
El porno es el gran motor de la innovación. Pasó con los medios de grabación (steady cam), reproducción casera (VHS) y está pasando con todo el desarrollo comercial de internet.
#5 Y los smartphones, no te olvides
#13 Un clásico
Perfecto, sólo hay que coger a la tía que te gusta, decirle que ponga 1000 caras diferentes y chutárselo al programa. Sencillísimo y rico rico ...
#24 en realidad no, probablemente ella solita las ha proporcionado gratis a facebook, instagram, youtube...
Y ahora señores es cuando descubrimos el verdadero negocio de las redes sociales. ¿Tu vida es lo que has vivido o lo que has retransmitido y lo que se puede hacer con esa información?.
Spam.
He visto el de Gal Gadot i bueno, hay planos como el del GIF que es impresionante lo bien hecho que está, pero luego en la acción.... se nota mucho donde empieza la cara de ella, el cuerpo de la actriz porno, etc...
#14 ¿Y dónde dices qué has visto el vídeo del Gal Gadot?
Es para un amigo que se parece sospechosamente a mí.
#21 blablabla/deepfakes/submitted/
#21 con que pongais gal gadot en pornhub sale
#46 Correcto.
#53 Bueno, pero este entraba fácil, no hacía falta.
Se dice famosos.
#30
#30 Si, y se dice "presidente", no "presidént", "estatuto" no "estatút" y "Lérida", no "Lleida". Hoy en día está de moda lo de mezclar idiomas...
#46 No te olvides esto.
La raza humana llegaría a su fin
Otra tecnología que empieza teniendo su boom con el porno. Aunque supongo que por derechos de imagen sería ilegal
Me voy desabrochando...
#33 yo te lo arreglo.
FALETE