DeepNude es una aplicación que utiliza inteligencia artificial y redes neuronales para eliminar la ropa de imágenes de mujeres y recrear desnudos ultra realistas. Se trata de una evolución de los llamados 'Deep Fakes', un nuevo algoritmo que nos anticipa el gran potencial que tiene esta tecnología así como su impacto en la sociedad.
Funciona de manera sencilla. DeepNude permite subir una imagen de una mujer con ropa y crea una nueva imagen de la misma persona pero donde se ha eliminado la camiseta, sujetador, bikini o cualquier prenda que tape sus partes. Una imagen marcada como 'fake' por el propio programa, pero con un resultado bastante realista y que bien podría pasar por una imagen real.
Una aplicación que solo recrea imágenes de mujeres
Acceder a DeepNudes es muy sencillo ya que está disponible online a través de una página web. Existe una versión gratuita que permite transformar las fotos con algunas limitaciones y añade una visible marca de agua y posteriormente una versión de pago que permite exportar a resolución completa, reduce la marca a un "FAKE" en la parte superior y permite modificar mejor la imagen. Esta versión de pago tenía inicialmente un coste de 50 dólares como informa Motherboard, pero debido previsiblemente a la atención generada ha subido el coste a 99,99 dólares. Pudiendo pagar con tarjeta o a través de criptomonedas.

La plataforma está disponible a través de la web pero es a través de una aplicación para Windows y Linux donde el usuario puede subir imágenes. El creador de la aplicación dice estar trabajando también en una aplicación para Mac. Por el momento no hay disponible aplicación para móvil.
Dicho esto, la aplicación consigue crear desnudos en segundos. Es tan sencilla que realmente asusta. Los desnudos falsos han existido en internet desde hace años pero con los deepfakes entramos en una nueva fase, mucho más peligrosa ya que deja en manos de cualquier persona poder generar una imagen así. Ya no hacen falta conocimientos de edición, es el algoritmo el que se encarga. Un algoritmo que únicamente funciona con mujeres, ya que cuando lo probamos con una imagen de un hombre en vez de mostrar un pene, añade de nuevo una vulva y tetas de mujer.

Como muestra el autor en su cuenta oficial, DeepNude está basado en las gafas de visión de rayos X que prometían ver a través de la ropa. El "superpoder que siempre quisiste tener", según reza el lema oficial de la aplicación.
Estamos "ante una invasión de la privacidad sexual" comenta a Vice Danielle Citron, profesor de derecho de la Universidad de Maryland que recientemente testificó en el Congreso por el uso de los deepfakes. Y es que la llegada de estos desnudos falsos generados por algoritmo suponen un nuevo capítulo en los peligros de los deepfakes.

DeepNude podría utilizarse para 'revenge porn' incluso aunque en realidad nunca hubieran existido esas imágenes sin ropa. El resultado es tan realista que el impacto que podría tener es similar. Una aplicación creada "por diversión y curiosidad" como explica el autor pero que genera toda una serie de dudas sobre la privacidad y enlaza de nuevo el machismo con la tecnología. ¿Por qué el algoritmo únicamente funciona con mujeres? "Porque las imágenes de mujeres desnudas son más fáciles de encontrar online", explica el autor a Vice. A lo que añade que espera en el futuro crear una versión con hombres también.
Basada en un algoritmo open source

Los datos de DeepNude se guardan en local y no se suben a la nube indica la página web. El autor de la aplicación no ha querido revelar su identidad real, aunque dice llamarse 'Alberto' y procedente de Estonia. Sí explica más detalles sobre cómo funciona el algoritmo de DeepNude. El software estaría basado en pix2pix, un algoritmo open source desarrollado por la Universidad de California, Berkeley en 2017.
Se trata de un algoritmo que utiliza redes neuronales para tratar con una gran base de datos de imágenes. En este caso, más de 10.000 imágenes de mujeres desnudas que el programador habría utilizado para "entrenar" a la inteligencia artificial.
Mientras que los vídeos de deepfakes tardan horas en renderizar, estas imágenes son generadas en menos de un minuto. "Las redes son múltiples, cada una tiene una tarea diferente. Localizar la ropa, seleccionarla, especular con las posiciones del cuerpo y renderizarlo", un proceso que según explica el autor "puede hacerse en 30 segundos en un ordenador normal y puede ser mejorado en el futuro".
Ver 74 comentarios
74 comentarios
rumpelstisien
A esto se le puede ver un lado positivo, ahora si aparece una foto comprometida de alguien en Internet, siempre puede decir que es una fake.
marlboro
He leido todos y cada uno de los comentarios de esta noticia y hay varias cosas q me llaman la atención.
1. La aplicación es mala pq patatín y patatán...
Las aplicaciones no son malas, el uso q se haga de ellas si puede serlo.
2. Cualquiera puede usarla y desnudar y arruinarle la vida a cualquier mujer...
Hay una diferencia entre usar la aplicación y distribuir el resultado.
3. Y si fuera tu hermana, hija, mujer... cosificación, sexualización, heteropatriarcados, falocracias...
El problema no es si son mujeres, negros, moros, minorías, mayorías ni nada parecido.
El problema reside en nosotros (los seres humanos) pq no hemos sido educados (o suficientemente educados) en el acción-reacción o causa-efecto. Me explico:
Si no soy consciente del efecto q puede causar un acto mio, necesito educarme en aprender a serlo y ver mi responsabilidad en el acto.
Si yo soy consciente del efecto q puede causar un acto mio, debería de ser consciente de mi responsabilidad ante el mismo y asumir mi consecuencia.
Si yo uso el programa pq soy un pajillero solo disfruto en mi intimidad sin hacer daño a nadie.
Si yo uso el programa para difundir fotos de mis compañeras de clase/curro/lo q sea desnudas, tengo un problema de educación...
Y ante este problema REAL, q es la difusión de imagenes reales o de bulos, pero q conscientemente sabemos Q ESTÁ MAL, es ante lo q deberiamos de promulgar leyes q lo castigaran...
Pq como especie somos así de gilipollas, o nos duele en el bolsillo (o carcel para los problemas graves), o no aprendemos...
Si cada vez q difundieramos una foto real o q pudiera confundirse con real nos llegara una multa de 50€ (simplemente 50 pavos) ya veríais q rápido acababamos con el problema...
kawjones
Como decia el clásico "Interner is for Porn" (el video de World of Warcraft estÁ desde hace ¡¡13 AÑOS!! ) pero ahora habria que añadir que tambien es para vagos e indolentes.
Lo que realiza esta IA en menos de un minuto es lo que se ha hecho hasta ahora con muchos más minutos, con photoshop y/o gimp.
¡Anda que no hay tutoriales sobre el asunto! ¡Y lo que se aprendia sobre capas, máscaras, selecciones, colores, curvas,fusiones....!.
Ahora todo al carajo gracias a la IA.... Skynet esta cada vez más cerca.
mord
Venga hombre.
La IA ha llegado para hacer a los hombres aún más vagos de lo que ya éramos.
Ya ni siquiera nos esforzaremos en echarle imaginación.
olati
Nunca he entendido el escándalo de las desnudez, y como todos se ponen como locos/as cuando hay fotos de famosillos desnudos/as. Cómo si lo que tuvieran que mostrar fue demasiado "especial" o diferente del resto.
Esto es solo el principio, se ve que la calidad es muy pobre, pero seguro no falta mucho para algo bueno.
Creo que con esto por fin la sociedad va a madurar.
Exos
Anda! Una IA puede hacer algo que nadie con suficientes conocimientos de Photoshop podría hacer, es el fin del mundo!
Como otras de esas tantas noticias que aparecen sobre los peligros de las IA...
sr.lobo.
Es que el problema es pensar que "un desnudo te arruina la vida".
Es tan sencillo como darse cuenta que eso pasará y punto. Si, tengo pene. ¿Y?
Y las mujeres tienen pechos y vagina... Ufff, menuda cosa.
Ya está. Cuando la APP sea pública y al alcance de todo el mundo dejará de tener importancia. Hace años que este tipo de montajes existen. El problema es darles importancia.
santiagoalferez
Este es un ejemplo de la importancia de la ética en la IA. Puede que ayude a que la mayoría de personas con tanto deep fake (no solo de imágenes sino también de texto), sean mucho más conscientes y empiecen a dudar de cualquier contenido en Internet. Por otro lado, las personas tendrán mucho más cuidado de subir fotos en las redes sociales.
Ahora, el tema de los adolescentes, es complejo. Puede ser utilizado como herramienta de bullying, y en esto, es donde se tiene que educar culturalmente para disminuir el impacto de aplicaciones negativas (que siempre habrá).
pspaj
El problema de esto no es el puritanismo, ni esas tonterías. El problema es cuando lo hacen con tu novia, hermana, madre, hija, mujer...., Y es difundido por las redes sociales. Puede traer consecuencias graves, sobre todo en adolescentes.
Esto es más grave de lo que parece.
rennoib.tg
Bueno, puede que el desnudo se acabe aceptando gracias a esto. Aparte de que no deja de ser algo inventado y no real, no veo la preocupación. Si te pillan una foto real ya puedes decir que era fake jajaja.
l1ch
Regla 34 en su máximo esplendor xD
tony.fernandez.7568
Si estáis interesados, en emule está.
Pero esto es una traca sin petardos, he probado 5 fotos. 2 salieron aceptables pero borrosas y con fallos claros de continuidad y las otras directamente monstruosidades.
Cada foto ha tardado mas de 3 horas en procesarla.
Como dice el creador, con photoshop te aburres menos, tardas menos y queda mejor.
En fin, lo dicho, una traca sin petardos, este engendro de la naturaleza no funciona y ha recibido demasiada publicidad(que no entiendo quien la paga si el programa ya no puede comprarse).
Yo os digo que si me gasto 1€ por esta bazofia (que en un movil debe exprimir la batería en una o dos fotos) y reclamo mi euro.
oracon
El metodo usado y entrenamiento dado es amateur con una persona con minima formacion, el uso de tecnicas mas avanzadas podrian generar imagenes miles de veces mas realistas, pero sin duda el señor de vice debe estar en el vicio.
supaplexmurphy
Me parece más efectiva la técnica Amish para hacer que los cuerpos parezcan estar desnudos.
¿Para cuándo una app que haga eso?
supaplexmurphy
Repetido
oracon
Los desarrolladores dan de baja el programa y se retiran, aunque un grupo de hackers rusos, ya encontraron la forma de activar la demo y remover las marcas de agua y siguen con los demas sellos.
mugre
Yo habría usado mis conocimientos para el bien.
acontracorriente
El programa falla más que una escopeta de feria. He hecho varias pruebas "científicas" con la versión premium y ha sido más el ruido que ha hecho que la calidad del mismo.
Quien quiera hacer "desarrollos empíricos" con la app, que sepa que la pueden encontrar navegando por la bahía pirata, pero os aseguro que los resultados obtenidos no son los que tenéis en mente.
jozeico
Si no entiendes por qué hay polémica, eres parte del problema, aunque aún no te hayas dado cuenta. Ojo, no me estoy metiendo contigo, pero considera la posibilidad de que lo seas y no te hayas dado cuenta. Busca información, argumentos, opiniones en internet, intenta ponerte en su lugar. Imagina que tú eres una mujer a la que sus compañeros de trabajo pueden verla desnuda. Imagina que es tu novia, tu esposa o tu hija, y que cuando pasa por la oficina o por el aula del colegio, la mira todo el mundo babeando. A diario. Todos los días.
jaimejames
Esperando que hagan una que lo haga con cualquier video de mujeres.
danielxero
Yo la estoy probando con imágenes de google y los resultados son nefastos para la alarma que se ha creado alrededor de este programa. La IA del programa necesita ver más porno para llegar a ofrecer resultados creíbles xD
Por lo que veo:
-En cuanto hay algo más de ropa que un bikini ya se vuelve inútil porque deja trozos de ropa.
-Si hay más de una mujer en la imagen, a una le pone una teta, a otra una vagina en la cara... vamos... un cristo bueno.
-Si la mujer está de espaldas le pone las tetas en el culo.
-Si la imagen está del revés se hace un lío.
Y bueno... con las luces y los tonos de piel también falla a dolor.
Resumiendo: que está muy cruda todavía como para generar alarmas de que se puede usar para ciberextorsión y otras acciones delictivas y mal vistas.
johnnysins
Puedes descargarlo aquí: https:// sites.google .com/view/deepnude/home
alvaronava
Haber, se que necesitan visitas y todo eso, pero es necesario manipular la información sabiendo el alcance que tienen, deepnude es una red neuronal generativa de imágenes, una aplicación de pix2pix para generar imágenes de imágenes, deepnude se creo para quitar la ropa pero es necesario que pongan únicamente a mujeres!? La IA de deepnude puede desnudar a hombres y mujeres por igual, al especificar únicamente mujeres crean odio a los avances por parte de las mujeres, lo único que hacen es dañar los avances de IA con noticias falsas