DeepNude: un software deepfake sin ética que vulnera a minorías, LGBTQ+ y mujeres

Ciudad de México  

Aplica tecnología similar a la de los deepfakes con el propósito de "desnudar" imágenes de mujeres

 

Los deepfakes o ultrafalsos son videos o imágenes alterados mediante el uso de algoritmos de aprendizaje profundo, su nombre proviene del juego de palabras entre deep learning y fake (falso). A finales de junio de 2019 diversos medios estadounidenses comenzaron a denunciar la aplicación móvil DeepNude, que aplica tecnología similar a la de los deepfakes con el propósito de "desnudar" imágenes de mujeres; el 27 de junio los desarrolladores de la app la retiraron del mercado, pero todavía durante la segunda semana de julio ha habido reportes de versiones clonadas del programa que están siendo eliminadas.

DeepNude se basa en Pix2Pix, un algoritmo de código abierto desarrollado por investigadores de la Universidad de California en Berkeley en 2017 que utiliza redes generativas antagónicas (generative adversarial networks, GAN), estas funcionan al entrenar un algoritmo con un gran conjunto de datos de imágenes, luego el software trabaja en superarse a sí mismo; en el caso de DeepNude, se emplearon más de diez mil fotos de mujeres desnudas para el entrenamiento (por ser más fáciles de encontrar en línea las imágenes de mujeres, aunque los creadores declararon haber tenido la intención de crear una versión masculina de DeepNude).

Si bien los deepfakes representan un peligro para los procesos democráticos y la reputación de las personalidades públicas en general, también existen grupos de ciudadanos comunes que podrían ser víctimas del mal uso de estas tecnologías: minorías, miembros de la comunidad LGBTQ+ y otras personas a menudo hostigadas a través de las redes sociales (y en la vida real). Producto de una sociedad donde ni ellos ni las mujeres son todavía vistos con el debido respeto, también las personas del sexo femenino se vuelven vulnerables ante el uso malintencionado de los ultrafalsos.

Estas poblaciones vulnerables no cuentan con los medios para protegerse a sí mismas cuando son víctimas del uso sin ética de aplicaciones tecnológicas. En un tweet donde se explicaba el porqué de cerrar la aplicación, los creadores del software aseguran: "Creamos este proyecto para el entretenimiento de los usuarios hace unos meses. [...] El mundo aún no está listo para DeepNude". Es decir, los desarrolladores llaman "entretenimiento" a un programa capaz de cambiar la ropa de las mujeres por cuerpos femeninos desnudos altamente realistas.

No existen legislaciones específicas para este tipo de acciones malintencionadas que podrían usarse con fines de ciberacoso u otro tipo de ciberviolencia, los vertiginosos avances tecnológicos durante las primeras dos décadas del siglo XXI han dejado atrás los marcos regulatorios internacionales. El algoritmo de DeepNude es similar al empleado en los deepfakes y la tecnología de los vehículos autónomos para "imaginar" escenarios de carreteras. Esta tecnología no es mala, pero puede ser mal empleada por los usuarios. Los ultrafalsos, cuando son aplicados en sano entretenimiento, pueden darnos versiones de Jim Carrey en lugar de Jack Nicholson como Jack Torrance (The Shining, 1980).

 

ACTUALIZACIÓN(del )

 

¿Te gustó el contenido?

 

 

Recibe las noticias por correo

Entérate de la economía, noticias internacionales y el impacto en los negocios. Aviso de privacidad