La app que le quitó la ropa a internet — y nos dejó sin excusas

causanews.com — tecnología & sociedad

Columna de opinión · Inteligencia Artificial

DeepNude duró 48 horas en línea. El daño que reveló lleva años instalado entre nosotros.

Podcast

Análisis · 5 min de lectura

Imaginá que una herramienta pudiera tomar cualquier foto de cualquier persona vestida y, en cuestión de segundos, generar una imagen falsa de esa misma persona desnuda. Sin consentimiento. Sin rastros. Con resultados lo suficientemente convincentes como para arruinar una vida. Eso fue DeepNude. Y aunque sus creadores la eliminaron en 2019 apenas dos días después de su lanzamiento, la caja de Pandora ya estaba abierta para siempre.

Lo que este software reveló no fue solo una vulneración a la privacidad. Fue el momento exacto en que la sociedad entendió que la inteligencia artificial había puesto en manos de cualquier persona con una computadora el poder que antes solo tenían los mejores retocadores digitales del mundo, con años de experiencia y horas de trabajo manual. La democratización de la violencia visual había llegado.

“Lo que antes requería horas de retoque experto se convirtió de pronto en un proceso de segundos, automatizado y masivo.”

La arquitectura del daño

Para entender por qué DeepNude fue tan eficaz, hay que asomarse aunque sea un poco a su interior. La herramienta utilizó algo llamado Red Generativa Adversaria Condicionada, o cGAN: básicamente, dos sistemas de inteligencia artificial que se enfrentan entre sí. Uno intenta crear imágenes falsas tan convincentes que parezcan reales. El otro intenta detectar si lo que ve es real o fabricado. Cuanto más se entrenan juntos, mejor se vuelven los dos. El resultado: imágenes sintéticas de una calidad perturbadora.

Pero el verdadero ingenio —y perversión— del sistema estuvo en cómo su creador resolvió el problema de los datos. No existen bases de datos con fotos de la misma persona vestida y desnuda. Entonces dividió el problema en tres tareas separadas: primero, identificar la ropa en la imagen; segundo, localizar puntos clave del cuerpo; tercero, generar la anatomía sobre ese mapa. Tres redes distintas, entrenadas con imágenes independientes, encadenadas para producir el resultado final. Una solución técnicamente brillante puesta al servicio de algo profundamente dañino.

El sistema también usaba una arquitectura llamada U-Net con bloques residuales, que actúa como “atajos” para que la imagen generada conserve detalles finos y no quede borrosa. El resultado era lo suficientemente nítido como para ser usado con fines de extorsión o acoso.

El sesgo no fue un accidente

Una de las revelaciones más incómodas del caso fue esta: la aplicación solo funcionaba con cuerpos femeninos. El argumento del desarrollador fue que “era difícil encontrar fotos de hombres” para entrenar el modelo. Mentira técnica. Dado que el sistema ya usaba imágenes desvinculadas entre sí, conseguir imágenes masculinas era perfectamente viable. La realidad es que hubo una decisión deliberada de optimizar la herramienta para satisfacer una demanda específica del mercado: el acoso y la extorsión sexual dirigida a mujeres.

Esto nos lleva a una de las lecciones más importantes que DeepNude dejó sobre la inteligencia artificial: los algoritmos nunca son neutrales. Cada conjunto de datos elegido, cada parámetro ajustado, refleja las intenciones y los prejuicios de quien los diseña. La IA no discrimina sola. La discriminación se le enseña.

El argumento que ya no funciona

“Esto ya se podía hacer con Photoshop.” Es la frase que muchos usaron para minimizar el impacto de DeepNude. Y es cierta a medias. La diferencia no está en la posibilidad sino en la escala. Un retoque manual requiere talento, tiempo y esfuerzo. Un algoritmo de deep learning puede procesar miles de imágenes por segundo, de forma gratuita, sin necesidad de ninguna habilidad especial. La automatización convierte el acoso individual en una industria. Convierte la violencia visual en algo tan barato y accesible como enviar un mensaje de texto.

“La automatización convierte el acoso en una herramienta de bajo costo y alto impacto. La responsabilidad no termina en la creación del código; empieza allí.”

Lo que nos queda pendiente

DeepNude fue eliminada. Pero el código fue copiado, modificado y redistribuido antes de que nadie pudiera hacer nada. Versiones derivadas circulan hasta hoy en rincones oscuros de internet. La pregunta que este caso dejó abierta no es técnica sino civilizatoria: en un mundo donde cualquiera puede fabricar imágenes sexuales falsas de cualquier persona en segundos, ¿cómo construimos las defensas legales, éticas y sociales para que la inteligencia artificial sea un motor de progreso y no un arma de opresión?

Las mismas arquitecturas detrás de DeepNude se usan hoy para detectar cáncer en radiografías, restaurar obras de arte perdidas o generar efectos visuales en el cine. La tecnología no es el villano. El villano es la ausencia de una brújula moral en quienes deciden cómo y para qué se usa. Y esa brújula, hoy más que nunca, nos corresponde a todos construirla.

¿Querés seguir leyendo análisis como este?
En CausaNews.com cubrimos la IA que nadie más se atreve a explicar.

Ir a CausaNews.com ↗

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio