Una adolescente víctima de la aplicación ClothOff, que usa la inteligencia artificial generativa para desnudar a cualquiera a partir de una imagen con ropa, ha demandado a los creadores por las secuelas arrastra y por el potencial uso que estén haciendo de sus imágenes para entrenar modelos de IA.
En 2023, compañeros de instituto de Jane Doe -nombre genérico que se usa para no identificar a la menor de edad, en este caso, de 17 años- obtuvieron y usaron imágenes de ella para cargarlas en la aplicación ClothOff, que con solo tres clics desnuda a la persona, ofreciendo un resultado que no puede diferenciarse de una imagen real.
"Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces", recoge el texto de la demanda, presentada en el Tribunal de Distrito de Los Estados Unidos del Distrito de Nueva Jersey.
Ello le ha llevado a demandar junto con sus padres a la empresa AI/Robotics Venture Strategy 3, responsable de la aplicación, por entender que su modelo de negocio no solo facilita la creación de desnudos ilegales, sino también su distribución y la monetización a través de los planes de pago, e incluso a través de la provisión de la tecnología de base a desarrolladores y otras plataformas.
"Todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos", se indica, en referencia a las imágenes hiperrealistas de desnudos de personas sin su consentimiento que produce, ya sean menores (lo que se llama material de abuso sexual infantil) o adultos (imágenes íntimas sin consentimiento) "convirtiéndolo en un caldo de cultivo por pornografía infantil, explotación y abuso sexual".
También se señala que, "porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor constante de que su CSAM permanezca disponible en ClothOff y en otros lugares. Le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas".
Según se recoge en la demanda, ClothOff produce cada día una media de 200.000 imágenes y recibe unas 27 millones de vistas. La propia promoción de la app invita a los usuarios a "desnudas a cualquiera" con su servicio gratuito.
Últimas Noticias
El Consejo Constitucional de Camerún rechaza todas las alegaciones por irregularidades en las elecciones

El salario medio en el sector tecnológico digital español crece un 3,2%, hasta los 48.900 euros anuales

El Congreso de Perú da su voto de confianza al gabinete del primer ministro Ernesto Álvarez

Trump tacha a Petro de "matón y mal tipo" y amenaza con "medidas muy severas"

Rubio afirma que EEUU aún quiere reunirse con Rusia pese a la cancelación del encuentro y las sanciones
