Colombianos usan Inteligencia Artificial para crear fotos explicitas de mujeres y venderlas.
Con la llegada de una inminente revolución tecnológica que se viene de la mano de la implementación de la Inteligencia Artificial, son muchos los usos indebidos que este nuevo modelo no puede contener, y la ultima que ahora les dio por hacer a los colombianos, es estafar a mujeres creando fotografías de sus perfiles de redes sociales, y transformarlos en desnudos, para venderlas en grupos de chats de Telegram o WhatsApp.
Ya son varias las que alertaron por medio de sus perfiles de redes sociales que hombres roban sus fotos de sus cuentas de Instagram, donde estén en traje de baño o ligeras de ropa ya que estas son mas fáciles de alterar.
“Usaron mi foto de la playa y con Inteligencia Artificial ‘me quitaron la ropa’.. estoy harta de ver cómo nos utilizan para su entretenimiento, la foto esta en Grupos de WhatsApp, redes sociales, NO SOY YO y lo más lamentable de todo es que no puedo hacer nada al respecto.”, afirmó Johanna Villalobos, usuaria de Twitter que resultó afectada por este hecho.
En este video la mujer continua explicando como creyó que en Instagram la foto estaba teniendo mas engagement, pero se enteró de lo que en realidad estaba pasando con su fotografía:
Rápidamente, otras mujeres informaron en la sección de comentarios de ese tuit, que estaban pasando por el mismo modelo de abuso, demostrando así que los abusadores están buscando diversas alternativas para hacer de las suyas con la Inteligencia Artificial:
“Me pasó lo mismo y da muchísimo asco, no es tu culpa que la gente esté tan mal”; “lo siento muchísimo Johanna, que impotencia y enojo. Necesitamos leyes que regulen la tecnología y nos protejan de estas cosas.”; “100% de acuerdo. Esto de la AI debe regularse. A mí me clonaron la voz una página en Europa (soy locutor) y las leyes me impiden hacer nada al respecto. Si esto no se regula, los resultados serán nefastos para todos. Ya no se podrá confiar en ningún contenido digital.” o “me pasó lo mismo. No estás sola, debemos y merecemos ser respetadas, es frustrante saber que no podemos hacer nada, me ha costado muchas noches de llorar solo por rumores falsos con fotos editadas. Vales y eres mucho es asqueroso que estas personas estén por allí sin algún tipo de problema y que tengas que cargar con todo esto, gracias por ser valiente y exponerlo, yo te apoyo.” son algunos de loa comentarios al respecto.
Esta forma de abuso con la Inteligencia Artificial ya dio saltos a nombres importantes de la actualidad
Este delito incluso ya tocó las puertas de mujeres importantes del entretenimiento, pues Rosalia fue víctima de otro hombre que realizó la misma táctica: tomar una foto de donde estaba en traje de baño, y la editó con el uso de esta tecnología para decir que tenia los ‘nudes’ de la artista española. Rosalia se pronunció al respecto al enterarse.
Lo mas triste del caso, es que todos los hombres en los comentarios les piden que si no quieren que esas situaciones continúen presentándose, mejor dejen de tomarse fotos de esta manera, mostrando toda la misoginia y machismo posible, cuando la intención debería ser parar esta forma de violencia y abuso.
Peor aún, como si los propios hombres no subieron fotos de ese tipo, a toda hora:
En definitiva, es necesario que se comiencen a crear políticas de protección ante estos nuevos delitos que surgen gracias a la implementación de la IA, o es claro que los desastres que se podrían causar serian bastante graves.