Inquietud y temor respecto de sus consecuencias han generado los denominados “deepfakes”, que son videos, imágenes o audios generados por medio de la Inteligencia Artificial (IA) que imitan la apariencia y la voz de una persona con tal precisión que pueden engañar tanto a humanos como a los propios algoritmos.
Ello es algo que hasta hace un tiempo parecía ciencia ficción, pero que ahora es real y puede ser efectuado con facilidad, dado que, por ejemplo, en la red social “X” está disponible una función que permite crear “deepfakes”.
Motivado por la posibilidad de que a partir de estas “imitaciones” se produzcan fraudes, engaños, timos, robos, noticias falsas y otros perjuicios, es que el senador independiente Karim Bianchi presentó una moción que busca sancionar a quienes en nuestro país generen y difundan imágenes privadas creadas con IA.
Tal iniciativa fue derivada a la Comisión de Constitución de la Cámara Alta, y plantea penas de reclusión menor (de 61 días hasta cinco años de cárcel) y multas económicas de hasta 500 Unidades Tributarias Mensuales ($33.714.500 de acuerdo al precio de a UTM en enero) para quienes resulten responsables.
El parlamentario de la Región Magallanes señaló que “los “deepfakes” puede ser utilizados con fines maliciosos, como difundir desinformación, cometer fraudes financieros y realizar ciberespionaje. Este y otros avances de la tecnología obligan a nuestra legislación a estar en constante perfeccionamiento, dado que antes era inimaginable que sucedieran este tipo de hechos, que hoy son posibilidades. Sólo se necesita de un click y de mala intención para perjudicar a muchos”.
El senador advirtió además sobre las graves consecuencias que podría traer el mal uso de las herramientas digitales.
“Un video editado en el que aparezcan presidentes declarando la guerra suena una barbaridad, pero hoy ello es posible y puede afectar relaciones diplomáticas y causar gravísimos daños. Y otros videos menos graves pueden afectar a la honra y a la dignidad de las personas”.
ANÁLISIS EXPERTO
El guionista y escritor Julio Rojas se ha especializado en IA, al punto de que está terminando una novela basada en esta tecnología y ha reconocido que es usuario de ella en sus múltiples labores. Y, desde su experiencia, analizó la nueva realidad que ha surgido por los “deepfakes”.
“Hay una conjunción feroz, una especie de confluencia de elementos que hacen muy difícil que esto pueda pasar sin consecuencias… Hasta ahora la realidad era la que nos proveían los sentidos, porque somos una especie que sobrevivió gracias a la habilidad de reconocer lo verdadero de lo falso, lo venenoso de lo sano y lo peligroso de lo seguro a través de los sentidos”.
“En un momento esa percepción original orgánica fue reemplazada por pantallas que representaban la realidad como mediadores, como una tecnología de expansión de la realidad que permitía ver lo que sucedía en otras partes”, señaló el creador del popular podcast “Caso 63″.
Según Julio Rojas, “hoy con la IA generativa y a través de nuevos modelos, como el último Grok, un chatbot de “X” que casi no tiene censura, es posible generar imágenes muy realistas. Y como la tecnología es exponencial, ello hace que cada vez sea más difícil detectar distintos tipos de engaños”.
“De hecho, las aplicaciones surgidas a fines de 2023 han evolucionado mucho, por lo que al habar de ellas ya quedamos obsoletos… Por eso se configura un escenario muy complejo, pues no es factible detectar lo real de lo que no lo es, y eso destruye la ciencia, la evidencia y la lógica… Por primera vez en la historia se rompe el tejido de la realidad, y así no vamos a poder comprender qué pasa”.
El creador precisó que “hay que apuntar a la regulación y a la autorregulación, pero la tecnología va más rápido… Una buena opción es establecer validadores de realidad en una esquina de la pantalla, donde aparezca un código escaneable con el celular que indique que lo mostrado es verdadero o falso”.
El escritor nacional puntualizó que “el problema es que esto no es regulado por una sola entidad, y además millones de personas pueden crear “deepfakes” desde sus casas… Lo que se debe hacer es educar a la gente para que dude de todo lo que venga de una pantalla, e incluso dude de familiares y amigos pues todo puede ser falso. Así, se va a tener que validar de nuevo el encuentro cara a cara”.
Respecto de a propuesta del senador Karim Bianchi, Julio Rojas dijo que “poner una multa casi da lo mismo, pero hay que tener una penalización para evitar el bullying y otras situaciones de ese estilo… Pero hay que tener en cuenta siempre que una cosa es la buena intención y otra son los hechos y la realidad. Y lo último indica que la tecnología ya nos superó”.
EL CASO DEL COLEGIO SAINT GEORGE
Generalmente creados en tiempo real, los “deepfakes” son utilizados en videos y filtros de realidad aumentada. Y aunque muchas aplicaciones para consumidores emplean esta tecnología con fines de entretenimiento o creatividad, la creciente accesibilidad de esta tecnología ha llevado a su uso con fines malintencionados.
El término “deepfake” combina el aprendizaje profundo (una rama del aprendizaje automático) y la palabra “fake”, refiriéndose a contenido generado mediante técnicas de inteligencia artificial.
En un inicio, los “deepfakes” requerían grandes cantidades de datos de entrenamiento, por lo que las celebridades eran objetivos comunes. Pero los avances tecnológicos permiten ahora crearlos a partir de una sola imagen o de un breve clip de audio.
Según un informe de la compañía de seguridad Kaspersky, el 72% de la población chilena no es capaz de distinguir una imagen hecha a partir de un “deepfake”, lo que es alarmante.
“En Chile han surgido casos significativos de uso indebido de “deepfakes”. En el Colegio Saint George, (seis) alumnos usaron la IA (en febrero de 2024) para alterar imágenes de (siete) de sus compañeras, haciéndolas parecer desnudas, y las difundieron en redes sociales… También se han detectado fraudes por suplantación de identidad utilizándolos”.
“Delincuentes crean videos y audios falsos, haciéndose pasar por familiares para obtener dinero o información confidencial. La Sección de Ciberdelitos del OS9 de Carabineros ha identificado esta estafa, llevando a las autoridades a emitir recomendaciones para evitar estas trampas”, recordó hace un tiempo el abogado Gonzalo Álvarez Seur, director ejecutivo de Tech-Law AI y académico de la Facultad de Derecho y Humanidades de la Universidad Central de Chile.
Y el académico recordó que “en términos legales, en Chile el uso de “deepfakes” aún no está tipificado como delito específico. Esto significa que la creación y la difusión de contenido manipulado no son directamente sancionadas por la legislación actual, lo que limita las acciones judiciales que pueden ser tomadas en estos casos... Los delitos asociados, como la suplantación de identidad o la distribución de material explícito, pueden ser perseguidos, pero no abordan completamente el daño causado por el uso de “deepfakes”.
LAS MEDIDAS QUE PREPARA YOUTUBE
YouTube quiere poner fin a las reproducciones de celebridades, y lo hará mediante herramientas que identificarán a los “deepfakes”.
La plataforma de Google ha dado el primer arriesgado paso al respecto, y anunció que está colaborando con la CAA (“Creative Artist Agency”) para desarrollar una herramienta capaz de identificar estas representaciones sin autorización de personas como cantantes, actores y deportistas, los cuales contarían con acceso al programa.
En un comunicado publicado por YouTube en su blog oficial se expresan los planes de cara al lanzamiento de esta herramienta.
Aún no se habla de una fecha concreta para que esa herramienta opere, pero sería en los primeros meses de 2025.
Entre las diferentes posibilidades planteadas están tanto un identificador de voces como uno destinado a analizar el parecido de sus rostros con el de figuras que se han generado mediante IA.