Las DeepFakes han tomado el protagonismo de la actualidad
El uso de imágenes de video con declaraciones de dirigentes políticos o ataques a ciudades europeas ha despertado la inquietud y el interés de la sociedad por una nueva forma de recurrir al video-engaño como fuente de manipulación de los ciudadanos.
Un reciente informe de Wintness.org y Cocreation Studio ha recogido a través de más de setenta ejemplos, como el uso de las DeepFakes puede influir en la sociedad a través de recursos de ingeniería social como la empatía, la creatividad, la sátira, la culpa o la autoridad. Sus conclusiones son reveladoras y muestran el estado de indefinición en el que nos encontramos a la hora de evaluar el impacto que tienen las DeepFakes en nuestro entorno.
¿Podríamos catalogar la intención de una Deepfake?
Partamos de una premisa sencilla: si se puede utilizar la voz de una persona para hacer humor, ¿por qué no se podría utilizar las Deepfakes con la misma intención?
Y si fuera para engañar, ¿qué responsabilidad ética tendrían quienes elaboraran este tipo de material?, ¿dónde quedaría el límite legal de su uso? Por ejemplo, mientras que la habilidad de un imitador es una propiedad de la persona, los archivos de audio o imagen de un tercero pueden llegar a ser datos personales protegidos.
Y así podríamos seguir con multitud de nuevas dudas.
No todas las respuestas a estas preguntas son evidentes, aunque en algunos casos lo parezcan.
Los intentos de regulación de las Deepfakes pueden enfrentarse a aspectos como la legalidad o la legitimidad de uso. Es decir, las leyes deberían mantenerse dentro de unos límites de la legalidad claros y sin ambigüedades, y circunscritas, por ejemplo, a intereses de seguridad nacional, protección de personas o salud pública. A ello, parece evidente que habría que añadir el concepto de proporcionalidad para evitar incurrir en limitaciones, por ejemplo, a la libertad de expresión.
Dudas permanentes
Bajo este contexto, las Deepfakes puede llevarnos a un escenario de perpetua revisión de nuestras conclusiones; por ejemplo, pueden hacer crecer en la sociedad la desconfianza con respecto a lo que es información veraz. De hecho, los casos se multiplican en los últimos meses. Existen vídeos falsos que divulgan, por ejemplo, declaraciones de mandatarios en torno a temas de especial relevancia, del mismo modo que llegan a considerarse falsos video reales simplemente porque la calidad de la grabación era mala o por circunstancias particulares asociadas al protagonista.
La pregunta que surge pues en torno al desarrollo de las Deepfakes es: ¿son buenas o malas? ¿Deberían los autores etiquetarlas para evitar malentendidos? ¿En tal caso, perderían su impacto creativo, si esa fuera su intención?
Identificación automática
Recurrir a la automatización en la identificación de una Deepfake es una posible aproximación. Actualmente, somos capaces de diferenciar imágenes que han sido procesadas con herramientas como Photoshop o que han sido expuestas a algún tipo de filtro. Igualmente, somos capaces de detectar el uso de aplicaciones como Auto-Tune cuando se trata de identificar matices en las voces de las personas.
Sin embargo, ¿hay herramientas para crear Deepfakes? ¿Y para identificarlas?
La respuesta a estas preguntas es que sí, que existen algunas, tanto de dominio público como de pago. A día de hoy hay herramientas, como las proporcionadas por DeepFaceLab, que permiten a usuarios con conocimientos avanzados construir videos con alto grado de calidad. De igual modo, existen aplicaciones, como Sensity AI o Deepware AI, que ofrecen soluciones para identificar si un video resulta ser una DeepFake o sencillamente recoge una situación real. Sea cual sea el caso, la posibilidad de tratamiento de imágenes con técnicas de Inteligencia Artificial hace de la generación e identificación de Deepfakes dos tareas complejas.
Un largo camino por recorrer
Llegados a este punto, podríamos hacernos una última pregunta: ¿cuál puede ser el horizonte futuro de las DeepFakes?
El uso de Deepfakes puede ser útil en el cine, en el humor, en la enseñanza, en la protesta, en la salud… Se trata de aplicaciones que pueden contribuir a un nuevo modelo de sociedad basada en activos (y valores) ciertamente virtuales. Sin embargo, también puede ser útil en la guerra o en el delito cotidiano; en la explotación de personas o en su manipulación malintencionada. Por eso resulta difícil dar una respuesta. Por el momento, preferimos no manifestarnos. Si alguien se atreve…