El Problema de los Deepfakes

La palabra deepfake se ha hecho muy popular en los últimos tiempos y no para bien. Cuando la oímos, sabemos que es una noticia falsa ya sea en imagen, vídeo o audio y que tiene connotaciones negativas (desinformación, engaño, extorsión, fraude).

Pero no siempre fue así, porque un deepfake no es más que contenido realizado con IA para que parezca real. En concreto, es el acrónimo de unir dos palabras inglesas como deep learning o aprendizaje profundo y fake o falso.

Si no recuerdo mal, el primer deepfake que vi fue el vídeo de Lola Flores realizado en el año 2021 para un anuncio de la cerveza Cruzcampo y que en el siguiente vídeo nos explican cómo se hizo. En el video escuchamos a Lola Flores hablar como si estuviera viva, cuando falleció en el año 1995.

Pero actualmente, el término «fake» ha evolucionado de referirse simplemente a lo falso a implicar una falsificación, y no es lo mismo imitar la realidad que manipularla. Para el Instituto Nacional de Ciberseguridad de España (INCIBE) la palabra deepfake: “se trata de vídeos manipulados, que se crean para engañar a los espectadores, haciéndoles creer que una persona específica, ya sea anónima o una figura pública, está llevando a cabo declaraciones o acciones que nunca tuvieron lugar.” Como vemos en la definición, el concepto de creación mediante IA queda en un segundo término. Ahora lo importante no es la creación sino la suplantación. Lo podemos ver más claramente en el comunicado de la Comisión Europea que dice que los deepfakes se definen como: «contenidos multimedia sintéticos o manipulados digitalmente para tergiversar o suplantar la identidad de alguien de forma convincente mediante IA».

El fenómeno del deepfake ha evolucionado desde una forma de creación audiovisual mediante IA a una forma de suplantación de la identidad, definida principalmente por la capacidad de atribuir a una persona real declaraciones o acciones que nunca realizó. Además, ahora no es necesario contratar a un prestigioso estudio de publicidad como en el caso del anuncio de Lola Flores, sino basta con que cualquier sepa utilizar una herramienta de IA. Veamos el siguiente ejemplo, un deepfake creado en estas navidades con políticos y los reyes:

Actualmente, con la tecnología actual (por ejemplo con Nano Banana Pro de Google) es tan sencillo y tan rápido realizar un deepfake que creemos que llegará un momento, sino ha llegado ya, que no podremos distinguir un caso real de uno que haya sido creado por IA. Esto les pasó a The New York Times a principios de mes con el arresto del presidente venezolano Nicolás Maduro. Tuvieron serios problemas en poder comprobar la veracidad de las fotos que les llegaron y querían publicar.

Además, comprobaron si los modelos de Google y ChatGPT podían crear este tipo de imágenes con la captura de Maduro que había ocurrido hacía apenas unas horas y comprobaron que sí eran capaces de crearlas. El diario se puso en contacto con Google y les dijeron que las imágenes creadas por IA de Google llevan una marca de agua llamada SynthID para identificarlas. OpenAI, creadora de ChatGPT, afirmó que la compañía utiliza medidas de seguridad para proteger a las figuras públicas, pero se centra en prevenir daños como los deepfakes sexuales o la violencia.

En mi caso, os explico lo que me pasó en estas navidades pasadas. A un conocido,  miembro de la Guardia Civil, le había explicado que había empezado un servicio dedicado al uso de la IA. Al cabo de unos días de nuestra conversación me envió unas fotos de su nueva compañera llamada Lucia. Cuando supongo se había cansado de reírse, me mandó un vídeo donde pude comprobar que Lucia estaba generada por IA, aunque tuve que entrar en el perfil para corroborar que era así, porque el video también lleva a confusiones como podréis ver. Esta es Lucia:

La Guardia Civil ya lo había denunciado y el caso de Lucia no es el único la Policía Nacional también denunció a un perfil falso en X de una policía llamada Sarita. Lo podéis ver a continuación:

El problema de los deepfakes es que no son detectables por los detectores de IA ya que como ocurre con los detectores de texto, no son nada fiables. Haced la prueba y buscar en Google un detector de imágenes y veréis cuáles son los resultados. Después las redes sociales no ponen suficientes guardarraíles ni se toman en serio los deepfakes. Un buen ejemplo es que el perfil de Lucia en Instagram y en TikTok siguen activos, igual que Sarita en X, a día de hoy.

Lo peor es que hay un vacío legal que no obliga a controlar y perseguir cualquier contenido de IA que sea publicado en las redes sociales y que no lleve la etiqueta de “creado por IA”. Ni a las empresas propietarias de los modelos de IA (Google, OpenAI, etc.) para que certifiquen su contenido generado por IA. Algunas, como Google, lo hacen pero no es de obligado cumplimiento.

Como muestra del vacío legal decir que el deepfake aún no está tipificado en la famosa  Ley o Reglamento de IA de la UE, la primera ley que hay en el mundo al respecto de la IA y que tanto presume la Comisión Europea. Ni siquiera en esta ley encontramos una definición del término deepfake. Ya va siendo hora.

Previous Article

¿Qué es el "Slop" y cuáles son sus consecuencias?

Next Article

¿Cuáles son las mejores herramientas de IA para juristas (abogados, asesores)?

Gana Inteligencia
Política de Privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Más info sobre la Política de Privacidad