La CIA publica un informe sobre deepfakes y cómo manejar esta amenaza

18 de octubre de 2023

Aún recuerdo vivamente la impresión que me causó uno de los primeros vídeos sintéticos que vi allá por 1994, mezclando sucesos históricos con Tom Hanks, en la piel de Forrest Gump (1994).

Al menos para mí fue muy impactante ver la apariencia de realidad cuando mi cerebro contragolpeaba diciendo que era imposible.

Los deepfakes son una amenaza que se engloba dentro de las técnicas de manipulación de contenido: vídeo, audio, imagen o texto que se crean de manera sintética usando tecnologías de Inteligencia Artificial / Machine Learning y que tratan de hacer creer a los receptores, de la veracidad de un hecho que es falso.

Muchos lo hemos ido incorporando poco a poco, a nuestro arsenal personal: técnicas de reconocimiento de autenticidad, particularmente en las noticias que circulan por nuestras redes sociales. Solicitar fuentes originales, contrastar la noticia en varios medios de comunicación, tratar de mantener una actitud escéptica ante un bombazo mediático, etc.

La realidad nos empuja ineludiblemente a buscar herramientas para protegernos de esta nueva amenaza, cada vez más sutil y avanzada que pone en duda la sabiduría de nuestro refranero popular: “si no lo veo no lo creo” o “una imagen vale más que mil palabras”.

La irrupción y democratización de herramientas para la manipulación de contenido multimedia, aumentan el riesgo de forma considerable.

Lo que antes estaba a la altura de muy pocos (por ejemplo, la industria del cine en Hollywood), y era muy costoso de fabricar, está ahora mismo casi a la disposición de cualquiera de nosotros. Incluso de los que no tienen escrúpulos.

La pregunta es obligada: ¿Qué podemos hacer?

El informe de la CIA

Varias agencias de seguridad americanas (NSA, FBI, CISA) han publicado el pasado mes de septiembre un informe que ofrece una caracterización detallada de la amenaza asociada a los deepfakes, listando alguno de los peligros más relevantes: daño a la imagen de las organizaciones, la imitación de ejecutivos y personal de finanzas o la falsificación de las comunicaciones para ganar acceso a redes privadas.

Su lectura es de gran interés para cualquier organización, da igual su tamaño, para comprender las técnicas y sus posibles mitigaciones.

El informe se centra en los diferentes avances en las técnicas de protección ante esta amenaza clasificándolas en dos grandes grupos: detección y autenticación.

  • Respecto a la detección se mencionan técnicas forenses que, bajo la asunción de que la modificación deja rastros estadísticamente significativos en el contenido final, buscan estas manipulaciones para alertar sobre su posible origen fraudulento.

    Se trata de un ámbito de continua evolución por los avances de atacantes y las técnicas de detección.
  • La autenticación por su parte se centra en la incorporación al contenido multimedia de información que legitime su origen, por ejemplo, la incorporación de marcas de agua, señales de demostración de vida, inclusión del hashing del dispositivo que realiza/edita el contenido para su posterior validación, etc.

Recomendaciones de la CIA, FBI y otras autoridades

Estas son las principales recomendaciones que señalan estas agencias en el mencionado informe:

  • Seleccionar e implementar tecnologías que detecten los deepfakes y verifiquen la proveniencia del contenido multimedia en las organizaciones.
  • Proteger y limitar la información pública disponible sobre personas VIP, incorporando planes de respuesta y de formación al personal de las organizaciones y realizando simulaciones frecuentes para asegurar la adecuación de las medidas tomadas y la capacitación y resiliencia de la organización.

El informe también recopila herramientas tanto propietarias como de software libre que pueden ayudar a organizaciones a avanzar en la mitigación de esta nueva amenaza.

¿Pero que sucede en un menor nivel donde no hablamos de organizaciones con presupuestos asignados a ciberseguridad o cuando hablamos de ciudadanos de a pie? ¿Hay alguna medida a tomar?

Usuarios finales: ¿Qué podemos hacer?

Como usuarios finales o pequeñas organizaciones, que no dejan de ser potenciales víctimas, o intermediarios (mediante la viralización/distribución de un contenido falso), en el contexto de esta nueva amenaza, podemos seguir algunas recomendaciones básicas que nos ayuden a mitigar el riesgo dependiendo del tipo de contenido al que nos enfrentamos.

Imágenes

  • Fijarnos en el fondo de la imagen: a menudo está pixelado/borroso, existen errores/incoherencias en iluminación y sombras.
  • Fijarnos en los detalles de los accesorios, por ejemplo, gafas, collares y demás donde normalmente las conexiones con la imagen no son del todo coherentes.

Vídeo

  • Fijarnos en la coherencia de la piel de toda la imagen: el contorno de los ojos es similar, en edad, al resto de la cara.
  • Fijarnos en la cadencia de los parpadeos, ¿es rítmica? ¿Demasiado lenta? ¿Rápida?

Audio y voz

  • Sin tener a mano un espectrograma… podemos fijarnos en si el tono es demasiado monótono o carente de emociones, la entonación es extraña o la ausencia de ruido de fondo.

Conclusiones

Los deepfakes están aquí para quedarse y su presencia será cada vez más relevante dado que la democratización, y consiguiente bajada de coste, de la popularidad y facilidad de uso de herramientas de generación de imagen por ordenador complementado con técnicas de IA generativa.

Desde la perspectiva de los usuarios finales, debemos solicitar a las compañías que gestionan nuestras redes sociales un esfuerzo continuo para la creación de herramientas de detección automática de contenido falso, para evitar ser partícipes de su viralización.

Y mientras esas herramientas están en desarrollo y llegan a nuestros terminales y a nuestra vida digital la recomendación principal es la calma y la cautela. Tratemos de aplicar los mismos mecanismos que ya hemos incorporado a las noticias que nos llegan al contenido audiovisual:

  • ¿Fuente original?
  • ¿Algún medio fiable se ha hecho eco del contenido?
  • ¿Es la urgencia una de las características solicitadas?

Ante cualquier contenido controvertido, abrumador, o extraño, es conveniente esperar al menos un tiempo prudencial antes de participar en su distribución.

Imagen de Rawpixel en Freepik.

Evolución de la Ciberseguridad: la IA como herramienta de ataque y defensa