Tabla de contenido:
Video: How deepfakes undermine truth and threaten democracy | Danielle Citron (Noviembre 2024)
A fines de 2017, Motherboard informó sobre una tecnología de inteligencia artificial que podría intercambiar caras en videos. En ese momento, la tecnología, más tarde llamada deepfakes, produjo resultados crudos y granulados y se usó principalmente para crear videos porno falsos con celebridades y políticos.
Dos años después, la tecnología ha avanzado enormemente y es más difícil de detectar a simple vista. Junto con las noticias falsas, los videos falsificados se han convertido en una preocupación de seguridad nacional, especialmente a medida que se acercan las elecciones presidenciales de 2020.
Desde que surgieron los deepfakes, varias organizaciones y compañías han desarrollado tecnologías para detectar videos con manipulación de AI. Pero existe el temor de que algún día, la tecnología deepfakes sea imposible de detectar.
Investigadores de la Universidad de Surrey desarrollaron una solución que podría resolver el problema: en lugar de detectar lo que es falso, demostrará lo que es verdad. Programada para ser presentada en la próxima Conferencia sobre Visión por Computadora y Reconocimiento de Patrones (CVPR), la tecnología, llamada Archangel, usa AI y blockchain para crear y registrar una huella digital digital a prueba de manipulaciones para videos auténticos. La huella digital se puede utilizar como punto de referencia para verificar la validez de los medios que se distribuyen en línea o se transmiten por televisión.
Usando IA para firmar videos
La forma clásica de demostrar la autenticidad de un documento binario es usar una firma digital. Los editores ejecutan su documento a través de un algoritmo criptográfico como SHA256, MD5 o Blowfish, que produce un "hash", una cadena corta de bytes que representa el contenido de ese archivo y se convierte en su firma digital. Ejecutar el mismo archivo a través del algoritmo de hash en cualquier momento producirá el mismo hash si su contenido no ha cambiado.
Los hashes son supersensibles a los cambios en la estructura binaria del archivo fuente. Cuando modifica un solo byte en el archivo hash y lo ejecuta nuevamente a través del algoritmo, produce un resultado totalmente diferente.
Pero si bien los hashes funcionan bien para archivos de texto y aplicaciones, presentan desafíos para los videos, que pueden almacenarse en diferentes formatos, según John Collomosse, profesor de visión por computadora en la Universidad de Surrey y líder del proyecto para Archangel.
"Queríamos que la firma fuera la misma independientemente del códec con el que se está comprimiendo el video", dice Collomosse. "Si tomo mi video y lo convierto de, digamos, MPEG-2 a MPEG-4, entonces ese archivo tendrá una longitud totalmente diferente, y los bits habrán cambiado por completo, lo que producirá un hash diferente. Lo que necesitábamos era un algoritmo de hash con reconocimiento de contenido ".
Para resolver este problema, Collomosse y sus colegas desarrollaron una red neuronal profunda que es sensible al contenido contenido en el video. Las redes neuronales profundas son un tipo de construcción de IA que desarrolla su comportamiento a través del análisis de grandes cantidades de ejemplos. Curiosamente, las redes neuronales también son la tecnología en el corazón de los deepfakes.
Al crear deepfakes, el desarrollador alimenta la red con imágenes de la cara de un sujeto. La red neuronal aprende las características de la cara y, con suficiente capacitación, se vuelve capaz de encontrar e intercambiar caras en otros videos con la cara del sujeto.
La red neuronal de Archangel está entrenada en el video de huellas digitales. "La red está mirando el contenido del video en lugar de sus bits y bytes subyacentes", dice Collomosse.
Después de la capacitación, cuando ejecuta un nuevo video a través de la red, lo validará cuando contenga el mismo contenido que el video fuente, independientemente de su formato y lo rechazará cuando sea un video diferente o haya sido alterado o editado.
Según Collomosse, la tecnología puede detectar alteraciones tanto espaciales como temporales. Las manipulaciones espaciales son cambios realizados en fotogramas individuales, como las ediciones de intercambio de caras realizadas en falsificaciones profundas.
Pero los deepfakes no son la única forma de manipular los videos. Menos discutidos pero igualmente peligrosos son los cambios intencionales realizados en la secuencia de cuadros y en la velocidad y duración del video. Un video manipulado reciente y ampliamente difundido de la Presidenta de la Cámara de Representantes, Nancy Pelosi, no utilizó falsificaciones profundas, pero fue creado mediante el uso cuidadoso de técnicas de edición simples que la hicieron parecer confundida.
"Una de las formas de manipulación que podemos detectar es la eliminación de segmentos cortos del video. Estos son manipulaciones temporales. Y podemos detectar hasta tres segundos de manipulación. Entonces, si un video dura varias horas y usted simplemente elimina tres segundos de ese video, podemos detectarlo ", dice Collomosse, y agrega que Archangel también detectará los cambios realizados en la velocidad del video original, como se hizo en el video de Pelosi.
Registrar la huella digital en la cadena de bloques
El segundo componente del proyecto Archangel es una cadena de bloques, una base de datos a prueba de manipulaciones donde se puede almacenar nueva información pero no modificarla, ideal para archivos de video, que no hacen cambios en los videos una vez que se han registrado.
La tecnología Blockchain subyace a monedas digitales como Bitcoin y Ether. Es un libro de contabilidad digital mantenido por varias partes independientes. La mayoría de las partes deben acordar los cambios realizados en la cadena de bloques, lo que hace que sea imposible que una sola parte se entrometa unilateralmente con el libro mayor.
Es técnicamente posible atacar y cambiar el contenido de una cadena de bloques si más del 50 por ciento de sus participantes se confabulan. Pero en la práctica, es extremadamente difícil, especialmente cuando la cadena de bloques es mantenida por muchas partes independientes con diferentes objetivos e intereses.
La cadena de bloques de Archangel es un poco diferente de la cadena de bloques pública. Primero, no produce criptomonedas y almacena solo el identificador, la huella dactilar consciente del contenido y el hash binario de la red neuronal del verificador para cada video en un archivo (las cadenas de bloques no son adecuadas para almacenar grandes cantidades de datos, por eso el video en sí y la red neuronal se almacenan fuera de la cadena).
Además, es una cadena de bloques autorizada o "privada". Esto significa que, a diferencia de la cadena de bloques de Bitcoin, donde todos pueden registrar nuevas transacciones, solo las partes autorizadas pueden almacenar nuevos registros en la cadena de bloques de Archangel.
Actualmente, Arcángel está siendo probado por una red de archivos del gobierno nacional del Reino Unido, Estonia, Noruega, Australia y los Estados Unidos: para almacenar nueva información, cada país involucrado debe suscribir la adición. Pero aunque solo los archivos nacionales de los países participantes tienen derecho a agregar registros, todos los demás tienen acceso de lectura a la cadena de bloques y pueden usarla para validar otros videos contra el archivo.
- Exploit de IA y Machine Learning, Deepfakes, ahora más difícil de detectar IA y Exploit de Machine Learning, Deepfakes, ahora más difícil de detectar
- Los videos de Deepfake están aquí y no estamos listos Los videos de Deepfake están aquí y no estamos listos
- La nueva IA de Adobe detecta caras pintadas con Photoshop La nueva IA de Adobe detecta caras pintadas con Photoshop
"Esta es una aplicación de blockchain para el bien público", dice Collomosse. "En mi opinión, el único uso razonable de la cadena de bloques es cuando tienes organizaciones independientes que no necesariamente confían unas en otras, pero sí tienen este interés creado en este objetivo colectivo de confianza mutua. Y lo que estamos buscando hacer es asegurar los archivos nacionales del gobierno en todo el mundo, para que podamos suscribir su integridad utilizando esta tecnología ".
Debido a que crear videos falsificados se está volviendo más fácil, más rápido y más accesible, todos necesitarán toda la ayuda que puedan obtener para garantizar la integridad de sus archivos de video, especialmente los gobiernos.
"Creo que los deepfakes son casi como una carrera armamentista", dice Collomosse. "Debido a que las personas producen falsificaciones profundas cada vez más convincentes, y algún día podría ser imposible detectarlas. Es por eso que lo mejor que puedes hacer es tratar de probar la procedencia de un video".