Hogar Negocio Explotación de inteligencia artificial y aprendizaje automático, falsificaciones profundas, ahora más difíciles de detectar

Explotación de inteligencia artificial y aprendizaje automático, falsificaciones profundas, ahora más difíciles de detectar

Tabla de contenido:

Video: De-Ageing With Deepfakes (Machine Learning) (Noviembre 2024)

Video: De-Ageing With Deepfakes (Machine Learning) (Noviembre 2024)
Anonim

A medida que nos acercamos a la próxima temporada de campaña de elecciones presidenciales, querrá tener cuidado con los peligros potenciales que los videos falsos en línea traen a través del uso de inteligencia artificial (IA) y aprendizaje automático (ML). Con el software de inteligencia artificial, las personas pueden crear videos falsos (abreviatura de "aprendizaje profundo y falso") en los que se utilizan algoritmos de ML para realizar un intercambio de caras para crear la ilusión de que alguien dijo algo que no dijo o es alguien a quien " No es. Los videos de Deepfake se muestran en varios ámbitos, desde el entretenimiento hasta la política y el mundo corporativo. Los videos falsos no solo pueden influir injustamente en una elección con mensajes falsos, sino que pueden generar vergüenza personal o causar mensajes de marca engañosos si, por ejemplo, muestran a un CEO anunciando el lanzamiento de un producto o una adquisición que en realidad no sucedió.

Los Deepfakes son parte de una categoría de IA llamada "Redes Adversarias Generativas" o GAN, en la que dos redes neuronales compiten para crear fotografías o videos que parecen reales. Las GAN consisten en un generador, que crea un nuevo conjunto de datos, como un video falso, y un discriminador, que utiliza un algoritmo ML para sintetizar y comparar datos del video real. El generador sigue intentando sintetizar el video falso con el anterior hasta que el discriminador no puede decir que los datos son nuevos.

Como Steve Grobman, vicepresidente senior y director de tecnología (CTO) de McAfee, señaló en la Conferencia RSA 2019 en marzo en San Francisco, las fotografías falsas han existido desde la invención de la fotografía. Dijo que alterar las fotos ha sido una tarea simple que puede realizar en una aplicación como Adobe Photoshop. Pero ahora este tipo de capacidades de edición avanzadas también se están moviendo hacia el video, y lo están haciendo usando herramientas de software de alta capacidad y de fácil acceso.

Cómo se crean Deepfakes

Aunque comprender los conceptos de IA es útil, no es necesario ser un científico de datos para crear un video falso. Solo implica seguir algunas instrucciones en línea, según Grobman. En la Conferencia RSA 2019 (ver video arriba), dio a conocer un video falso junto con la Dra. Celeste Fralick, Científica de Datos en Jefe e Ingeniera Principal Principal en McAfee. El video deepfake ilustra la amenaza que presenta esta tecnología. Grobman y Fralick mostraron cómo un funcionario público en un video que dice algo peligroso podría inducir a error al público a pensar que el mensaje es real.

Para crear su video, Grobman y Fralick descargaron el software deepfake. Luego tomaron un video de Grobman testificando ante el Senado de EE. UU. En 2017 y superpusieron la boca de Fralick sobre la de Grobman.

"Utilicé comentarios públicos disponibles gratuitamente para crear y entrenar un modelo de ML; eso me permitió desarrollar un video falso con mis palabras saliendo de la boca", dijo Fralick a la audiencia de RSA desde el escenario. Fralick continuó diciendo que los videos profundos podrían ser utilizados para la explotación social y la guerra de información.

Para hacer su video falso, Grobman y Fralick usaron una herramienta desarrollada por un usuario de Reddit llamada FakeApp, que emplea algoritmos de ML y fotos para intercambiar caras en videos. Durante su presentación de RSA, Grobman explicó los siguientes pasos. "Dividimos los videos en imágenes fijas, extraemos las caras y las limpiamos clasificándolas y las limpiamos en Instagram".

Las secuencias de comandos de Python permitieron al equipo de McAfee construir movimientos de boca para que el discurso de Fralick coincidiera con la boca de Grobman. Luego necesitaban escribir algunos scripts personalizados. El desafío para crear una falsificación profunda convincente es cuando características como el sexo, la edad y el tono de la piel no coinciden, dijo Grobman.

Luego, él y Fralick usaron un algoritmo final de inteligencia artificial para unir las imágenes de Grobman que testificaban ante el Senado con el discurso de Fralick. Grobman agregó que tomó 12 horas entrenar estos algoritmos de ML.

McAfee describió los pasos que tomó para crear un video falso que se mostró en la Conferencia RSA 2019. Utilizó un software de deepfake llamado FakeApp y la capacitación de modelos de ML para alterar el video de Grobman con el discurso de Fralick. (Crédito de la imagen: McAfee).

Las consecuencias de Deepfakes

Los videos falsos creados por piratas informáticos tienen el potencial de causar muchos problemas, desde funcionarios del gobierno que difunden información falsa hasta celebridades avergonzadas de estar en videos en los que realmente no estaban, a compañías que dañan la posición en el mercado de valores de la competencia. Conscientes de estos problemas, los legisladores en septiembre enviaron una carta a Daniel Coats, Director de Inteligencia Nacional de los Estados Unidos, para solicitar una revisión de la amenaza que representan las falsificaciones profundas. La carta advirtió que países como Rusia podrían usar falsificaciones profundas en las redes sociales para difundir información falsa. En diciembre, los legisladores presentaron la Ley de prohibición de falsificaciones profundas maliciosas de 2018 para prohibir el fraude en relación con los "registros audiovisuales", que se refieren a falsificaciones profundas. Queda por ver si se aprobará la ley.

Como se mencionó, las celebridades pueden sufrir vergüenza por los videos en los que sus caras se han superpuesto sobre las caras de las estrellas porno, como fue el caso de Gal Gadot. O imagine un CEO que supuestamente anuncia noticias de productos y hunde las acciones de una empresa. Los profesionales de seguridad pueden usar ML para detectar este tipo de ataques, pero si no se detectan a tiempo, pueden causar daños innecesarios a un país o una marca.

"Con los deepfakes, si sabes lo que estás haciendo y sabes a quién apuntar, realmente puedes crear un video convincente que cause mucho daño a una marca", dijo el Dr. Chase Cunningham, analista principal de Forrester Research. Agregó que, si distribuye estos mensajes en LinkedIn o Twitter o hace uso de un formulario de bot, "puede aplastar las acciones de una empresa basándose en un video falso total sin mucho esfuerzo".

A través de videos falsos, los consumidores podrían ser engañados para creer que un producto puede hacer algo que no puede. Cunningham señaló que, si el CEO de un importante fabricante de automóviles dijo en un video falso que la compañía ya no fabricaría vehículos a gasolina y luego difundiría ese mensaje en Twitter o LinkedIn en ese video, entonces esa acción podría dañar fácilmente una marca.

"Curiosamente de mi investigación, la gente toma decisiones basadas en titulares y videos en 37 segundos", dijo Cunningham. "Así que puedes imaginar que si puedes obtener un video que dura más de 37 segundos, puedes hacer que la gente tome una decisión basada en ya sea de hecho o no. Y eso es aterrador ".

Dado que las redes sociales son un lugar vulnerable donde los videos de deepfake pueden volverse virales, los sitios de redes sociales están trabajando activamente para combatir la amenaza de los deepfake. Facebook, por ejemplo, despliega equipos de ingeniería que pueden detectar fotos, audio y video manipulados. Además de usar software, Facebook (y otras compañías de redes sociales) contratan personas para que busquen deepfakes manualmente.

"Hemos ampliado nuestros esfuerzos continuos para combatir los medios manipulados para incluir el abordaje de las falsificaciones profundas", dijo un representante de Facebook en un comunicado. "Sabemos que la aparición continua de todas las formas de medios manipulados presenta desafíos reales para la sociedad. Es por eso que estamos invirtiendo en nuevas soluciones técnicas, aprendiendo de la investigación académica y trabajando con otros en la industria para comprender las falsificaciones profundas y otras formas de medios manipulados ".

No todos los deepfakes son malos

Como hemos visto con el video educativo de deepfake de McAfee y los videos cómicos de deepfake en la televisión nocturna, algunos videos de deepfake no son necesariamente malos. De hecho, aunque la política puede exponer los peligros reales de los videos falsos, la industria del entretenimiento a menudo solo muestra el lado más ligero de los videos falsos.

Por ejemplo, en un episodio reciente de The Late Show With Stephen Colbert, se mostró un divertido video falso en el que la cara del actor Steve Buscemi se superpuso sobre el cuerpo de la actriz Jennifer Lawrence. En otro caso, el comediante Jordan Peeler reemplazó un video del ex presidente Barack Obama hablando con su propia voz. Videos humorísticos como estos también aparecieron en línea, en los que la cara del presidente Trump se superpone sobre la cara de la canciller alemana Angela Merkel mientras la persona habla.

Nuevamente, si los videos falsos se usan con un propósito satírico o humorístico o simplemente como entretenimiento, entonces las plataformas de redes sociales e incluso las productoras de películas lo permiten o usan. Por ejemplo, Facebook permite este tipo de contenido en su plataforma, y ​​Lucasfilm utilizó un tipo de recreación digital para presentar a una joven Carrie Fisher en el cuerpo de la actriz Ingvild Deila en "Rogue One: A Star Wars Story".

Grobman de McAfee señaló que parte de la tecnología detrás de deepfakes se usa bien con dobles de acrobacias en la realización de películas para mantener a los actores seguros. "El contexto lo es todo. Si es para fines cómicos y es obvio que no es real, eso es un uso legítimo de la tecnología", dijo Grobman. "Reconocer que puede usarse para todo tipo de propósitos diferentes es clave".

(Crédito de la imagen: Statista)

Cómo detectar videos de Deepfake

McAfee no es la única empresa de seguridad que experimenta cómo detectar videos falsos. En su artículo entregado en Black Hat 2018 titulado "AI Gone Rogue: Exterminating Deep Fakes Before They Cause Menace", dos expertos en seguridad de Symantec, Vijay Thaware y el ingeniero de desarrollo de software Niranjan Agnihotri, expertos en seguridad de Symantec, escriben que han creado una herramienta para detectar videos falsos basados ​​en Google FaceNet. Google FaceNet es una arquitectura de red neuronal que los investigadores de Google desarrollaron para ayudar con la verificación y el reconocimiento de rostros. Los usuarios entrenan un modelo FaceNet en una imagen particular y luego pueden verificar su identidad durante las pruebas posteriores.

Para tratar de detener la propagación de videos falsos, AI Foundation, una organización sin fines de lucro que se enfoca en la interacción humana y de IA, ofrece un software llamado "Reality Defender" para detectar contenido falso. Puede escanear imágenes y videos para ver si han sido alterados usando IA. Si lo han hecho, obtendrán una "Marca de agua de IA honesta".

  • La guía de negocios para el aprendizaje automático La guía de negocios para el aprendizaje automático
  • PornHub, Twitter prohíbe la pornografía 'Deepfake' modificada por IA PornHub, Twitter prohíbe la pornografía 'Deepfake' modificada por IA
  • La última tecnología de Deepfake te hará bailar como Bruno Mars La última tecnología de Deepfake te hará bailar como Bruno Mars

Otra estrategia es tener en cuenta el concepto de Zero Trust, que significa "nunca confiar, verificar siempre", un lema de ciberseguridad que significa que los profesionales de TI deben confirmar que todos los usuarios son legítimos antes de otorgar privilegios de acceso. Se mantendrá escéptico sobre la validez del contenido de video. También querrá software con capacidades de análisis digital para detectar contenido falso.

En busca de Deepfakes

En el futuro, tendremos que ser más cautelosos con el contenido de video y tener en cuenta los peligros que pueden presentar a la sociedad si se usan incorrectamente. Como Grobman señaló, "en el corto plazo, las personas deben ser más escépticas de lo que ven y reconocer que el video y el audio pueden fabricarse".

Por lo tanto, mantenga un ojo escéptico sobre los videos políticos que mira mientras nos dirigimos a la próxima temporada electoral, y no confíe en todos los videos con líderes corporativos. Porque lo que escucha puede no ser lo que realmente se dijo, y los videos falsos y engañosos tienen el potencial de dañar realmente nuestra sociedad.

Explotación de inteligencia artificial y aprendizaje automático, falsificaciones profundas, ahora más difíciles de detectar