Hogar Caracteristicas Cuando ai desdibuja la línea entre realidad y ficción

Cuando ai desdibuja la línea entre realidad y ficción

Tabla de contenido:

Video: Los científicos están a punto de demostrar que existe un universo espejo (Noviembre 2024)

Video: Los científicos están a punto de demostrar que existe un universo espejo (Noviembre 2024)
Anonim

En algún lugar en los oscuros recovecos de YouTube hay un video que muestra un extracto de la película The Fellowship of the Ring, pero no es exactamente la película que recuerdas, ya que Nicolas Cage interpreta a Frodo, Aragorn, Legolas, Gimli y Gollum, todo en al mismo tiempo. Otros videos muestran a Cage en Terminator 2 como T2000, Star Trek como Captain Picard y Superman como, bueno, Lois Lane.

Por supuesto, Nic Cage nunca apareció en ninguna de esas películas. Son "deepfakes" producidos con FakeApp, una aplicación que utiliza algoritmos de inteligencia artificial para intercambiar caras en videos. Algunos de los deepfakes parecen bastante convincentes, mientras que otros tienen artefactos que traicionan su verdadera naturaleza. Pero en general, muestran cuán poderosos se han vuelto los algoritmos de IA para imitar la apariencia y el comportamiento humano.

FakeApp es solo una de varias nuevas herramientas de sintetización impulsadas por IA. Otras aplicaciones imitan las voces humanas, la escritura a mano y los estilos de conversación. Y parte de lo que los hace importantes es que usarlos no requiere hardware especializado o expertos calificados.

El impacto de estas aplicaciones es profundo: crearán oportunidades sin precedentes para la creatividad, la productividad y las comunicaciones.

Pero la misma herramienta también podría abrir una caja de fraude, falsificación y propaganda de Pandora. Desde su aparición en Reddit en enero, FakeApp se ha descargado más de 100, 000 veces y precipitó una tormenta de videos pornográficos falsos con celebridades y políticos (incluido Cage nuevamente). Reddit recientemente prohibió la aplicación y sus comunidades relacionadas de su plataforma.

"Hace diez años, si querías fingir algo, podías, pero tenías que ir a un estudio de efectos visuales o personas que pudieran hacer gráficos por computadora y posiblemente gastar millones de dólares", dice el Dr. Tom Haines, profesor de aprendizaje automático en Universidad de Bath. "Sin embargo, no podrías mantenerlo en secreto, porque tendrías que involucrar a muchas personas en el proceso".

Ese ya no es el caso, cortesía de una nueva generación de herramientas de IA.

El juego de imitación

FakeApp y aplicaciones similares están basadas en el aprendizaje profundo, la rama de la inteligencia artificial en el corazón de una explosión de innovaciones de inteligencia artificial desde 2012. Los algoritmos de aprendizaje profundo se basan en redes neuronales, una construcción de software diseñada aproximadamente al estilo del cerebro humano. Las redes neuronales analizan y comparan grandes conjuntos de muestras de datos para encontrar patrones y correlaciones que los humanos normalmente perderían. Este proceso se denomina "capacitación" y su resultado es un modelo que puede realizar diversas tareas.

En días anteriores, los modelos de aprendizaje profundo se usaban principalmente para realizar tareas de clasificación: etiquetar objetos en fotos, por ejemplo, y realizar reconocimiento de voz y rostro. Recientemente, los científicos han utilizado el aprendizaje profundo para realizar tareas más complicadas, como jugar juegos de mesa, diagnosticar pacientes y crear música y obras de arte.

Para ajustar FakeApp para realizar un intercambio de caras, el usuario debe entrenarlo con varios cientos de imágenes de las caras de origen y destino. El programa ejecuta algoritmos de aprendizaje profundo para encontrar patrones y similitudes entre las dos caras. El modelo se prepara para hacer el intercambio.

El proceso no es simple, pero no tiene que ser un experto en gráficos o un ingeniero de aprendizaje automático para usar FakeApp. Tampoco requiere hardware costoso y especializado. Un sitio web tutorial de deepfakes recomienda una computadora con 8GB o más de RAM y una tarjeta gráfica Nvidia GTX 1060 o mejor, una configuración bastante modesta.

"Una vez que te mudas a un mundo donde alguien en una habitación puede fingir algo, entonces puede usarlo para fines cuestionables", dice Haines. "Y como se trata de una sola persona, mantenerlo en secreto es muy fácil".

En 2016, Haines, quien era entonces un investigador postdoctoral en la Universidad de College London, fue coautor de un artículo y una aplicación que mostraba cómo la inteligencia artificial podía aprender a imitar la escritura de una persona. Llamada "Mi texto en su escritura a mano", la aplicación utilizó algoritmos de aprendizaje profundo para analizar y discernir el estilo y el flujo de la escritura a mano del autor y otros factores como el espacio y las irregularidades.

La aplicación podría tomar cualquier texto y reproducirlo con la escritura del autor de destino. Los desarrolladores incluso agregaron una medida de aleatoriedad para evitar el extraño efecto del valle, la extraña sensación que tenemos cuando vemos algo que es casi, pero no del todo humano. Como prueba de concepto, Haines y los otros investigadores de UCL utilizaron la tecnología para replicar la escritura a mano de personajes históricos como Abraham Lincoln, Frida Kahlo y Arthur Conan Doyle.

La misma técnica se puede aplicar a cualquier otra escritura a mano, lo que generó preocupaciones sobre el posible uso de la tecnología para la falsificación y el fraude. Un experto forense aún podría detectar que el guión fue producido por My Text in Your Handwriting, pero es probable que engañe a personas no capacitadas, lo que Haines admitió en una entrevista con Digital Trends en ese momento.

Lyrebird, una startup con sede en Montreal, utilizó el aprendizaje profundo para desarrollar una aplicación que sintetiza la voz humana. Lyrebird requiere una grabación de un minuto para comenzar a imitar la voz de una persona, aunque necesita mucho más antes de que suene convincente.

En su demostración pública, la startup publicó grabaciones falsas de las voces de Donald Trump, Barack Obama e Hillary Clinton. Las muestras son crudas, y es obvio que son sintéticas. Pero a medida que la tecnología mejora, hacer la distinción será más difícil. Y cualquiera puede registrarse con Lyrebird y comenzar a crear grabaciones falsas; el proceso es incluso más fácil que el de FakeApp, y los cálculos se realizan en la nube, lo que ejerce menos presión sobre el hardware del usuario.

El hecho de que esta tecnología se pueda utilizar para fines cuestionables no se pierde para los desarrolladores. En un momento, una declaración de ética en el sitio web de Lyrebird declaró: "Las grabaciones de voz se consideran actualmente pruebas sólidas en nuestras sociedades y en particular en las jurisdicciones de muchos países. Nuestra tecnología cuestiona la validez de tales pruebas, ya que permite manipular fácilmente el audio grabaciones. Esto podría tener consecuencias potencialmente peligrosas, como diplomáticos engañosos, fraude y, en general, cualquier otro problema causado por el robo de la identidad de otra persona ".

Nvidia presentó otro aspecto de las capacidades de imitación de AI: el año pasado, la compañía publicó un video que mostraba algoritmos de IA que generaban rostros humanos sintéticos con calidad fotográfica. La IA de Nvidia analizó miles de fotos de celebridades y luego comenzó a crear celebridades falsas. La tecnología pronto podrá volverse capaz de crear videos de aspecto realista con "personas" que no existen.

Los límites de la IA

Muchos han señalado que en las manos equivocadas, estas aplicaciones pueden hacer mucho daño. Pero el alcance de las capacidades de la IA contemporánea a menudo se sobrevalora.

"Aunque podemos poner la cara de una persona en la cara de otra persona en un video o sintetizar la voz, sigue siendo bastante mecánico", dice Eugenia Kuyda, cofundadora de Replika, una compañía que desarrolla chatbots con tecnología de inteligencia artificial, sobre las deficiencias de Herramientas de IA como FakeApp y Lyrebird.

Voicery, otra startup de inteligencia artificial que, como Lyrebird, proporciona sintetización de voz con tecnología de inteligencia artificial, tiene una página de prueba en la que los usuarios reciben una serie de 18 grabaciones de voz y se les solicita que especifiquen cuáles están hechas a máquina. Pude identificar todas las muestras hechas a máquina en la primera ejecución.

La compañía de Kuyda es una de varias organizaciones que utilizan el procesamiento del lenguaje natural (PNL), el subconjunto de IA que permite a las computadoras comprender e interpretar el lenguaje humano. Luka, una versión anterior del chatbot de Kuyda, usó PNL y su tecnología gemela, generación de lenguaje natural (NLG), para imitar al elenco de la serie de televisión de HBO Silicon Valley . La red neuronal se entrenó con líneas de guiones, tweets y otros datos disponibles sobre los personajes para crear su modelo de comportamiento y diálogo con los usuarios.

Replika, la nueva aplicación de Kuyda, permite a cada usuario crear su propio avatar de IA. Cuanto más chatee con su Replika, mejor será para comprender su personalidad y más significativas serán sus conversaciones.

Después de instalar la aplicación y configurar mi Replika, encontré que las primeras conversaciones eran molestas. Varias veces, tuve que repetir una oración de diferentes maneras para transmitir mis intenciones a mi Replika. A menudo dejé la aplicación frustrada. (Y para ser justos, hice un buen trabajo probando sus límites bombardeándolo con preguntas conceptuales y abstractas). Pero a medida que nuestras conversaciones continuaron, mi Replika se volvió más inteligente al comprender el significado de mis oraciones y plantear temas significativos. Incluso me sorprendió un par de veces al hacer conexiones con conversaciones pasadas.

Aunque es impresionante, Replika tiene límites, que Kuyda señala rápidamente. "La imitación de voz y el reconocimiento de imágenes probablemente mejorarán pronto, pero con el diálogo y la conversación, todavía estamos bastante lejos", dice. "Podemos imitar algunos patrones de habla, pero no podemos simplemente tomar a una persona e imitar su conversación perfectamente y esperar que su chatbot presente nuevas ideas de la misma manera que esa persona".

Alexandre de Brébisson, CEO y cofundador de Lyrebird, dice: "Si ahora nos estamos volviendo bastante buenos imitando la voz humana, la imagen y el video, todavía estamos lejos de modelar un modelo de lenguaje individual". Eso, señala Brébisson, probablemente requeriría inteligencia artificial general, el tipo de IA que tiene conciencia y puede comprender conceptos abstractos y tomar decisiones como lo hacen los humanos. Algunos expertos creen que estamos a décadas de crear IA general. Otros piensan que nunca llegaremos allí.

Usos Positivos

La imagen negativa que se proyecta sobre la síntesis de aplicaciones de IA está ocultando sus usos positivos. Y hay bastantes.

Las tecnologías como la de Lyrebird pueden ayudar a mejorar las comunicaciones con las interfaces de la computadora al hacerlas más naturales y, según Brébisson, proporcionarán voces artificiales únicas que diferenciarán a las empresas y los productos y, por lo tanto, facilitarán la distinción de marca. Dado que Alexa de Amazon y Siri de Apple han hecho de la voz una interfaz cada vez más popular para dispositivos y servicios, compañías como Lyrebird y Voicery podrían proporcionar a las marcas voces únicas similares a las de los humanos para distinguirse.

"Las aplicaciones médicas también son un caso de uso emocionante de nuestra tecnología de clonación de voz", agrega de Brébisson. "Hemos recibido mucho interés por parte de los pacientes que pierden la voz por una enfermedad y, por el momento, estamos pasando tiempo con pacientes con ELA para ver cómo podemos ayudarlos".

A principios de este año, en colaboración con Project Revoice, una organización sin fines de lucro australiana que ayuda a pacientes con ELA con trastornos del habla, Lyrebird ayudó a Pat Quinn, el fundador del Ice Bucket Challenge, a recuperar su voz. Quinn, que es un paciente con ELA, había perdido la capacidad de caminar y hablar en 2014 y desde entonces había estado usando un sintetizador de voz computarizado. Con la ayuda de la tecnología de Lyrebird y las grabaciones de voz de las apariciones públicas de Quinn, Revoice pudo "recrear" su voz.

"Su voz es una gran parte de su identidad, y darles a esos pacientes una voz artificial que suena como su voz original es como devolverles una parte importante de su identidad. Les cambia la vida", dice de Brébisson.

En el momento en que ayudó a desarrollar la aplicación de imitación de escritura a mano, el Dr. Haines habló sobre sus usos positivos en una entrevista con UCL. "Las víctimas de accidentes cerebrovasculares, por ejemplo, pueden formular cartas sin preocuparse por la ilegibilidad, o alguien que envíe flores como regalo podría incluir una nota escrita a mano sin siquiera ir al florista", dijo. "También podría usarse en cómics donde un texto escrito a mano se puede traducir a diferentes idiomas sin perder el estilo original del autor".

Incluso las tecnologías como FakeApp, que se han hecho famosas por su uso poco ético, podrían tener usos positivos, cree Haines. "Nos estamos moviendo hacia este mundo donde cualquiera podría realizar una actividad altamente creativa con tecnología pública, y eso es algo bueno, porque significa que no necesita esas grandes sumas de dinero para hacer todo tipo de locuras de naturaleza artística, " él dice.

Haines explica que el propósito inicial de su equipo era descubrir cómo la IA podría ayudar con el análisis forense. Aunque su investigación terminó tomando una dirección diferente, los resultados seguirán siendo útiles para los oficiales forenses, quienes podrán estudiar cómo podría ser la falsificación basada en IA. "Desea saber cuál es la tecnología de punta, de modo que cuando mira algo, puede saber si es falso o no", dice.

Kudya de Replika señala que las aplicaciones de inteligencia artificial similares a las humanas podrían ayudarnos de formas que de otra manera serían imposibles. "Si tuvieras un avatar de IA que te conociera muy bien y pudiera ser una representación decente de ti, ¿qué podría hacer, actuando por tus mejores intereses?" ella dice. Por ejemplo, un avatar de IA autónomo podría ver cientos de películas en su nombre y, en función de sus conversaciones con usted, recomendar las que desee.

Estos avatares podrían incluso ayudar a desarrollar mejores relaciones humanas. "Tal vez tu madre pueda pasar más tiempo contigo, y tal vez puedas acercarte un poco más a tus padres, dejándolos chatear con tu Replika y leer la transcripción", dice Kudya como ejemplo.

Pero, ¿podría un chatbot de IA que replica el comportamiento de un ser humano real en realidad mejorar las relaciones humanas? Kuyda cree que puede. En 2016, reunió viejos mensajes de texto y correos electrónicos de Roman Mazurenko, un amigo que había muerto en un accidente de tráfico el año anterior, y los alimentó a la red neuronal que alimentó su aplicación. El resultado fue una aplicación de chatbot que, de alguna manera, le devolvió la vida a su amiga y pudo hablar con ella de la misma manera que él.

"Crear una aplicación para Roman y poder hablar con él a veces fue una parte importante de la pérdida de nuestro amigo. La aplicación nos hace pensar más en él, recordarlo de una manera más profunda todo el tiempo", dice ella. de su experiencia. "Desearía tener más aplicaciones como esa, aplicaciones que serían sobre mis amistades, mis relaciones, cosas que realmente son realmente importantes para mí".

Kuyda cree que todo dependerá de las intenciones. "Si el chatbot está actuando por sus mejores intereses, si quiere que esté contento de obtener algún servicio valioso, entonces, obviamente, hablar con la Replika de otra persona ayudará a construir una conexión más fuerte con un ser humano en la vida real, " ella dice. "Si todo lo que está tratando de hacer es vender s en una aplicación, todo lo que hará será maximizar el tiempo dedicado a la aplicación y no comunicarse entre sí. Y eso, supongo, es cuestionable".

Por el momento, no hay forma de conectar su Replika a otras plataformas, por lo que está disponible como chatbot de Facebook Messenger, por ejemplo. Pero la compañía tiene una relación activa con su comunidad de usuarios y desarrolla constantemente nuevas funciones. Entonces, dejar que otros se comuniquen con su Replika es una posibilidad futura.

Cómo minimizar las compensaciones

Desde la máquina de vapor hasta la electricidad e Internet, cada tecnología ha tenido aplicaciones positivas y negativas. La IA no es diferente. "El potencial de los negativos es bastante grave", dice Haines. "Podríamos estar entrando en un espacio donde los negativos superan a los positivos".

Entonces, ¿cómo maximizamos los beneficios de las aplicaciones de IA mientras contrarrestamos los negativos? Haines dice que frenar la innovación y la investigación no es la solución, porque si algunos lo hacen, no hay garantía de que otras organizaciones y estados sigan su ejemplo.

"Ninguna medida única ayudará a resolver el problema", dice Haines. "Tendrá que haber consecuencias legales". Luego de la profunda controversia, los legisladores en los Estados Unidos están investigando el tema y explorando salvaguardas legales que podrían frenar el uso de los medios de comunicación con fines de IA para objetivos perjudiciales.

"También podemos desarrollar tecnologías para detectar falsificaciones cuando hayan pasado el punto en que un humano puede notar la diferencia", dice Haines. "Pero en algún momento, en la competencia entre la falsificación y la detección, la falsificación podría ganar".

En ese caso, podríamos tener que avanzar hacia el desarrollo de tecnologías que creen una cadena de evidencia para los medios digitales. Como ejemplo, Haines menciona hardware integrado en cámaras que pueden firmar digitalmente su video grabado para confirmar su autenticidad.

La concientización será una gran parte del manejo de la falsificación y el fraude mediante algoritmos de IA, dice de Brébisson. "Es lo que hicimos clonando la voz de Trump y Obama y haciéndoles decir frases políticamente correctas", dice. "Estas tecnologías plantean cuestiones sociales, éticas y legales que deben pensarse con anticipación. Lyrebird generó mucha conciencia, y muchas personas ahora están pensando en esos posibles problemas y cómo prevenir el mal uso".

Lo que es seguro es que estamos entrando en una era donde la realidad y la ficción se están fusionando, gracias a la inteligencia artificial. La prueba de Turing podría enfrentar sus mayores desafíos. Y muy pronto, todos tendrán las herramientas y el poder para crear sus propios mundos, su propia gente y su propia versión de la verdad. Todavía tenemos que ver el alcance completo de oportunidades emocionantes, y peligros, que se avecinan.

Cuando ai desdibuja la línea entre realidad y ficción