Tabla de contenido:
- ¿Pueden los asistentes de IA servir a propósitos malvados?
- Preocupaciones sobre la privacidad
- Fallas funcionales
Video: DIFERENCIA ENTRE INTELIGENCIA ARTIFICIAL - MACHINE LEARNING - DEEP LEARNING (Noviembre 2024)
Google recientemente volvió a instalar Duplex para revelar explícitamente a los anfitriones de los restaurantes y al personal del salón que están hablando con el Asistente de Google y están siendo grabados.
Al ajustar Duplex, Google pone fin a algunas de esas críticas. Pero, ¿por qué es tan importante que las empresas sean transparentes sobre la identidad de sus agentes de IA?
¿Pueden los asistentes de IA servir a propósitos malvados?
"Existe una creciente expectativa de que cuando envías mensajes a una empresa, podrías estar interactuando con un chatbot impulsado por inteligencia artificial. Pero cuando realmente escuchas hablar a un humano, generalmente esperas que sea una persona real", dice Joshua March, CEO de Coversocial.
March dice que estamos en el comienzo de las personas que tienen interacciones significativas con la IA de manera regular, y los avances en el campo han creado el temor de que los piratas informáticos puedan explotar los agentes de la IA con fines maliciosos.
"En el mejor de los casos, los robots de inteligencia artificial con intenciones maliciosas podrían ofender a las personas", dice Marcio Avillez, vicepresidente sénior de redes de Cujo AI. Pero Marcio agrega que podemos enfrentar amenazas más graves. Por ejemplo, la inteligencia artificial puede aprender patrones lingüísticos específicos, lo que facilita la adaptación de la tecnología para manipular a las personas, hacerse pasar por víctimas y realizar ataques de vishing (phishing por voz) y actividades similares.
Muchos expertos coinciden en que la amenaza es real. En una columna para el CIO, Steven Brykman expuso las diferentes formas en que se puede explotar una tecnología como Duplex: "Al menos con los humanos que llaman humanos, todavía hay un factor limitante: un humano solo puede hacer tantas llamadas por hora, por día. Los seres humanos tienen que ser pagados, tomar descansos, etc. ¡Pero un chatbot de IA podría literalmente hacer un número ilimitado de llamadas a un número ilimitado de personas en una variedad ilimitada de formas!"
En esta etapa, la mayoría de lo que escuchamos es especulación; Todavía no sabemos el alcance y la seriedad de las amenazas que pueden surgir con el advenimiento de los asistentes de voz. Pero muchos de los posibles ataques que involucran asistentes basados en voz pueden desactivarse si la empresa que proporciona la tecnología se comunica explícitamente a los usuarios cuando interactúan con un agente de inteligencia artificial.
Preocupaciones sobre la privacidad
Otro problema que rodea el uso de tecnologías como Duplex es el riesgo potencial para la privacidad. Los sistemas impulsados por IA necesitan datos del usuario para entrenar y mejorar sus algoritmos, y Duplex no es una excepción. Cómo almacenará, protegerá y usará esos datos es muy importante.
Están surgiendo nuevas regulaciones que requieren que las compañías obtengan el consentimiento explícito de los usuarios cuando desean recopilar su información, pero han sido diseñadas principalmente para cubrir tecnologías donde los usuarios inician interacciones intencionalmente. Esto tiene sentido para los asistentes de inteligencia artificial como Siri y Alexa, que son activados por el usuario. Pero no está claro cómo se aplicarían las nuevas reglas a los asistentes de IA que se acercan a los usuarios sin ser activados.
En su artículo, Brykman enfatiza la necesidad de establecer salvaguardas regulatorias, como las leyes que requieren que las compañías declaren la presencia de un agente de IA, o una ley que cuando le preguntas a un chatbot si es un chatbot, es necesario decir: "Sí, Soy un chatbot ". Dichas medidas le darían al interlocutor humano la oportunidad de desconectarse o, al menos, decidir si quieren interactuar con un sistema de IA que grabe su voz.
Incluso con tales leyes, las preocupaciones de privacidad no desaparecerán. "El mayor riesgo que preveo en la encarnación actual de la tecnología es que le dará a Google aún más datos sobre nuestras vidas privadas que aún no tenía. Hasta este momento, solo sabían de nuestras comunicaciones en línea; ahora obtendrán una visión real de nuestras conversaciones en el mundo real ", dice Vian Chinner, fundador y CEO de Xineoh.
Los recientes escándalos de privacidad que involucran a grandes empresas tecnológicas, en las que han utilizado datos de usuarios de manera cuestionable para sus propios beneficios, han creado una sensación de desconfianza sobre darles más ventanas a nuestras vidas. "La gente en general siente que las grandes compañías de Silicon Valley los ven como inventario en lugar de clientes y tienen un alto grado de desconfianza hacia casi cualquier cosa que hagan, sin importar cuán innovadores y cambiantes sean", dice Chinner.
Fallas funcionales
A pesar de tener una voz y un tono naturales y usar sonidos similares a los humanos como "mmhm" y "ummm", Duplex no es diferente de otras tecnologías de IA contemporáneas y tiene las mismas limitaciones.
Ya sea que se use voz o texto como interfaz, los agentes de IA son buenos para resolver problemas específicos. Es por eso que los llamamos "IA estrecha" (en oposición a "IA general", el tipo de inteligencia artificial que puede participar en la resolución general de problemas, como lo hace la mente humana). Si bien la IA estrecha puede ser excepcionalmente buena para realizar las tareas para las que está programada, puede fallar espectacularmente cuando se le da un escenario que se desvía de su dominio del problema.
"Si el consumidor cree que está hablando con un humano, probablemente le preguntará algo que está fuera del guión normal de la IA y luego obtendrá una respuesta frustrante cuando el bot no lo entienda", dice March de Conversocial.
Por el contrario, cuando una persona sabe que está hablando con una IA que ha sido entrenada para reservar mesas en un restaurante, tratará de evitar el uso de un lenguaje que confundirá a la IA y hará que se comporte de manera inesperada, especialmente si está trayendo ellos un cliente.
"Los miembros del personal que reciben llamadas del Duplex también deberían recibir una introducción directa de que esta no es una persona real. Esto ayudaría a que la comunicación entre el personal y la IA sea más conservadora y clara", dice Avillez.
Por esta razón, hasta que (y si) desarrollemos inteligencia artificial que pueda funcionar a la par con la inteligencia humana, a las propias empresas les interesa ser transparentes sobre su uso de la inteligencia artificial.
Al final del día, parte del miedo a los asistentes de voz como Duplex es causado por el hecho de que son nuevos, y todavía nos estamos acostumbrando a encontrarlos en nuevos entornos y casos de uso. "Al menos algunas personas parecen muy incómodas con la idea de hablar con un robot sin saberlo, por lo que por el momento probablemente debería divulgarse a las contrapartes en la conversación", dice Chinner.
- AI es (también) una fuerza para el bien AI es (también) una fuerza para el bien
- Cuando AI desdibuja la línea entre realidad y ficción Cuando AI desdibuja la línea entre realidad y ficción
- La inteligencia artificial tiene un problema de sesgo, y es nuestra culpa La inteligencia artificial tiene un problema de sesgo, y es nuestra culpa
Pero a la larga, nos acostumbraremos a interactuar con agentes de inteligencia artificial que son más inteligentes y más capaces de realizar tareas que antes se consideraban dominio exclusivo de los operadores humanos.
"A la próxima generación no le importará si están hablando con una IA o un ser humano cuando contactan a una empresa. Solo querrán obtener su respuesta rápida y fácilmente, y habrán crecido hablando con Alexa. Esperando Esperar a hablar con un humano será mucho más frustrante que simplemente interactuar con un bot ", dice la Marcha de Conversocial.