Hogar Opiniones ¿Por qué las empresas tecnológicas están utilizando humanos para ayudar a ai? ben dickson

¿Por qué las empresas tecnológicas están utilizando humanos para ayudar a ai? ben dickson

Tabla de contenido:

Video: Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza (Noviembre 2024)

Video: Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza (Noviembre 2024)
Anonim

"Andrew Ingram" es un asistente digital que escanea sus correos electrónicos, le da ideas de programación para las reuniones y citas que discute con sus compañeros de trabajo, establece tareas y envía invitaciones a las partes relevantes con muy poca asistencia. Utiliza las capacidades avanzadas de inteligencia artificial de X.ai, un nuevo Con sede en York startup que se especializa en el desarrollo de asistentes de IA. Los problemas que resuelve pueden ahorrar mucho tiempo y frustración a las personas (como yo) que tienen un horario desordenado.

Pero según una historia de Wired publicada en mayo, la inteligencia detrás de Andrew Ingram no es totalmente artificial. Está respaldado por un grupo de 40 filipinos en un edificio altamente seguro en las afueras de Manila que monitorean el comportamiento de la IA y se hacen cargo cada vez que el asistente se encuentra con un caso que no puede manejar.

Si bien la idea de que sus correos electrónicos estén siendo escaneados por personas reales puede sonar espeluznante, se ha convertido en una práctica común entre muchas empresas que brindan servicios de inteligencia artificial a sus clientes. Un artículo reciente en The Wall Street Journal expuso a varias empresas que permitieron a sus empleados acceder y leer los correos electrónicos de los clientes para crear nuevas funciones y capacitar a su inteligencia artificial en casos que nunca antes había visto.

Llamada la técnica del "Mago de Oz" o pseudo-IA, la práctica de usar en silencio a los humanos para compensar las deficiencias de los algoritmos de IA arroja luz sobre algunos de los desafíos más profundos que enfrenta la industria de la IA.

La inteligencia artificial no está lista para problemas generales

Detrás de la mayoría de las innovaciones de IA en los últimos años están los algoritmos de aprendizaje profundo y las redes neuronales. Las redes neuronales profundas son muy eficientes para clasificar la información. En muchos casos, como el reconocimiento de voz y rostro o la identificación del cáncer en las resonancias magnéticas y tomografías computarizadas, pueden superar a los humanos.

Pero eso no significa que el aprendizaje profundo y las redes neuronales puedan realizar cualquier tarea que los humanos puedan hacer.

"El aprendizaje profundo nos permite resolver el problema de la percepción. Esto es un gran problema porque la percepción ha limitado la IA desde su creación hace más de 60 años", dice Jonathan Mugan, cofundador y CEO de DeepGrammar. "Resolver el problema de percepción finalmente ha hecho que la IA sea útil para cosas como el reconocimiento de voz y la robótica".

Sin embargo, señala Mugan, la percepción no es el único problema. El aprendizaje profundo tiene dificultades cuando el razonamiento y la comprensión de sentido común están involucrados.

"El aprendizaje profundo no nos ayuda con este problema", dice. "Hemos progresado un poco en PNL (procesamiento del lenguaje natural) al tratar el lenguaje como un problema de percepción; es decir, convertir palabras y oraciones en vectores. Esto nos ha permitido representar mejor el texto para la clasificación y la traducción automática (cuando hay muchas datos), pero no ayuda con el razonamiento de sentido común. Es por eso que los chatbots han fallado en gran medida ".

Uno de los principales problemas que enfrentan todas las aplicaciones de aprendizaje profundo es el de recopilar los datos correctos para entrenar sus modelos de IA. El esfuerzo y los datos que se requieren para entrenar una red neuronal para realizar una tarea dependen de qué tan amplio es el espacio del problema y qué nivel de precisión se requiere.

Por ejemplo, una aplicación de clasificación de imágenes como la aplicación Not Hotdog de Silicon Valley de HBO realiza una tarea muy estrecha y específica: le indica si la cámara de su teléfono inteligente muestra un hot dog o no. Con suficientes imágenes de hot dog, la IA de la aplicación puede realizar su función muy importante con un alto nivel de precisión. E incluso si comete un error de vez en cuando, no le hará daño a nadie.

Pero otras aplicaciones de IA, como la que X.ai está construyendo, están abordando problemas mucho más amplios, lo que significa que requieren muchos ejemplos de calidad. Además, su tolerancia a los errores es mucho menor. Hay una gran diferencia entre confundir un pepino con un hot dog y programar una importante reunión de negocios en el momento equivocado.

Desafortunadamente, los datos de calidad no son una mercancía que poseen todas las empresas.

"La regla general es que cuanto más general es un problema que una IA está tratando de abordar, más casos extremos o comportamientos inusuales pueden ocurrir. Esto inevitablemente significa que necesita muchos más ejemplos de entrenamiento para cubrir todo", dice el Dr. Steve Marsh, CTO en Geospock. "Las startups generalmente no tienen acceso a grandes cantidades de datos de capacitación, por lo que los modelos que pueden construir de manera factible serán muy específicos y frágiles, que generalmente no cumplen con sus expectativas".

Tal riqueza de información está en posesión de grandes compañías como Facebook y Google, que han estado recolectando datos de miles de millones de usuarios durante años. Las empresas más pequeñas tienen que pagar grandes sumas para obtener o crear datos de capacitación, y eso retrasa el lanzamiento de sus aplicaciones. La alternativa es lanzar de todos modos y comenzar a entrenar su IA sobre la marcha, utilizando entrenadores humanos y datos de clientes en vivo y esperando que, con el tiempo, la IA se vuelva menos dependiente de los humanos.

Por ejemplo, Edison Software, una compañía con sede en California que desarrolla aplicaciones para administrar correos electrónicos, hizo que sus empleados leyeran los correos electrónicos de sus clientes para desarrollar una función de "respuesta inteligente" porque no tenían suficientes datos para entrenar el algoritmo, la compañía El CEO le dijo a The Wall Street Journal. Crear respuestas inteligentes es una tarea amplia y desafiante. Incluso Google, que tiene acceso a los correos electrónicos de miles de millones de usuarios, proporciona respuestas inteligentes para casos muy limitados.

Pero el uso de humanos para entrenar IA con datos de usuarios en vivo no se limita a compañías más pequeñas.

En 2015, Facebook lanzó M, un chatbot de inteligencia artificial que podía comprender y responder a diferentes matices de conversaciones y realizar muchas tareas. Facebook puso M a disposición de un número limitado de usuarios en California y creó un equipo de operadores humanos que supervisarían el rendimiento de la IA e intervendrían para corregirlo cuando no pudiera entender la solicitud de un usuario. El plan original era que los operadores humanos ayudaran a enseñar al asistente a responder a casos extremos que no había visto antes. Con el tiempo, M podría operar sin la ayuda de los humanos.

¿Una meta inalcanzable?

No está claro cuánto tiempo le llevará a Edison Software, X.ai y otras compañías que han lanzado sistemas humanos en el bucle para hacer que su IA sea completamente automatizada. También hay dudas de si las tendencias actuales de IA pueden llegar al punto de involucrarse en dominios más amplios.

En 2018, Facebook cerró M sin desplegarlo oficialmente. La compañía no compartió detalles, pero está claro que crear un chatbot que pueda entablar conversaciones amplias es muy difícil. Y hacer que M esté disponible para todos los dos mil millones de usuarios de Facebook sin que sea capaz de responder automáticamente a todo tipo de conversaciones, habría requerido que el gigante de las redes sociales contratara a un gran equipo de humanos para llenar los vacíos de M.

Mugan de DeepGrammar cree que eventualmente podremos crear IA que pueda resolver el razonamiento de sentido común, lo que otros clasifican como IA general. Pero no sucederá pronto. "Actualmente no hay métodos en el horizonte que permitan que una computadora entienda lo que un niño pequeño sabe", dice Mugan. "Sin esta comprensión básica, las computadoras no podrán realizar muchas tareas bien el 100 por ciento del tiempo".

Para poner esto en perspectiva, los expertos de OpenAI desarrollaron recientemente Dactyl, una mano robótica que podía manejar objetos. Esta es una tarea que cualquier niño humano aprende a realizar inconscientemente a una edad temprana. Pero se necesitaron Dactyl 6, 144 CPU y 8 GPU y aproximadamente cien años de experiencia para desarrollar las mismas habilidades. Si bien es un logro fascinante, también destaca las marcadas diferencias entre la IA estrecha y la forma en que funciona el cerebro humano.

"Estamos muy lejos de tener Inteligencia General Artificial, y es muy probable que AGI sea la combinación y coordinación de muchos tipos diferentes de IAs específicas o específicas de la aplicación", dice Marsh. "Creo que hay una tendencia a exagerar las capacidades de la IA en este momento, pero también veo que hay un enorme valor en dar los primeros pasos iniciales e implementar los modelos tradicionales de Machine Learning".

¿Se avecina otro invierno AI?

En 1984, la Asociación Estadounidense de Inteligencia Artificial (más tarde rebautizada como Asociación para el Avance de la Inteligencia Artificial) advirtió a la comunidad empresarial que la exageración y el entusiasmo en torno a la IA eventualmente conducirían a la decepción. Poco después, la inversión y el interés en la IA colapsaron, lo que llevó a una era mejor conocida como el "invierno de la IA".

Desde principios de la década de 2010, el interés y la inversión en el campo han vuelto a aumentar. Algunos expertos temen que si las aplicaciones de IA tienen un rendimiento inferior y no cumplen con las expectativas, se producirá otro invierno de IA. Pero los expertos con los que hablamos creen que la IA ya se ha integrado demasiado en nuestras vidas para volver sobre sus pasos.

"No creo que estemos en peligro de un invierno con IA como los anteriores porque la IA ahora ofrece un valor real, no solo un valor hipotético", dice Mugan. "Sin embargo, si continuamos diciéndole al público en general que las computadoras son inteligentes como los humanos, corremos el riesgo de una reacción violenta. No volveremos a no utilizar el aprendizaje profundo para la percepción, pero el término 'IA' podría mancharse, y nosotros tendría que llamarlo de otra manera ".

Lo que es seguro es que, al menos, una era de desilusión está ante nosotros. Estamos a punto de aprender hasta qué punto podemos confiar en las mezclas actuales de IA en diferentes campos.

"Lo que espero ver es que algunas empresas están gratamente sorprendidas por la rapidez con que pueden proporcionar una IA para un servicio previamente manual y costoso, y que otras compañías encontrarán que lleva más tiempo del que esperaban recopilar suficientes datos para convertirse en financieramente viable ", dice James Bergstra, cofundador y jefe de investigación de Kindred.ai. "Si hay demasiados de estos últimos y no suficientes de los primeros, podría desencadenar otro invierno de IA entre los inversores".

  • La inteligencia artificial tiene un problema de sesgo, y es nuestra culpa La inteligencia artificial tiene un problema de sesgo, y es nuestra culpa
  • ¿Por qué es importante enseñar a la IA a jugar? ¿Por qué es importante enseñar a la IA a jugar?
  • La IA ofrece un gran potencial, pero no sucederá de la noche a la mañana La IA ofrece un gran potencial, pero no sucederá de la noche a la mañana

Marsh de Geospock predice que si bien los fondos no disminuirán, habrá algunos ajustes en su dinámica. A medida que los inversores se den cuenta de que la verdadera experiencia es rara y solo aquellos con acceso a datos para capacitar a los modelos serán diferenciales en la industria, habrá una gran consolidación en el mercado y muchas menos nuevas empresas obtendrán fondos.

"Para muchas startups de IA sin una aplicación de nicho de mercado o grandes cantidades de datos: se acerca el invierno", concluye Marsh.

¿Por qué las empresas tecnológicas están utilizando humanos para ayudar a ai? ben dickson