Tabla de contenido:
- Inteligencia artificial en todas partes
- Una suite G más inteligente
- Impulsando una revolución del aprendizaje automático
Video: Incorpora inteligencia artificial a tus aplicaciones con APIs de ML (Hablemos en Cloud) (Noviembre 2024)
Makoto Koike es un productor de pepino en Japón. Koike es un ex diseñador de sistemas integrados que pasó años trabajando en la industria automotriz japonesa, pero en 2015 regresó a casa para ayudar en la granja de pepinos de sus padres. Pronto se dio cuenta de que la tarea manual de clasificar los pepinos por color, forma, tamaño y atributos como la "espina" a menudo era más complicada y más ardua que cultivarlos. Inspirado por la innovación de aprendizaje profundo del software de inteligencia artificial (AI) de Google AlphaGo, se propuso automatizar la tarea.
Las empresas están comenzando a implementar IA práctica en todo tipo de formas, pero es seguro decir que nadie vio venir la solución de clasificación de pepinos de IA de Koike. Koike nunca antes había trabajado con técnicas de inteligencia artificial, pero, utilizando la biblioteca de aprendizaje automático TensorFlow de código abierto, comenzó a ingresar imágenes de pepinos. Gracias a los algoritmos de visión por computadora para reconocer objetos y el aprendizaje profundo para entrenar a TensorFlow en los matices de diferentes pepinos, Koike se dio cuenta de que podía identificar y clasificar las verduras con un alto nivel de precisión. Luego, al usar nada más que TensorFlow y una computadora Raspberry Pi 3 barata, Koike construyó una máquina de clasificación automática que la granja todavía usa hoy en día.
TensorFlow es uno de los muchos algoritmos y herramientas de código abierto que revolucionan lo que las empresas y los desarrolladores pueden resolver con IA. La compañía amplió su misión de "llevar los beneficios de la inteligencia artificial a todos" con el lanzamiento de Google.ai en su conferencia Google I / O, agrupando todos sus recursos de inteligencia artificial en una plataforma unificada. Google también está incorporando estas técnicas e interfaces de programación de aplicaciones (API) en todo lo que hace, integrando ML en sus productos y redefiniendo fundamentalmente cómo funciona su software en el proceso.
PCMag visitó recientemente Googleplex y habló con ejecutivos de G Suite, Google Cloud Platform (GCP) y el Laboratorio de soluciones avanzadas de aprendizaje automático (ML ASL) de la compañía sobre cómo Google se está reconstruyendo con IA.
Inteligencia artificial en todas partes
Digamos que uno de sus clientes tiene un problema. Un agente del departamento de soporte técnico de su empresa está en un chat en vivo con el cliente a través de una aplicación de chat que almacena datos en Google Cloud Platform. Para ayudarlos a resolver el problema, el usuario debe enviar al agente algunos datos personales confidenciales. Ahora digamos que el cliente es tu abuela. El representante de servicio al cliente le pide a la abuela algunos datos, pero en su lugar, la abuela envía más información de la que necesita cuando carga una foto de su tarjeta de seguro social en el chat.
En lugar de que Google archive esa información de identificación personal (PII), la imagen se muestra con el número de seguro social y otra PII automáticamente eliminada. El agente nunca ve ninguna información que no necesita y ninguno de esos datos va al archivo encriptado de Google. Durante una demostración de la tecnología DLP API en la sede de Google en Mountain View, California, la compañía retiró la cortina sobre cómo los algoritmos de ML analizan texto e imágenes para que esto suceda.
Rob Sadowski, Líder de marketing de confianza y seguridad para Google Cloud, explicó que la redacción automática está impulsada por la API de prevención de pérdida de datos (DLP) de Google que trabaja bajo la superficie para clasificar datos confidenciales. El algoritmo hace lo mismo con datos como números de tarjetas de crédito, y también puede analizar patrones para detectar cuándo un número es falso. Este es solo un ejemplo de la sutil estrategia de Google de integrar la inteligencia artificial en sus experiencias y brindar a las empresas y desarrolladores como Koike los recursos para hacer lo mismo.
Google está lejos de ser el único gigante tecnológico que incorpora una capa de inteligencia conectiva en su software, pero, junto con Amazon y Microsoft, podría decirse que tiene la mayor variedad de herramientas y servicios de inteligencia basados en la nube disponibles. Desglosando los productos de la compañía, puede encontrar el Asistente de Google y varias API de ML y visión artificial en uso en casi todas partes.
La Búsqueda de Google utiliza algoritmos de ML en su sistema de inteligencia artificial RankBrain para procesar y refinar consultas, volver a clasificar y agregar datos en función de una serie de factores cambiantes para mejorar continuamente la calidad de los resultados de búsqueda. Google Photos utiliza la visión por computadora para unir fotos relacionadas en recuerdos y combinar varias tomas de la misma ubicación en panoramas. Inbox ofrece a los usuarios respuestas inteligentes generadas automáticamente para elegir, y muestra correos electrónicos relevantes agrupando categorías similares. La nueva aplicación de chat de Google Allo de la compañía viene con el Asistente de Google incorporado. La lista continúa.
Todas estas aplicaciones se ejecutan en la infraestructura de la nube de Google, y la compañía incluso está aplicando ML en sus centros de datos para reducir el consumo de energía mediante el ajuste de las bombas de enfriamiento en función de la carga y los datos climáticos. Sadowski dijo que esto también sirve como la capa final de defensa en la estrategia de seguridad de Google, donde la compañía usa inteligencia de máquina y puntuación de riesgo dentro de su pila de seguridad para determinar si un sistema se ve comprometido mediante el análisis predictivo.
"Google toma todos estos modelos de ML e IA que hemos desarrollado y los ajusta por seguridad", explicó Sadowski. "La seguridad cambia mucho más radicalmente que la mayoría de los sectores de TI. Los productos que fueron el núcleo de su infraestructura de seguridad hace tres o cuatro años, como los cortafuegos y la protección de punto final, siguen siendo importantes, pero queremos ofrecer una defensa en profundidad, a escala y predeterminado sobre una infraestructura multiinquilino con millones de usuarios activos diarios.
"Comienza con el hardware del centro de datos subyacente", continuó Sadowski. "Además de eso, están los servicios de aplicaciones y la autenticación con datos y comunicación totalmente encriptados. Además, la identidad del usuario. Y la última capa de defensa es cómo operamos con monitoreo, detección y respuesta a incidentes las 24 horas, los 7 días de la semana. Es así como nosotros resuelva cosas como el acceso remoto seguro con el proxy de reconocimiento de identidad. Es el servicio de DLP programático que busca y previene las fugas de datos y ayuda con la gobernanza y la seguridad de los datos. Nuestro objetivo es hacer que estas capacidades sean fáciles, consumibles y que funcionen a escala."
Una suite G más inteligente
ML también está integrado en las aplicaciones de productividad G Suite de Google. Allan Livingston, director de gestión de productos de G Suite, analizó algunas de las formas en que AI está haciendo que G Suite sea más inteligente y contextual sin que los usuarios se den cuenta.
"Piense en cómo G Suite reúne todas estas aplicaciones de una manera naturalmente integrada", dijo Livingston. "Comienza su trabajo en uno de ellos y fluye según corresponda. Abre un archivo adjunto de Gmail en Drive, y eso lo lleva a Docs; es realmente automático.
"Estamos intentando dejar de pensar en eso para el usuario y eso también implica aprendizaje automático. Comenzamos con respuestas inteligentes en Inbox y hemos tenido un gran éxito con Gmail, y eso ha llevado a la función Explorar en Documentos, Hojas de cálculo y diapositivas ".
Lanzado el otoño pasado, Explore aplica el procesamiento del lenguaje natural (PNL) a la experiencia de productividad en la aplicación. En Docs, Explore le ofrece sugerencias instantáneas basadas en el contenido de su documento y recomienda automáticamente temas y recursos relacionados. En Diapositivas, genera sugerencias de diseño para reducir el formato de presentación. El caso de uso más interesante, sin embargo, está en Hojas. Livingston explicó cómo Explore usa ML para simplificar el análisis de datos y los conocimientos de inteligencia empresarial (BI).
"Muchos usuarios no saben qué es una tabla dinámica o cómo usarla para visualizar una hoja de datos", explicó Livingston. "Supongamos que se trata de datos de ventas para un cliente, donde cada fila es un artículo que se ha vendido. Explore le permite escribir consultas en lenguaje natural como '¿Cuál es el artículo principal en el Black Friday?' y escupe una respuesta como "Vendiste 563 pares de pantalones". Estamos abordando el análisis de datos de una manera que ahorra tiempo al tomar decisiones basadas en datos, utilizando el aprendizaje automático para mejorar un problema común de forma natural ".
Una demostración de la función Explorar en hojas, de la conferencia Google Cloud NEXT el pasado marzo.
Según Livingston, Google planea expandir este tipo de búsqueda en la nube impulsada por ML a terceros y comenzar a construir un ecosistema a su alrededor. La idea general es un tema común en la IA práctica: automatizar procesos manuales para liberar a los usuarios para un trabajo más creativo. Esa idea está en el corazón de la mayoría de las aplicaciones de ML: para automatizar procesos comerciales repetibles y tareas cotidianas, incluida la clasificación de pepinos.
"En los negocios y con los consumidores, los usuarios tienen estos patrones naturales de interacción. El cambio a la nube y a la productividad móvil realmente está cambiando la forma en que las personas trabajan, y estas técnicas de aprendizaje automático aplicadas son fundamentales para ello", dijo Livingston. "Debido a nuestra fortaleza en el aprendizaje automático, debido a que nuestros productos sirven como base, debido a todos los datos en nuestra nube, estamos en una posición única para aplicar eso y escalar infinitamente".
Impulsando una revolución del aprendizaje automático
La base de todo lo que Google hace en torno a la IA se basa en sus API, algoritmos y herramientas de código abierto. La biblioteca TensorFlow de la compañía es la herramienta de ML más utilizada en GitHub, que genera aplicaciones como el clasificador de pepinos de Koike. El conjunto de API subyacentes de Google Cloud (algoritmos que abarcan la visión por computadora, la inteligencia de video, el habla y la PNL, el modelado de predicciones y el ML a gran escala a través del Google Cloud Machine Learning Engine) es la tecnología que impulsa todas las funciones de IA integradas en las aplicaciones y servicios de Google y ahora también la plataforma Google.ai.
Francisco Uribe, gerente de producto del equipo AI / ML de Google Cloud, trabaja en el corazón del motor que está reescribiendo cómo funciona Google. Uribe supervisa el mencionado ML ASL de Google, un laboratorio con un programa inmersivo en el que los expertos de Google ML trabajan directamente con las empresas para implementar soluciones de inteligencia artificial. Mediante el uso de las API de Google y Cloud ML Engine, el laboratorio trabaja con las empresas para capacitar e implementar sus propios modelos en producción.
Uribe ha trabajado en el espacio de IA durante más de una década. Fundó BlackLocus, una startup basada en datos que creó un motor de precios automatizado para minoristas, que fue adquirido por Home Depot en 2012. Después de eso, se unió a Google y trabajó durante cuatro años en el equipo de Search Ads que aplica ML para mejorar la experiencia publicitaria.. En 2016, se trasladó a un puesto de investigación ejecutando ML ASL y actuando como mentor en Launchpad Accelerator de Google. Uribe dijo que está continuamente sorprendido de cómo las empresas y los desarrolladores están utilizando las herramientas de Google.
"Hemos visto casos de uso en todos los ámbitos, desde atención médica y finanzas hasta venta minorista y agricultura", dijo Uribe. "Estamos tratando de ayudar a los clientes a mejorar las capacidades de percepción. Traducción de voz, análisis de imágenes, API de video, lenguaje natural: todos son parte de la democratización del acceso a la máquina y los algoritmos de aprendizaje profundo, que finalmente han entrado en aplicabilidad".
ML ASL ha trabajado con HSBC Bank plc, una de las organizaciones de servicios bancarios y financieros más grandes del mundo, en soluciones de ML para el lavado de dinero y la calificación crediticia predictiva. ML ASL también ha trabajado con United Services Automobile Association (USAA), un grupo de compañías de servicios financieros de Fortune 500, para capacitar a los ingenieros de la organización en técnicas de ML aplicadas a escenarios de seguros específicos. eBay utilizó las herramientas de Google para capacitar a su asistente digital ShopBot. Cuando ML ASL trabaja con una empresa, Uribe explicó los cuatro pilares que conforman el proceso.
"Se necesita una sólida oferta informática para hacer frente a los requisitos extremos de los trabajos de ML, y la red troncal de fibra óptica distribuida de GCP mueve los datos de un nodo a otro de manera muy eficiente", dijo Uribe. "Tenemos el motor de Cloud Machine Learning para ayudar a los clientes a entrenar modelos. Ayudamos a los clientes a ejecutar datos con acceso a la comunidad de Kaggle de más de 800, 000 científicos de datos activos. Finalmente, necesita el talento para estar allí, así que en el lado de la investigación, tenemos el Programa Brain Residency para capacitar a ingenieros en un complejo plan de estudios de ML. Los vemos como los componentes básicos para ayudar a los clientes a crear aplicaciones inteligentes"
Todo esto alimenta la comunidad de código abierto y el ecosistema de terceros que Google está construyendo en torno a su tecnología de inteligencia artificial. La compañía incluso anunció una competencia de inicio de ML a principios de este año, que otorga hasta $ 500, 000 en inversión a las nuevas empresas de ML. Uribe habló sobre algunas de las aplicaciones innovadoras que ya ha visto de la tecnología de Google y dónde podrían estar otras posibilidades.
"Digamos que es una empresa de análisis de servicio al cliente. Piense en una API de voz para transcribir el contenido de las llamadas y luego en un análisis de sentimientos para mejorar la calidad de su servicio al cliente", dijo Uribe. "Utilice la API de visión para tomar una foto de un letrero de calle en un país extranjero y luego la API de traducción para traducir ese contenido en tiempo real a través de una experiencia de aplicación. No se trata solo de aumentar la eficiencia; se trata de crear experiencias de usuario nuevas y únicas."
Uribe ve herramientas como TensorFlow como el gran habilitador para la adopción de ML a gran escala en el mercado. Estas tecnologías no solo se han convertido en el núcleo de lo que es Google y cómo el gigante tecnológico aborda el desarrollo de productos, sino que Uribe cree que la tecnología de ML ampliamente disponible ayudará a optimizar las empresas, abrir nuevas fuentes de ingresos e inventar una nueva clase de aplicaciones inteligentes.
"Piense en ello como una nueva revolución industrial", dijo Uribe. "Estamos viendo que estas herramientas permiten aumentos de órdenes de magnitud en eficiencia y experiencias que nunca has visto antes. Es sorprendente ver cómo las nuevas empresas lo están aplicando. Mira al agricultor de pepinos en Japón. Usó TensorFlow para construir un modelo para clasificar y clasificando los pepinos en base a patrones, tamaños, texturas, etc., y luego construimos hardware especializado para ejecutarlo. Ese nivel de democratización es increíble de ver y apenas hemos arañado la superficie ".