Tabla de contenido:
- El objetivo, el asistente y la foto usan funciones de IA
- AI-First Data Centers y nuevas herramientas de desarrollo
Video: Google Apps La manera de trabajar en el presente con herramientas del futuro Mar 2012 (Noviembre 2024)
Para mí, el tema más importante en la conferencia Google I / O de la semana pasada fue "democratizar la IA", en otras palabras, hacer que la IA sea accesible tanto para los usuarios finales a través de su uso en una variedad de servicios de Google como para los desarrolladores a través de nuevas herramientas y programas. e incluso hardware diseñado en torno al marco de trabajo TensorFlow AI de Google.
El CEO de Google, Sundar Pichai, comenzó la conferencia con una conferencia magistral en la que nuevamente hizo hincapié en que la compañía se estaba moviendo de un enfoque de móvil primero a uno de IA, de manera similar a lo que dijo el año pasado.
Dijo que Google estaba "repensando todos nuestros productos y aplicando aprendizaje automático e inteligencia artificial para atender los problemas de los usuarios". Dijo que los algoritmos de aprendizaje automático ya influyen en la clasificación de los diferentes resultados en la búsqueda, y cómo Street View ahora reconoce automáticamente las señales. Otros servicios se están volviendo más inteligentes debido a la inteligencia artificial, dijo, como cómo Google Home ahora admite múltiples usuarios y cómo Gmail está implementando una función de "respuesta inteligente" donde sugiere automáticamente respuestas a los correos electrónicos.
Con ese fin, hizo una serie de anuncios de productos de IA, tanto para consumidores como para desarrolladores.
El objetivo, el asistente y la foto usan funciones de IA
Para los usuarios finales, el más visible de estos nuevos esfuerzos es Google Lens, un conjunto de capacidades informáticas basadas en la visión que pueden comprender lo que está viendo y tomar medidas, tanto en el Asistente de Google como en Google Photos.
Por ejemplo, demostró cómo puedes tomar una foto de una flor y cómo Google Lens ahora puede identificarla. Más prosaicamente, puede tomar una foto de un nombre de usuario y contraseña para Wi-Fi, y luego comprende automáticamente que desea conectarse y hacerlo por usted. Otros ejemplos incluyen tomar una foto del exterior de un restaurante y hacer que el software entienda lo que es, luego mostrarle reseñas y menús de los usuarios. Esto no es completamente nuevo, pero me imagino que será bastante útil, el tipo de cosas que todos usaremos prácticamente de memoria en unos años. Google dice que esto se implementará en unos meses.
El Asistente de Google continúa siendo más inteligente e incorporará la Lente de Google, aunque la mayor noticia al respecto es que el Asistente ahora está llegando al iPhone.
La popular aplicación Google Photos también está obteniendo una serie de otras características nuevas impulsadas por la inteligencia artificial, incluido el "uso compartido sugerido", donde seleccionará automáticamente las mejores imágenes y le sugerirá que las comparta con las personas en las fotos. Google Photos también está agregando una función que automáticamente le permitirá compartir todo o parte de su
AI-First Data Centers y nuevas herramientas de desarrollo
En el lado interno, Pichai habló sobre cómo la compañía estaba "repensando" su arquitectura computacional para construir "primeros centros de datos de inteligencia artificial". Dijo que Google usa sus Unidades de Procesamiento de Tensor (TPU) actuales en todos sus servicios, desde la búsqueda básica hasta el reconocimiento de voz y su competencia AlphaGo.
Estaba particularmente intrigado por la introducción de la compañía de una nueva versión de su TPU 2.0, que Pichai dijo que era capaz de alcanzar 180 teraflops (180 billones de operaciones de punto flotante por segundo) por tablero de 4 chips, o 11.5 petaflops en cada "pod" de 64 de estos tableros. Estos están disponibles para los desarrolladores como "TPU en la nube" en Google Cloud Engine ahora, y la compañía dijo que pondría 1000 TPU en la nube a disposición de los investigadores de aprendizaje automático a través de su nueva TensorFlow Research Cloud.
Esto es parte de un impulso cada vez mayor en TensorFlow, el marco de aprendizaje automático de código abierto de la compañía para desarrolladores, y la conferencia tuvo una variedad de sesiones destinadas a lograr que más desarrolladores usen este marco. TensorFlow parece ser el más popular de los marcos de aprendizaje automático, pero es solo una de varias opciones. (Otros incluyen Caffe, que es impulsado por Facebook, y MXNet, impulsado por Amazon Web Services).
Fui a una sesión sobre "TensorFlow para no expertos" diseñada para evangelizar el marco y la
Debido a que desarrollar tales servicios es tan difícil, Pichai pasó mucho tiempo hablando de "AutoML", un enfoque que tiene redes neuronales que diseñan nuevas redes neuronales. Dijo que Google espera que AutoML tome una habilidad que algunos doctores tienen hoy y hará posible que cientos de miles de desarrolladores diseñen nuevas redes neuronales para sus necesidades particulares en tres a cinco años.
Esto es parte de un esfuerzo mayor llamado Google.ai para llevar la IA a más personas, con Pichai hablando sobre una variedad de iniciativas para usar la IA para ayudar en la atención médica. Habló sobre patología y detección de cáncer, secuenciación de ADN y descubrimiento de moléculas.
Continuando con el tema, Dave Burke, jefe de ingeniería de Android, anunció una nueva versión de TensorFlow optimizada para dispositivos móviles llamada TensorFlow lite. La nueva biblioteca permitirá a los desarrolladores crear modelos de aprendizaje profundo más ágiles diseñados para ejecutarse en teléfonos inteligentes Android, y habló sobre cómo los diseñadores de procesadores móviles estaban trabajando en aceleradores específicos en sus procesadores o DSP diseñados para la inferencia de redes neuronales e incluso la capacitación.
En la nota clave del desarrollador, Fei Fei Li, profesora de Stanford que dirige la investigación de inteligencia artificial de Google, dijo que se unió a Google "para asegurarse de que todos puedan aprovechar la inteligencia artificial para mantenerse competitivos y resolver los problemas que más les importan".
Ella habló mucho sobre la "Democratización de la IA", incluidas las diversas herramientas que Google pone a disposición de los desarrolladores para aplicaciones específicas, como visión, habla, traducción, lenguaje natural e inteligencia de video, así como la creación de herramientas para crear sus propios modelos, como como TensorFlow, que es más fácil de usar con más API de alto nivel.
Ella habló sobre cómo los desarrolladores ahora podrán usar CPU, GPUS o TPU en Google Compute Engine. Dio un ejemplo de la mejora en la velocidad que algunos modelos tienen en TPU, y dijo que las implicaciones de la investigación son significativas.
Haciéndose eco de Pichai, promocionó la nueva Nube de Investigación TensorFlow, diciendo que los estudiantes y los usuarios de Kaggle deberían postularse para usarla; y concluyó diciendo que la empresa creó su equipo de IA en la nube para hacer que la IA sea democrática, para conocerte donde estás, con las herramientas de IA más poderosas de Google, y para compartir el viaje a medida que las utilices.