Video: Android y Firebase 1 - Autenticación - Registro de Usuarios (Noviembre 2024)
De alguna manera, vimos dos Googles diferentes en exhibición en la conferencia de desarrolladores de E / S de la compañía en Mountain View, que se inauguró ayer. Una de ellas era la confianza de Google, que extendió su liderazgo en búsqueda y dispositivos móviles, y sus puntos fuertes en el aprendizaje automático a otros mercados adyacentes, además de ofrecer algunas herramientas nuevas e impresionantes para los desarrolladores. El otro era un Google menos arrogante que se ponía al día en el mercado de asistentes de conversación, aplicaciones de mensajería y realidad virtual. La mayoría de los titulares fueron a la última categoría, donde los cambios son más tangibles. Pero para la mayoría de los desarrolladores, es probable que las extensiones y cambios en Android y las herramientas de desarrollo que lo rodean tengan un impacto más inmediato.
( Sundar Pichai )
El aprendizaje automático fue el tema principal de la conferencia, con el CEO de Google, Sundar Pichai, abriendo el discurso principal del martes al hablar sobre cómo la compañía estaba evolucionando la búsqueda para hacer un mayor uso de su larga inversión en aprendizaje automático y procesamiento del lenguaje natural. Dijo que Google ha hecho grandes avances en el reconocimiento de voz, con consultas de voz que ahora representan el 20 por ciento de las búsquedas en los Estados Unidos; en reconocimiento de imágenes, tanto en el motor de búsqueda como en Fotos; y en traducción, que ahora admite 100 idiomas diferentes y traduce 140 mil millones de palabras al día. En general, dijo, Google tiene un "gráfico de conocimiento" de mil millones de entidades: personas, lugares y cosas. Y luego pasó a mostrar una variedad de nuevos productos y servicios que pueden usar este conocimiento.
Lo más obvio es el nuevo Asistente de Google, que parece ser un asistente de conversación más que el servicio Google Now, diseñado para proporcionar un diálogo bidireccional con un enfoque en hacer las cosas en el mundo real y comprender el contenido y el contexto. Hubo una serie de demostraciones interesantes en las que el Asistente pudo hacer cosas como responder preguntas y ayudarlo a elegir una película para ver o un restaurante para cenar, y en realidad hacer las reservas.
Se veía bastante bien, pero conceptualmente parece muy similar a otros asistentes de conversación que hemos visto, como Siri de Apple, Cortana de Microsoft y Alexa de Amazon. De hecho, las demostraciones me recordaron las demostraciones iniciales de Cortana.
Pichai promovió la idea de que la búsqueda está cambiando, diciendo que "no es suficiente con darles los enlaces, realmente necesitamos ayudarlos a hacer las cosas en el mundo real". Eso me recordó el impulso detrás de Google Now hace cuatro años, que ha funcionado bastante bien para la compañía.
( Mario Queiroz )
Esta tecnología será parte de un nuevo dispositivo llamado Google Home, donde Pichai fue amable al señalar el Amazon Echo, que parece haber sido la inspiración. Al igual que Echo, Home tiene un asistente de conversación que puede reproducir música, controlar múltiples dispositivos en el hogar y responder preguntas. Mario Queiroz, vicepresidente de administración de productos, mostró algunas adiciones interesantes, como la integración con Chromecast para que pueda "transmitir" música u otros medios a otros altavoces o una pantalla de TV.
A continuación, el director de ingeniería Erik Kay mostró a Allo, esencialmente una plataforma de chat, con el Asistente de Google incorporado para que pueda hacer que sus conversaciones sean más inteligentes; y Duo, una aplicación de videollamadas 1: 1 con un giro interesante que le permite ver una vista previa del video de la persona que llama antes de contestar la llamada. El concepto de bots de chat dentro de un servicio de mensajería (también conocido como "conversaciones como plataforma") fue un gran enfoque de Microsoft Build hace unas semanas, y Facebook Messenger ha estado impulsando este concepto por un tiempo. Google ya ha realizado una variedad de intentos en las redes sociales y la mensajería, de hecho, también acaba de presentar una herramienta llamada Espacios para conectarse en eventos, y aún no ha tenido un gran éxito. Si bien estas herramientas se veían bien en demos en el escenario, no está claro si hay suficientes novedades aquí para cambiar eso.
Para mí, lo más sorprendente de estos productos y servicios es que Google los está promocionando tan pronto. La mayoría parecen dirigidos a fines del verano, pero me sorprendió no ver más discusiones para desarrolladores sobre cómo pueden vincular sus servicios al asistente. Pichai dijo que tendrían más en unos pocos meses, pero parece que Google está un poco atrasado y está tratando de usar su aprendizaje automático y sus puntos fuertes de búsqueda para ponerse al día. Por otro lado, Facebook hizo un anuncio temprano en su conferencia F8, y hay muy pocos chatbots para esa plataforma, y la plataforma de bot de Microsoft también es bastante incipiente, por lo que es realmente un mercado abierto.
( Clay Bavor )
Google está en una posición algo diferente con la realidad virtual, con Cardboard proporcionando una plataforma popular pero de gama baja. Google no está tratando de competir con las soluciones de alta gama como Oculus Rift o HTC Vive, sino que introdujo una plataforma para realidad virtual llamada Daydream que formará parte del próximo lanzamiento de Android N.
Clay Bavor, quien dirige el equipo de realidad virtual en Google, habló sobre cómo Android N está diseñado para admitir un mayor rendimiento y una baja latencia, permitiendo que la actualización "movimiento a fotón" sea inferior a 20 ms, lo que hace que parezca más realista. Además, tendrá un modo VR con su propia interfaz de usuario que maneja correctamente cosas como notificaciones en el entorno inmersivo. Como parte de este lanzamiento, hay una nueva pantalla de inicio de Daydream para lanzar contenido de realidad virtual, que incluye películas y juegos, así como una nueva versión de Play Store para realidad virtual que funciona dentro del entorno de Daydream. Otras aplicaciones incluyen una nueva versión de YouTube para contenido de realidad virtual, una versión de Street View para caminar por diferentes lugares y Fotos para revivir los momentos favoritos.
Gran parte de los anuncios de realidad virtual se referían a estándares y especificaciones. Para los teléfonos, Bavor anunció un conjunto de especificaciones que los teléfonos tendrán que hacer coincidir para sensores, pantallas y procesadores específicos con el fin de que se les llame "Daydream-ready". Esto no parece ser muy diferente de los teléfonos de gama alta de hoy, pero debería dejar en claro qué teléfonos están listos para Daydream. Además, mostró un diseño de referencia para un auricular que tendría una excelente óptica y sería más fácil de poner y quitar, y lo más importante, un nuevo controlador con solo unos pocos botones y un panel táctil que se veía particularmente impresionante. Bavor dijo que los primeros dispositivos estarán disponibles de varios socios este otoño, con las herramientas de desarrollo disponibles ahora.
Más allá de los anuncios de productos de alto perfil había muchos más detalles sobre Android N, la próxima versión del sistema operativo móvil que ya está en una versión beta y que se finalizará este verano.
Dave Burke, vicepresidente de ingeniería a cargo de Android, dijo que las áreas de enfoque para esta versión son el rendimiento, la seguridad y la productividad. Por el lado del rendimiento, enfatizó la introducción de la API de gráficos 3D Vulkan, que promete un mejor rendimiento con una menor sobrecarga de la CPU y un nuevo compilador Runtime que es mucho más rápido y debería resultar en instalaciones de aplicaciones más rápidas. Sobre seguridad, habló sobre el cifrado basado en archivos, el fortalecimiento de los marcos de medios y las actualizaciones integradas, lo que significa que su dispositivo se actualizará automáticamente, por lo que no tiene que instalar manualmente una actualización. (La multitud parecía muy impresionada por esto). En productividad, habló sobre el nuevo soporte de ventanas múltiples para modos de pantalla dividida e imagen en imagen, que parece ser un gran paso adelante de las características individuales de ventanas múltiples como compañías Samsung y LG han agregado además de las versiones existentes de Android. También mencionó cambios más pequeños, como mejores notificaciones y soporte para los estándares Unicode-9 Emoji.
Android Wear, TV y Auto recibieron un poco de atención, y cada uno tuvo sus propias sesiones y áreas de trabajo en el programa, pero gran parte del enfoque se centró en las herramientas de desarrollo. Me impresionaron mucho algunas de las nuevas funciones para desarrolladores. Jason Titus, vicepresidente de productos para desarrolladores, habló sobre los avances en la web móvil, con más de mil millones de personas usando Chrome en dispositivos móviles, con soporte para páginas web progresivas y ahora el programa AMP (páginas móviles aceleradas) de Google para acelerar los sitios web.
( Stephanie Saad Cuthbertson )Stephanie Saad Cuthbertson (arriba), directora de gestión de productos para Android Studio, anunció el lanzamiento de una vista previa de Android Studio 2.2 centrada en compilaciones más rápidas, herramientas más inteligentes para diseñar y depurar aplicaciones y un soporte de plataforma más amplio. Ella dijo que Android Studio ahora era utilizado por el 95 por ciento de las 125 principales aplicaciones. Tenga en cuenta que Studio 2.0 acaba de enviarse a principios de este año, y Studio 2.1 compatible con Android N salió con la versión preliminar de ese sistema operativo.
La gran noticia es la plataforma back-end Firebase, que comenzó como una base de datos NoSQL que Google adquirió hace 18 meses, pero que ahora se ha convertido en un conjunto de 15 herramientas para desarrolladores, desde la base de datos, hasta mensajes y notificaciones en la nube, configuración remota y bloqueo. informes Pensé que los enlaces dinámicos, donde una URL puede producir resultados diferentes dependiendo de dónde se toque, fue particularmente interesante. Todo esto está relacionado con análisis gratuitos, y parecía una plataforma muy impresionante y bien integrada que debería resultar atractiva para muchos desarrolladores de aplicaciones móviles. Firebase admite aplicaciones en Android, iOS y la web móvil, por lo que Google lo promocionó para aplicaciones multiplataforma, no solo para Android.
Una de las demostraciones más interesantes fue una vista previa de Android Instant Apps, que permite que cualquier aplicación se ejecute de inmediato, incluso si no se ha instalado. Ellie Powers, Group Group Manager para Android, dijo que esto implica modularizar las aplicaciones existentes para que Play Store descargue solo las piezas necesarias para mostrar el contenido específico. Esto podría ser un gran problema: si un amigo quiere que te unas a una conversación en una aplicación de mensajería y te envíe un enlace, la idea es que simplemente puedas continuar la conversación en lugar de tener que instalar la aplicación. Esto podría ser un cambio significativo y presenta un enfoque diferente a la distinción entre la web móvil y las aplicaciones. Las aplicaciones instantáneas se ejecutarán en los teléfonos desde Jelly Bean, y deberían comenzar a implementarse gradualmente a finales de este año.
Pichai volvió a hablar más sobre el aprendizaje automático, discutió cómo la compañía lanzó su marco de aprendizaje automático TensorFlow el año pasado, y la semana pasada lanzó una versión de código abierto de su analizador de lenguaje natural. Parece claro que será un área en la que Google espera diferenciar su plataforma en la nube de otros proveedores.
Una revelación fascinante fue que el programa AlphaGo que jugó al nivel de campeonato Go se basó en hardware personalizado, que Pichai describió como Unidades de procesamiento de tensor (TPU). En sesiones y entrevistas posteriores, Google explicó que ha estado utilizando miles de estos ASIC personalizados (Circuitos integrados específicos de la aplicación) durante más de un año para acelerar muchas aplicaciones, incluidos los resultados de búsqueda de clasificación (RankBrain), mapeo y navegación (Street View), procesamiento de fotos, reconocimiento de voz y traducción de idiomas. Dijo que el TPU entregó "un orden de magnitud" mejor rendimiento por vatio para el aprendizaje automático. Esto se debe principalmente a que este tipo de tareas funcionan bien con precisión reducida, lo que permite a Google simplificar el diseño y empacar más elementos de procesamiento en un solo chip. Dijo que esto era "un orden de magnitud" mejor que las plataformas de aprendizaje de GPU.
Pichai dijo que el trabajo de Google en el aprendizaje automático puede aplicarse a una amplia gama de campos, incluida la robótica y la atención médica, y señaló que se está trabajando en la detección de la retinopatía diabética. "Estoy increíblemente entusiasmado con el progreso que estamos haciendo con el aprendizaje automático y la IA", dijo, y agregó que no se trataba de máquinas o humanos, sino que la prueba real es si los humanos pueden lograr mucho más. con el apoyo de AI.
En general, el aprendizaje automático fue el gran tema, pero fue interesante cómo Google está tratando de usarlo como puente para competir en más mercados, como la mensajería y los servicios en la nube. Pero para la mayoría de los desarrolladores, supongo que los cambios en Android N, Android Studio y los servicios de Firebase recibirán la mayor atención en los próximos meses.