Video: Alexa vs Siri vs Google Assistant, ¿cuál es el mejor asistente inteligente en 2020? (Noviembre 2024)
Al ver la nota clave de la Conferencia Mundial de Desarrolladores de Apple esta semana, y de la conferencia de E / S de Google hace dos semanas, lo que más se destacó para mí fue el esfuerzo que ambas compañías, así como Microsoft, están haciendo para crear sistemas inteligentes que sepan tanto como sea posible sobre ti.
Dichos sistemas saben quién es usted, dónde se encuentra y toda la información en su pantalla, generalmente con el objetivo de actuar como un "asistente personal" que anticipa sus necesidades. Este es un objetivo enormemente ambicioso que una de estas empresas parece entender que puede ser el próximo gran paso en la informática.
En el caso de Apple y Google, otras ofertas anunciadas en sus notas clave pueden llamar más la atención o tener un impacto a corto plazo más visible. Google Photos recibió mucha atención; tanto Apple Pay como Android Pay parecen estar a punto de ser mucho más comunes, y las mejoras en Android Wear y WatchOS pueden presagiar una gran cantidad de aplicaciones para dispositivos portátiles. Pero el movimiento hacia sistemas totales más inteligentes y más completos puede tener el mayor impacto a largo plazo.
Apple, Google y Microsoft están llegando a esto desde diferentes ángulos. Pero parecen converger en sistemas que tienen un front-end móvil que puede controlarse mediante mecanografía o voz, respaldado con un conjunto de servicios y procesos basados en Internet que contienen una gran cantidad de datos sobre usted y hacen inferencias basadas en esos datos y sobre lo que estás haciendo.
El camino hacia esta convergencia ha sido allanado por una serie de introducciones en los últimos años. Muchos han estado trabajando en asistentes personales durante años, y Siri fue desarrollado originalmente como una aplicación independiente por un spin-off de SRI International. En 2011, Apple presentó a Siri como un "asistente virtual" con el iPhone 4s, actuando principalmente como un front-end para cosas como la búsqueda en la web, el clima local y la búsqueda de restaurantes. En 2012, Google introdujo Google Now como parte de Android 4.1 Jelly Bean, entregando información sobre una serie de "tarjetas" que respondieron preguntas. Con el tiempo, esto creció para proporcionar más información y cubrir más dominios.
Al principio, pensé que ambos eran interesantes, pero el control por voz parecía más un "truco de salón" que una aplicación útil.
Pero en los últimos años, ambos han mejorado a un ritmo rápido. En parte, tener más usuarios les dio a ambas compañías más datos para trabajar. Esto, combinado con algoritmos más inteligentes y mucho trabajo en el procesamiento del servidor, dio como resultado sistemas que ahora son mucho más precisos para comprender lo que está preguntando que en el lanzamiento. Ambos ahora pueden responder preguntas en más dominios. Y Google Now puede inferir información como dónde se encuentran su hogar y su oficina en función de sus ubicaciones típicas.
Microsoft presentó Cortana el año pasado como parte del lanzamiento de Windows Phone 8.1, describiéndolo como el primer "asistente digital" verdaderamente personal porque entendió más de lo que hizo en otras aplicaciones además de la búsqueda en la Web. Podría hacer cosas como establecer recordatorios y comprender quién era importante para usted y quién no, y aunque no había tantos usuarios, también parece haber mejorado en los últimos años. Cortana ahora también formará parte de Windows 10 en computadoras de escritorio y portátiles.
Esto nos lleva a los anuncios más recientes, donde los tres proveedores parecen estar prestando funciones de los demás, y realmente están tratando de mejorar sus ofertas.
Google Now On Tap
En Google I / O hace un par de semanas, el vicepresidente senior de Google, Sundar Pichai, habló sobre cómo la compañía seguía centrándose en la búsqueda. Pero cuando se trataba de funciones en la última versión de Android, lo que me llamó la atención fue un conjunto de nuevas funciones para el asistente personal de Google Now llamado "Now on Tap".
Pichai habló sobre la inversión de Google en aprendizaje profundo y aprendizaje automático, y dijo que ayudó a Google a reducir la tasa de error de palabras en su reconocimiento de voz del 23% al 8% en el último año.
Google Now ya tiene algunas características contextuales, por ejemplo, sabe dónde se encuentra, por lo que puede estimar el tiempo que le llevará llegar a casa, y puede mostrar esto en las diversas "tarjetas" que usa para mostrar información o dentro de las notificaciones..
Pero Aparna Chennapragada, directora de Google Now, dijo: "Nos preguntamos cómo podemos obtener respuestas rápidas a preguntas rápidas sin abandonar el contexto. ¿Cómo podemos ayudarlo a hacer las cosas en el menor número de pasos posible?" El resultado, dijo, fue un nuevo servicio para ayudarlo "en el momento" sin importar lo que estuviera haciendo por teléfono. Esto es Now On Tap, y dijo que combina el Knowledge Graph de Google, su comprensión de más de mil millones de entidades (como equipos de béisbol y estaciones de servicio), con contexto y conexiones con otras aplicaciones para brindarle información de manera proactiva.
En la demostración que mostró, recibió un mensaje dentro de una aplicación que sugería un restaurante para cenar y le pidió que recogiera la limpieza en seco. Al presionar y mantener presionada la tecla de inicio, apareció la tarjeta Google Now, y la función Now on Tap obtuvo información básica sobre el restaurante, incluidos enlaces a mapas de navegación, Yelp y OpenTable; También establece un recordatorio sobre la limpieza en seco. Al tocar el enlace OpenTable se abrió la aplicación, pero de manera más impresionante la abrió directamente a la página de ese restaurante.
La idea es que el sistema operativo ahora entienda el contexto de dónde se encuentra y lo que ha estado haciendo en el resto del dispositivo. Otro ejemplo es que si estás escuchando música, puedes mantener presionada la tecla de inicio y hacer una pregunta sobre la canción. Google Now sabrá qué canción se está reproduciendo y luego podrá responder preguntas al respecto.
"Puede obtener información al instante", dijo Chennapragada. "En todos estos ejemplos, el artículo que está leyendo, la música que está escuchando, el mensaje que está respondiendo, la clave es comprender el contexto del momento. Una vez que tiene esa comprensión, puede darle respuestas rápidas a preguntas rápidas, te ayuda a hacer las cosas donde sea que estés por teléfono ".
Apple enfatiza la inteligencia
En su discurso inaugural de la WWDC el lunes, Apple discutió una serie de cambios en iOS 9, pero lideró el concepto de "inteligencia".
Craig Federighi, vicepresidente senior de ingeniería de software de Apple, habló sobre hacer de Siri un "asistente proactivo" que pueda hacer cosas como recordarle una tarea específica o un enlace específico en un navegador en un momento particular o cuando llegue a una ubicación en particular. Por ejemplo, si recibe un mensaje de texto sobre un evento próximo, puede decirle a Siri que "me lo recuerde" y comprenderá que se está refiriendo al evento y establecerá un recordatorio. Puede hacer cosas como agregar invitaciones automáticamente en un mensaje de texto a sus calendarios.
Puede recordar las aplicaciones que tiende a usar en un momento determinado del día, y presentarlas en un ícono simple, y ahora agrega "tarjetas descriptivas" que le brindan más información sobre los resultados de una búsqueda (que se veía similar en concepto a las tarjetas en Google Now).
Y, en general, parece haber mejorado. Federighi dijo que Apple ha visto una reducción del 40 por ciento en la tasa de error de palabras en el último año al 5 por ciento. Y es más inteligente tratar con cosas en el sistema en sí, ahora puede responder a consultas en lenguaje natural como "muéstrame fotos de Utah en agosto pasado".
Lo más interesante es que ofrece una API para búsqueda, de modo que pueda encontrar contenido en las aplicaciones. Por ejemplo, habló sobre poder conectarse profundamente en la aplicación Airbnb para encontrar alquileres disponibles en un área en particular; o buscar información sobre recetas en otra aplicación.
En una demostración, mostró una nueva pantalla de búsqueda a la que puede acceder deslizando el dedo directamente desde la pantalla de inicio, y cómo el sistema mismo hace sugerencias sobre con quién desea contactar, en función de sus contactos más frecuentes y de los próximos eventos. Mostró cómo se puede "vincular profundamente" a aplicaciones específicas para brindarle más información. Características similares estaban disponibles en Siri.
Una cosa que Apple enfatizó fue la privacidad, y Federighi dijo: "Pudimos brindar inteligencia a lo largo de la experiencia en iOS 9, pero lo hacemos de una manera que no comprometa su privacidad". En lo que ciertamente sonaba como una excavación en el modelo basado en publicidad de Google, dijo que Apple no extrae sus fotos, correos electrónicos, fotos o información en la nube. Dijo que toda la información se realiza en el dispositivo y permanece en el dispositivo bajo su control, y cuando el sistema tiene que enviar información a la nube para realizar búsquedas o buscar tráfico, lo hace de forma anónima sin información compartida con terceros. "Usted tiene el control", dijo.
Plataforma cruzada de Cortana
Puede argumentar que Microsoft tuvo una ventaja inicial al proporcionar muchas de las funciones de asistente personal con su asistente Cortana para Windows Phone. Fue el primero de los tres grandes asistentes telefónicos en intentar actuar como un asistente real, en términos de programar recordatorios y de integrarse más profundamente con algunas de las aplicaciones telefónicas.
Cortana también forma parte de Windows 10 en el escritorio y la computadora portátil. Más recientemente, Microsoft anunció que una versión de Cortana llegaría a los teléfonos iOS y Android junto con una aplicación "Phone Companion" que conecta su PC a Cortana, para que pueda iniciar tareas en un dispositivo y completarlas en otro.
Como lo describió Joe Belfiore de Microsoft: "Puede hacer que Cortana le recuerde que recoja leche la próxima vez que vaya a la tienda de comestibles, y luego su teléfono se despertará y sonará con el recordatorio. Podrá rastrear un vuelo usando Cortana tanto en su teléfono como en su PC, y obtenga las actualizaciones en el dispositivo que está usando para que no se pierda nada ".
Conclusión
En muchos sentidos, escuchamos que las tres compañías se mueven juntas, particularmente en esfuerzos "proactivos". Google y Apple dijeron que sus herramientas serían más "proactivas", utilizando el término para describir cómo quieren que sus asistentes personales parezcan al menos como si fueran capaces de anticipar lo que van a estar buscando.
Los tres se centran en una mejor conexión con las otras aplicaciones en su sistema, con Apple y Google anunciando un enfoque en "enlaces profundos". Específicamente, quieren vincular cosas dentro de una aplicación, como ir a la pantalla correcta en OpenTable para reservar una tabla. En I / O, el vicepresidente de ingeniería para Android, Dave Burke, mostró cómo Android M ahora tiene mejores formas para que los enlaces pasen de enlaces en correos electrónicos o sitios web al lugar correcto en una aplicación, sin la pantalla actual de "desambiguación".
El resultado de todo esto es un desenfoque de las líneas entre el sistema operativo y las aplicaciones que se ejecutan sobre él, para proporcionar una experiencia más fluida y sistemas que realmente saben mucho más sobre usted.
Todo eso debería ser bastante útil. Pero por una variedad de razones, todo esto también puede dar miedo. Es demasiado fácil imaginar la posibilidad de un mal uso de los datos, ya sea por marketing excesivo o por invasiones reales de la privacidad. Tengo curiosidad acerca de cómo cada una de las compañías abordará esto. Me pregunto si una de las razones por las que Google no ha llamado a su servicio un "asistente personal" es porque suena un poco desagradable de una compañía cuyo modelo de negocio principal está orientado a recopilar datos sobre las personas y usarlas para apuntar mejor.
También es fácil exagerar las capacidades de estos sistemas. El concepto de una máquina que todo lo sabe y todo lo ve puede dar miedo, pero no me preocupa que ninguno de estos sistemas desarrolle una "IA fuerte" en el sentido de The Terminator 's Skynet o 2001: A Space Odyssey 's HAL en cualquier momento en el futuro cercano. Como dijo un participante en un panel reciente al que asistí, dijo: "Piensa en Jarvis, no en HAL", hablando sobre la útil inteligencia en el traje usada en las películas de Iron Man, en oposición a la máquina asesina de 2001. Durante los próximos años, la pregunta no será si estos sistemas son demasiado inteligentes, sino si serán lo suficientemente inteligentes como para ser realmente útiles o si nos encontraremos usándolos simplemente como front-end para búsquedas en la Web.
Por supuesto, el diablo está en los detalles, y realmente no sabremos qué tan bien funciona ninguno de los sistemas hasta que se envíen las nuevas versiones. Si bien el reconocimiento de voz está mejorando, expandir esto a nuevos dominios causa más desafíos. Y no tengo claro qué tan buen trabajo harán los sistemas al permitirle elegir los servicios que desea utilizar en lugar de incumplir con los servicios de Apple o Google.
Pero el concepto general es claro y la utilidad podría ser excelente. Si se implementan correctamente, dichos servicios deberían hacer que nuestros dispositivos se sientan más fáciles de usar, más inteligentes y más personalizados. Tendrán desafíos y generarán algunas preocupaciones, pero supongo que harán más para cambiar la forma en que interactuamos con nuestros dispositivos que cualquier otra cosa desde la pantalla táctil.