Tabla de contenido:
- Descargando la nube
- Preocupaciones sobre la privacidad
- Reducción de latencia
- Enfrentando los desafíos del borde
- ¿Se disiparán las nubes?
Video: Fog computing la computacion en la niebla | Giocode (Noviembre 2024)
A lo largo de la costa del estado australiano de Nueva Gales del Sur (NSW) flota una flota de drones, ayudando a mantener las aguas seguras. A principios de este año, los drones ayudaron a los socorristas de la costa norte del estado a rescatar a dos adolescentes que luchaban en el oleaje.
Los drones funcionan con inteligencia artificial (IA) y algoritmos de visión artificial que analizan constantemente sus transmisiones de video y resaltan elementos que requieren atención: por ejemplo, tiburones o nadadores callejeros. Este es el mismo tipo de tecnología que permite a Google Photos ordenar imágenes, una cámara de seguridad para el hogar para detectar extraños y una nevera inteligente para avisarle cuando sus productos perecederos están cerca de su fecha de vencimiento.
Pero aunque esos servicios y dispositivos necesitan una conexión constante a la nube para sus funciones de inteligencia artificial, los drones NSW pueden realizar sus tareas de detección de imágenes con o sin una conexión a Internet sólida, gracias a los chips de cómputo neuronales que les permiten realizar cálculos de aprendizaje profundo localmente.
Estos chips son parte de una tendencia creciente de innovaciones de cómputo de borde que permiten que nuestros dispositivos alimentados por software realicen al menos algunas funciones críticas sin un enlace constante a la nube. El auge de la informática de punta está ayudando a resolver problemas nuevos y antiguos y allanando el camino para la próxima generación de dispositivos inteligentes.
Descargando la nube
En las últimas dos décadas, la nube se ha convertido en la forma de facto de alojar aplicaciones, con buenas razones.
"Lo que hace que la nube sea tan atractiva es que tiende a descargar el costo de iniciar cualquier actividad que desee realizar", dice Rob High, CTO de IBM Watson. "La nube… permite a las personas… resolver problemas reales hoy sin tener que pasar por el costo de la creación de infraestructura".
Con una conectividad ubicua a Internet y casi innumerables aplicaciones en la nube, servicios y plataformas de desarrollo, las barreras para crear y desplegar aplicaciones han disminuido considerablemente. Los vastos recursos de proveedores en la nube como IBM, Google y Amazon han impulsado el desarrollo no solo de aplicaciones empresariales triviales, sino también de software complejo que requiere grandes cantidades de cómputo y almacenamiento: algoritmos de inteligencia artificial y aprendizaje automático, así como transmisión y AR (realidad aumentada) aplicaciones.
Pero estos avances también han creado un desafío: la mayoría de las aplicaciones que utilizamos no pueden funcionar a menos que estén conectadas a la nube. Esto incluye la mayoría de las aplicaciones que se ejecutan en computadoras y teléfonos, así como el software en refrigeradores, termostatos, cerraduras de puertas, cámaras de vigilancia, automóviles, drones, sensores meteorológicos, etc.
Con el advenimiento de Internet de las cosas (IoT), un número creciente de dispositivos ejecuta software y genera datos, y la mayoría de ellos requerirán un enlace a la nube para almacenar y procesar esos datos. La cantidad de potencia y ancho de banda requeridos para enviar esos datos a la nube es inmensa, y el espacio necesario para almacenar los datos desafiará los recursos de incluso los gigantes más poderosos de la nube.
"Hay una gran cantidad de datos que estamos recopilando en estos sistemas, ya sea en el límite, o es un dispositivo IoT, o cualquier otro lugar, que casi podría decidir no preocuparse", dice High. Pero si cada decisión debe tomar lugar en la nube, todos esos datos tendrán que enviarse a través de la red a los servidores de la nube para ser limpiados y filtrados.
Como ejemplo, High nombra a los aviones modernos, que contienen cientos de sensores que monitorean los motores a reacción y recopilan cientos de gigabytes de datos de estado y rendimiento durante cada vuelo. "¿Cuánto de esos datos realmente importa si quieres analizarlos en un agregado? Probablemente solo una fracción de ellos", dice High. "¿Por qué no simplemente deshacerse de él en la fuente cuando no es necesario para cualquier otra cosa que esté haciendo?"
Hacer lo que High sugiere fuera de la nube era casi imposible, pero los avances en los procesadores de bajo consumo y bajo costo del sistema en chip (SoC) han dado a los dispositivos de borde más poder de cómputo y les han permitido asumir parte de la carga computacional de su ecosistemas, como realizar análisis en tiempo real o filtrar datos.
"Hay tantos datos en el entorno perimetral que tiene sentido incorporar algunas de las capacidades de computación en la nube a la capacidad computacional del dispositivo perimetral", dice High.
Preocupaciones sobre la privacidad
Los beneficios de la computación perimetral no se limitan a liberar recursos en la nube.
Remi El-Ouazzane, Grupo de Nuevas Tecnologías y Gerente General de Movidius (Intel), cita las cámaras de seguridad comerciales como otro ejemplo de cuándo la informática de borde puede hacer una gran diferencia. Puede ver estas cámaras en los semáforos, en los aeropuertos y en la entrada de los edificios, grabando y transmitiendo videos de alta calidad a través de la red durante todo el día.
"Cuantos menos datos necesite transportar nuevamente a un servidor o centro de datos, cuanto más depuración y refinamiento pueda hacer localmente, mejor será su costo total de propiedad desde una perspectiva de almacenamiento y transferencia", dice El-Ouazzane.
Esto significa proporcionar a las cámaras la capacidad de analizar sus propias fuentes de video, determinar qué cuadros o longitudes de video requieren atención y enviar solo esos datos al servidor.
Cuando esas cámaras se instalan en su hogar, su oficina o en cualquier ubicación privada, la conexión a la nube también se convierte en una posible preocupación de seguridad. Los piratas informáticos y los investigadores de seguridad han podido comprometer la conexión entre los electrodomésticos y sus servidores en la nube para interceptar transmisiones de video sensibles. Analizar los datos localmente elimina la necesidad de tener un conducto de video entre su hogar, su vida privada y un proveedor de servicios.
Movidius, que fue adquirido por Intel en 2016, es una de varias startups que fabrican chips de computadora especializados para tareas de inteligencia artificial como el reconocimiento de voz y la visión por computadora. La compañía fabrica unidades de procesamiento de visión (VPU): procesadores de baja potencia que ejecutan redes neuronales que analizan y "entienden" el contexto de las imágenes digitales sin la necesidad de enviarlas de vuelta a la nube.
El Movidius Myriad 2 es un procesador de visión siempre activo diseñado para entornos con limitaciones de energía.
"Cuando la cámara comprende la semántica de lo que está mirando, la capacidad de imponer reglas sobre lo que la cámara puede hacer o no puede convertirse en una tarea muy fácil", dice El-Ouazzane. "No es necesario capturar tu sala de estar durante las próximas 12 horas solo para saber que, en un momento dado, tu perro cruzó la alfombra frente al sofá".
Otras compañías están explorando el uso de computación de borde especializada impulsada por IA para preservar la privacidad del usuario. El Apple iPhone X, por ejemplo, está alimentado por el chip Bionic A11, que puede ejecutar tareas de inteligencia artificial localmente, lo que le permite realizar un reconocimiento facial complicado sin enviar la ficha policial del usuario a la nube.
Más procesamiento de IA en el borde puede allanar el camino para la inteligencia artificial descentralizada, donde los usuarios tienen que compartir menos datos con las grandes empresas para usar aplicaciones de IA.
Reducción de latencia
Otro problema con los grandes proveedores de la nube es que sus centros de datos están ubicados fuera de las grandes ciudades, colocándolos a cientos y miles de millas de distancia de las personas y dispositivos que usan sus aplicaciones.
En muchos casos, la latencia causada por los datos que viajan hacia y desde la nube puede producir un rendimiento deficiente o, peor aún, resultados fatales. Puede tratarse de un avión no tripulado que intenta evitar colisiones o aterrizar en un terreno irregular, o un automóvil autónomo que intenta decidir si se encuentra con un obstáculo o un peatón.
La implementación liviana de Movidius de redes neuronales profundas y visión por computadora hace que sus chips sean adecuados para dispositivos periféricos móviles como drones, para los cuales el hardware que consume energía como las GPU no es factible. Los drones son un estudio particularmente interesante, porque necesitan acceso de baja latencia a la computación de IA y deben seguir funcionando en configuraciones fuera de línea.
La detección de gestos como otra área donde la informática de punta está ayudando a mejorar la experiencia del dron. "El objetivo es hacer que los drones sean accesibles para muchas personas, y el gesto parece ser una buena manera para que las personas los usen. La latencia es importante cuando haces un gesto con el dron para realizar alguna tarea", dice El-Ouazzane.
Para nuevas empresas como Skylift Global, que proporciona servicios de drones de peso pesado para rescatar a trabajadores y socorristas, el acceso de baja latencia a la inteligencia artificial y los recursos informáticos puede ahorrar dinero y vidas. "Reducirá significativamente los costos de ingestión de datos, reducirá la latencia de la red, aumentará la seguridad y ayudará a convertir la transmisión de datos en decisiones en tiempo real", dice Amir Emadi, CEO y fundador de Skylift.
Entregar suministros a los socorristas requiere decisiones en fracciones de segundo. "Cuanto más tiempo pase, por ejemplo en la lucha contra un incendio forestal, más costoso será remediar la situación. A medida que nuestros drones se vuelvan capaces de tomar decisiones en tiempo real en el límite, incluso cuando pierdan conectividad, podremos ahorrar más vidas, dinero y tiempo ", dice Emadi.
Otros dominios que necesitan computación casi en tiempo real son las aplicaciones de realidad aumentada y virtual y los vehículos autónomos. "Todos estos son entornos informáticos basados en la experiencia. Sucederán en torno a las personas", dice Zachary Smith, CEO de Packet, una startup con sede en Nueva York que se enfoca en permitir a los desarrolladores acceder a hardware altamente distribuido.
Una aplicación AR o VR que no puede mantenerse al día con los movimientos del usuario causará mareos o evitará que la experiencia se vuelva inmersiva y real. Y la latencia será un problema aún mayor cuando los autos autónomos, que dependen en gran medida de la visión por computadora y los algoritmos de aprendizaje automático, se conviertan en la corriente principal.
"Una latencia de 30 milisegundos no será importante para cargar su página web, pero realmente será importante que un automóvil determine a 60 mph si debe girar a la izquierda o derecha para evitar chocar contra una niña", dice Smith.
Enfrentando los desafíos del borde
A pesar de la necesidad de acercar la informática al límite, poner hardware especializado en cada dispositivo podría no ser la respuesta final, reconoce Smith. "¿Por qué no simplemente poner todas las computadoras en el automóvil? Creo que realmente tiene que ver con la evolución de qué tan rápido puede controlar el ciclo de vida de eso", dice.
"Cuando pones hardware en el mundo, generalmente permanece allí durante cinco a 10 años", dice Smith, mientras que la tecnología que impulsa estos casos de uso basados en la experiencia evoluciona cada seis a 12 meses.
Incluso las empresas muy grandes con cadenas de suministro complicadas a menudo luchan con la actualización de su hardware. En 2015, Fiat Chrysler tuvo que retirar 1.4 millones de vehículos para corregir una vulnerabilidad de seguridad que fue expuesta cinco años antes. Y el gigante fabricante de chips Intel todavía está luchando para lidiar con una falla de diseño que expone cientos de millones de dispositivos a los piratas informáticos.
El-Ouazzane de Movidius reconoce estos desafíos. "Sabemos que cada año vamos a tener que cambiar una gama de productos, porque cada año vamos a traer más inteligencia al límite y les pediremos a nuestros clientes que actualicen", dice.
Para evitar retiros constantes y permitir que los clientes hagan un uso a largo plazo de su hardware de borde, Movidius empaqueta sus procesadores con recursos y capacidad adicionales. "Necesitamos la capacidad durante los próximos años para realizar actualizaciones en esos productos", dice El-Ouazzane.
Packet, la compañía de Smith, utiliza un enfoque diferente: crea micro centros de datos que pueden implementarse en ciudades, más cerca de los usuarios. Luego, la compañía puede proporcionar a los desarrolladores recursos computacionales de muy baja latencia, lo más cerca posible de los usuarios sin poner el hardware real al límite.
"Creemos que será necesario un mecanismo de entrega de infraestructura para colocar hardware al que puedan acceder los desarrolladores en todas las ciudades del mundo", dice Smith. La compañía ya opera en 15 ubicaciones y planea expandirse eventualmente a cientos de ciudades.
Pero las ambiciones de Packet van más allá de crear versiones en miniatura de las amplias instalaciones operadas por Google y Amazon. Como explica Smith, implementar y actualizar hardware especializado no es factible con la nube pública. En el modelo comercial de Packet, los fabricantes y desarrolladores implementan hardware especializado en los centros de datos periféricos de la compañía, donde pueden actualizarlo y actualizarlo rápidamente cuando sea necesario, al tiempo que se aseguran de que sus usuarios obtengan un acceso rápido a los recursos informáticos.
Hatch, uno de los clientes de Packet, es un spin-off de Rovio, la compañía de juegos móviles que creó Angry Birds. La compañía ejecuta Android en servidores de cómputo de borde para proporcionar servicios de transmisión de juegos multijugador de baja latencia a usuarios con dispositivos Android de gama baja.
"necesita servidores ARM bastante especializados en todos estos mercados alrededor del mundo", dice Smith. "Tienen configuraciones personalizadas de nuestra oferta de servidores, y la pusimos en ocho mercados globales en toda Europa, y pronto serán 20 o 25 mercados. Se sienten como Amazon para ellos, pero pueden ejecutar hardware personalizado en todos los mercados de Europa". ".
Teóricamente, Hatch podría hacer lo mismo en la nube pública, pero los costos lo convertirían en un negocio ineficiente. "La diferencia es entre poner 100 usuarios por CPU versus poner 10, 000 usuarios por CPU", dice Smith.
Smith cree que este modelo atraerá a la generación de desarrolladores que impulsarán las próximas innovaciones de software. "En lo que estamos enfocados es en cómo conectar la generación de software, las personas que crecieron en la nube, con primitivas de hardware especializadas", dice Smith. "Estamos hablando de usuarios que ni siquiera pueden abrir su MacBook para mirar hacia adentro, y esa es la persona que va a innovar en la pila de hardware / software".
¿Se disiparán las nubes?
Con los dispositivos de borde cada vez más capaces de realizar tareas computacionales complicadas, ¿está en peligro el futuro de la nube?
"Para mí, la computación de borde es una próxima progresión natural y lógica de la computación en la nube", dice High de IBM Watson.
De hecho, en 2016, IBM lanzó un conjunto de herramientas que permiten a los desarrolladores distribuir sin problemas las tareas entre el borde y la nube, especialmente en los ecosistemas de IoT, donde los dispositivos de borde ya recopilan una gran cantidad de datos sobre su entorno inmediato. Y a finales de 2016, Amazon Web Services, otra importante plataforma de desarrollo en la nube, anunció Greengrass, un servicio que permite a los desarrolladores de IoT ejecutar partes de sus aplicaciones en la nube en sus dispositivos periféricos.
Nada de esto significa que la nube se está yendo. "Hay muchas cosas que se hacen mejor en la nube, incluso cuando todavía se está trabajando mucho en el borde", dice High. Esto incluye tareas como agregar datos de muchas fuentes diferentes y realizar análisis a gran escala con grandes conjuntos de datos.
"Si necesitamos crear modelos en los algoritmos de IA que usamos en estos dispositivos de borde, crear y entrenar estos modelos sigue siendo un problema computacional muy intenso y muchas veces requiere una capacidad de cálculo que excede con creces lo que está disponible en estos dispositivos de borde". dice.
El-Ouzzane está de acuerdo. "La capacidad de entrenar modelos de IA localmente es extremadamente limitada", dice. "Desde el punto de vista del aprendizaje profundo, la capacitación solo tiene un lugar para sentarse, y es en la nube, donde obtienes suficientes recursos informáticos y suficiente almacenamiento para poder manejar grandes conjuntos de datos".
El-Ouazzane también prevé casos de uso en los que los dispositivos de borde se asignan con tareas de misión y tiempo crítico, mientras que la nube se encarga de la inferencia más avanzada que no depende de la latencia. "Estamos viviendo en un mundo de continuidad entre la nube y el borde".
"Existe una relación muy simbiótica y sinérgica entre la computación de borde y la computación en la nube", dice High.