Hogar Con visión de futuro La cumbre de computación abierta muestra tremendas innovaciones de hardware

La cumbre de computación abierta muestra tremendas innovaciones de hardware

Video: Kushagra Vaid of Microsoft - Reimagining Open Hardware Innovation at Cloud Speed (Noviembre 2024)

Video: Kushagra Vaid of Microsoft - Reimagining Open Hardware Innovation at Cloud Speed (Noviembre 2024)
Anonim

Quizás la tendencia más interesante en el hardware de computadoras hoy en día es el Open Compute Project, y los esfuerzos que está haciendo para avanzar hacia estándares comunes y eficientes para equipos de centros de datos, en lugar del hardware y software patentado que tenemos hoy. Cuando escuchamos por primera vez acerca de Open Compute, parecía una buena manera para que las empresas web a gran escala diseñaran servidores más eficientes en términos de energía y más fáciles de mantener. Pero desde entonces, Open Compute ha crecido para abarcar muchas otras formas de hardware, desde almacenamiento hasta redes, y se está volviendo aplicable a la informática empresarial, no solo a las empresas de software en la nube.

Todo esto fue bastante evidente en la Cumbre del Proyecto Open Compute de la semana pasada, donde una variedad de compañías introdujeron un nuevo hardware diseñado para trabajar con el hardware y las especificaciones de Open Compute, desde servidores hasta redes.

"En 2011 plantamos algunas semillas", dijo Frank Frankovsky, de Facebook, presidente de la Fundación OCP, al inaugurar la cumbre. "¿Qué pasaría si aplicamos los principios de código abierto al espacio de hardware? El trabajo que estamos haciendo juntos está transformando fundamentalmente la industria".

Nuevos chips y especificaciones Servidores push basados ​​en ARM

Algunas cosas anunciadas durante la semana se destacaron. La gran mayoría de los servidores, en el mundo real y en el Open Compute Project, se basan en los procesadores Xeon de Intel y la arquitectura x86. Si bien es poco probable que eso cambie pronto, los competidores como ARM y AMD tenían algunas alternativas interesantes.

AMD anunció su primera CPU de servidor basada en ARM de 64 bits, la serie Opteron A1100 de 28 nm (con el nombre en código de Seattle), que Andrew Feldman, gerente general y vicepresidente corporativo, dijo que ofrecerá muestras a los clientes "en unas semanas", aunque es no se espera que esté ampliamente disponible hasta cerca de fin de año. El A1100 incluye procesadores ARM Cortex-A57 de 4 u 8 núcleos, hasta 4 MB de L2 compartido y 8 MB de caché L3 compartida, canales de memoria DDR3 o DDR4 duales con ECC, ARM TrustZone para seguridad y coprocesadores para cifrado y datos compresión.

Feldman habló sobre un kit de desarrollo de la serie A con el procesador A1100 y dijo que la compañía había estado trabajando estrechamente con el grupo empresarial Linaro y los proveedores de software para desarrollar un sistema operativo Linux compatible basado en Red Hat's Fedora, pila LAMP optimizada, soporte Java y otros software que incluye aplicaciones, hipervisores, compiladores y simuladores. Feldman sostuvo un pequeño diseño de micro-servidor, utilizando la serie AMD Opteron A-Series y la especificación de ranura común del Open Compute Project para placas base conocidas como "Group Hug", y anunció que la compañía estaba contribuyendo al proyecto para que las compañías de hardware puedan comience a construir servidores basados ​​en él.

Si bien Feldman dijo que AMD está comprometido con x86 y con ARM, sugirió firmemente que el futuro del centro de datos apuntaba hacia servidores basados ​​en ARM. "En la historia de las computadoras, las CPU más pequeñas, de menor costo y de mayor volumen siempre han ganado", dijo Feldman. "No hay excepción a esto". Señaló que el año pasado se enviaron 8 mil millones de CPU ARM en comparación con 13 millones de CPU de servidor x86. (Esto parece una comparación tonta, ya que incluye CPU ARM utilizadas en todo tipo de aplicaciones que no son de centros de datos, pero excluye x86 utilizadas en cualquier cosa que no sean servidores). Feldman predijo que para 2019, ARM controlará una cuarta parte del mercado de servidores y la costumbre Los SoC ARM serán la norma para los grandes centros de datos, mientras que las CPU x86 más pequeñas y eficientes dominarán el mercado de servidores x86.

También en el lado del chip, Applied Micro dijo que su X-Gene 2 estará probando esta primavera con lo que la compañía dice que será la primera implementación de ARMv8 diseñada para servidores. Feldman también dijo que esto será seguido el próximo año por un X-Gene 3 con 16 o más núcleos ARM hechos en un procesador FinFET.

Una preocupación que algunas personas han tenido sobre los servidores basados ​​en ARM es la fragmentación. Para contrarrestar esto, Ian Drew, vicepresidente ejecutivo de desarrollo de negocios y director de marketing de ARM, anunció una nueva arquitectura de sistema de base de servidor. La idea es tener una especificación de hardware básica para desarrolladores de SO y firmware y una sola imagen de SO para todos los servidores basados ​​en ARMv8-A. "Es una especificación de hardware que fue escrita por chicos de hardware y chicos de software juntos", dijo Drew. Señaló que esta no es una estandarización donde todos serán monolíticos, sino que está diseñada para que la diferenciación ocurra en la capa correcta en el momento correcto.

Drew dijo que ARM quiere asegurarse de que todos estén de acuerdo con él, por lo que está disponible públicamente en el sitio web de ARM. Cuenta con el respaldo de los OEM y varios socios de semiconductores, incluidos AMD, Applied Micro, Broadcom y Cavium.

Microsoft se une a OCP

Microsoft dijo que se unía a OCP y contribuía con un conjunto completo de especificaciones para los servidores que funcionan con Office 365, Windows Azure y Bing. El vicepresidente corporativo, Bill Laing, dijo que la compañía quiere impulsar la innovación en los centros de datos en la nube. Este diseño inicial es muy diferente del bastidor estándar de 21 pulgadas originalmente contribuido por Facebook que ha definido gran parte de los servidores Open Compute hasta la fecha. En cambio, es un chasis de 12U que cabe en un bastidor estándar con un blade de cómputo, un blade de almacenamiento, una placa posterior compartida, una alimentación y refrigeración compartidas, y un nodo de administración.

Laing dijo que estos diseños se pueden ensamblar previamente y tener una integración mínima en el sitio, ya que las bandejas completas se pueden quitar y reemplazar. En comparación con un servidor empresarial tradicional, dijo que este diseño ofrece hasta un 40 por ciento de ahorro de costos, hasta un 15 por ciento de aumento de la eficiencia energética y una mejora del 50 por ciento en los tiempos de implementación y servicio. La idea es permitir que los clientes obtengan estos mismos beneficios y "impulsar la computación en la nube al igual que transformamos la computación del centro de datos empresarial".

Microsoft opera más de 200 servicios en la nube a nivel mundial, atiende a más de mil millones de clientes y más de 20 millones de empresas en más de 90 mercados y actualmente implementa más de 1 millón de servidores en sus centros de datos, dijo Laing.

Open Compute agrega redes

Un nuevo proyecto es la creación de redes, que se lanzó oficialmente en mayo pasado. "Es un poco extraño que el código abierto haya tenido este impacto increíblemente positivo en el software y los servidores y los centros de datos y el almacenamiento, y tenemos estas islas de tecnología de código abierto cuidadosamente creadas, pero lo que conecta esas islas sigue siendo una caja negra patentada". Dijo Frankovsky. "Así que decidimos abrir esa caja negra y ofrecer a los clientes flexibilidad y opciones en su red y transparencia. Lo mismo que atrae a las personas al software de código abierto es lo que nos atrae al hardware de código abierto. Es esa curiosidad humana natural sobre cómo este trabajo y cómo funcionaría de manera diferente si lo desmontara y volviera a armar de la forma en que quiero volver a armarlo ".

En cuestión de meses, dijo, el OCP había recibido contribuciones de Broadcom, Intel, Mellanox, Big Switch y Cumulus Networks.

Si bien varias compañías han hablado sobre los conmutadores no patentados de la parte superior del bastidor, me intrigó ver a Dell anunciar un acuerdo con Cumulus Networks en virtud del cual la compañía de hardware revendería el software de red basado en Linux de Cumulus en la parte superior de la red compatible con OCP hardware.

Otras noticias interesantes sobre hardware en la feria incluyeron el anuncio de Seagate de que está contribuyendo su plataforma de almacenamiento cinético a OCP, que permite que las aplicaciones se conecten al almacenamiento directamente a través de Ethernet en lugar de pasar por los servidores de almacenamiento tradicionales.

Optimización de infraestructura de pila completa de Facebook

Dado su papel clave en el lanzamiento de Open Compute, no es sorprendente que Facebook sea uno de los líderes en adoptar la mayoría de las tecnologías. Jay Parikh, vicepresidente de infraestructura de Facebook, hizo una presentación sobre "por qué todas las cosas que Facebook está haciendo con la infraestructura realmente importan". Al principio, el equipo de infraestructura de Facebook se centró en mantener las cosas funcionando, dijo Parikh. Pero a medida que siguió creciendo, el equipo alcanzó rápidamente los límites del hardware y el software. Tenían algunos "fracasos espectaculares", dijo, pero en el proceso aprendieron una cosa básica: a escala, todos sus problemas se magnifican.

En el camino, crearon un nuevo diseño de servidor que era más rentable y eficiente en cuanto a energía y que facilitaba la administración y reparación de servidores. Hoy, Facebook tiene un centro de datos personalizado con racks personalizados, servidores de cómputo y almacenamiento y redes.

"Con el tiempo nos vimos obligados a tomar el control de cada parte de la pila porque teníamos que mantener el ritmo de crecimiento", dijo Parikh. Habló sobre el concepto de "optimización de infraestructura de pila completa", incluido el software, las redes, los servidores y el almacenamiento. Ahora la compañía usa solo hardware de Open Compute Project. "En realidad estamos ahorrando una tonelada de dinero", dijo. En los últimos tres años, la optimización completa de la pila ha ahorrado a Facebook más de $ 1.2 mil millones.

Parikh luego dio una actualización sobre el almacenamiento en frío de Facebook. Dijo que la primera instalación nueva de almacenamiento en frío de la compañía, con una capacidad de 30 petabytes, se puso en marcha y que pronto se pondrá en funcionamiento una segunda, lo que elevará la capacidad de almacenamiento total a "más de 100 petabytes" en los próximos meses. Cada instalación está diseñada para almacenar un máximo de tres exabytes, por lo que hay mucho espacio para crecer.

Por primera vez, Parikh mostró un prototipo del servidor de almacenamiento de Facebook utilizando discos Blu-ray (una idea de la que habló la compañía en la cumbre del año pasado). El servidor del gabinete contiene 10, 000 discos Blu-ray para un total de 1 petabyte de almacenamiento, y Facebook planea aumentar la densidad a 5 petabytes por rack. En comparación con el sistema de almacenamiento en frío basado en el disco duro actual, los servidores Blu-ray podrían reducir los costos a la mitad y reducir el uso de energía en un 80 por ciento, dijo Parikh. Facebook planea probar un sistema de producción a finales de este año y utilizaría los servidores Blu-ray para el almacenamiento en frío de fotos y videos de usuarios a los que rara vez se accede.

Computación abierta y empresas más pequeñas

Una de las cosas que más me intrigó de la cumbre fue la indicación de que no solo las empresas a escala de la nube como Facebook, Rackspace y Microsoft estaban adoptando el concepto. En cambio, Frankovsky señaló que los clientes de grandes empresas como Bloomberg, Fidelity y Goldman Sachs estaban en proceso de implementar Open Compute.

Es interesante que ahora haya más formas de usar componentes de rack estándar de 19 pulgadas con un contenedor Open Rack de 21 pulgadas, y viceversa. Por ejemplo, Frankovsky señaló que Fidelity vino con un Open Bridge Rack a un rack EIA estándar en un Open Rack. Hyve Solutions tomó algunas placas del sistema Open Compute y las volvió a empaquetar en bandejas estándar de 19 pulgadas, y contribuyó con el diseño a la base.

En una mesa redonda, Marc Andreessen, cofundador y socio general de Andreessen Horowitz, y Andy Bechtolsheim, fundador, director de desarrollo y presidente de Arista Networks, hablaron sobre cómo la tendencia hacia los centros de datos menos costosos está cambiando las empresas.

Andreessen dijo que ahora hay una oportunidad radical para combinar software de código abierto y hardware de código abierto a gran volumen para reducir significativamente el costo de los sistemas y brindar servicios basados ​​en la nube en áreas como la atención médica y la educación. Las nuevas empresas pueden ejecutarse casi por completo en la nube, por lo que, como consecuencia, $ 500, 000 ahora compra una startup de dos años de pista para lanzar un producto. Si bien Facebook (Andreessen está en la junta) tiene un gran presupuesto de capital ahora, dijo, si hubiera existido en 1999, habría requerido un presupuesto de capital de 50 a 100 veces mayor de lo que es ahora, tal vez gastando $ 100 mil millones al año en capital equipo, que es imposible. El desarrollo de hardware de menor costo y mayor volumen es lo que hace posible servicios como Facebook o Google. Si proyecta hacia adelante otros 10 años, dijo, los servicios que serán posibles serán alucinantes.

"Todo el crecimiento está en la nube", dijo Bechtolsheim, con un gasto de TI tradicional plano o en declive. Arista Networks está desarrollando equipos de red que satisfacen la necesidad de estos centros de datos a escala de la nube. Dijo que tiene mucho sentido estandarizar el hardware de red. Hasta que surgió el Open Compute Project, dijo Bechtolsheim, la industria nunca tuvo un foro para la innovación abierta y colaborativa de hardware. Ahora, aunque todavía hay algunas compañías que hacen sus propios chips, y él cree que es un modelo heredado. Lo importante de las redes es que necesita una pila de software que realmente funcione. El hardware es fácil, el software es difícil, dijo, por eso Arista tiene un equipo de software mucho más grande.

Bechtolsheim dijo que la llegada de la computación de 64 bits y los SoC ARM con frecuencias más altas (al menos 2GHz) es lo que hará que ARM sea viable en el centro de datos. Es probable que suceda cuando tenga sentido, dijo. También dijo que "en defensa de Intel" ha hecho un trabajo notable al aprovechar su tecnología de proceso para ofrecer procesadores de corte más eficientes y menos costosos. Intel es un competidor formidable aquí y necesita competencias para mantener la innovación, dijo. Al ritmo actual de progreso, el centro de datos que cuesta $ 1 mil millones hoy solo costará $ 10, 000 en una década. Eso permitirá la próxima generación de aplicaciones.

Para ayudar a que los productos Open Compute sean más ampliamente aceptados, Frankovsky anunció un tipo diferente de licencia de tecnología que se parece más a GPL, por lo que cualquier trabajo derivado se devolverá a la fundación, así como la certificación de hardware Open Compute utilizando nuevos laboratorios en Taiwán y en el Universidad de Texas en San Antonio.

La cumbre de computación abierta muestra tremendas innovaciones de hardware