Video: Nos PERDIMOS en el DESIERTO MAS GRANDE del MUNDO en DUBAI... (Noviembre 2024)
PRINEVILLE, Ore. - Hay muchas maneras de asegurarse de tener Internet rápido. Podrías mudarte a una ciudad de Google Fiber. Puede seleccionar uno de nuestros ISP más rápidos. O bien, podría construir su casa junto a un centro de datos de Facebook.
Tome el primer centro de datos de Facebook, por ejemplo. Inaugurado en Prineville, Oregon, en 2011, ha servido como modelo para todos los centros de datos que el gigante de las redes sociales ha construido desde entonces, desde Suecia hasta Iowa. Consume tanto ancho de banda que requiere múltiples ISP que sirven al área para fortalecer sus redes, trayendo a los residentes locales para el viaje.
Puede pensar en el centro de datos de Prineville, junto con otras instalaciones de Facebook, como el corazón colectivo de la red social más grande del mundo: reciben una avalancha de solicitudes de fotos, actualizaciones de estado y actualizaciones de noticias de los 1.65 mil millones de usuarios activos del sitio y responda lo más rápido posible, similar a un corazón que bombea oxígeno al torrente sanguíneo.
Las instalaciones de Prineville se están acercando a su quinto aniversario, y manejando solicitudes de datos para cosas que Mark Zuckerberg probablemente no tenía idea de que Facebook estaría haciendo cuando soñó la idea de la compañía en su dormitorio de Harvard.
Esta semana, PCMag se detuvo para una gira.
Prineville todavía almacena fotos y actualizaciones de estado, por supuesto, pero ahora también tiene miles de GPU Nvidia que respaldan la investigación de inteligencia artificial de Facebook, así como 2, 000 teléfonos iOS y Android que ejecutan pruebas las 24 horas del día. Esto ayuda a los ingenieros de la compañía a aumentar la eficiencia energética de sus aplicaciones, que incluyen Instagram, Messenger y WhatsApp, además de Facebook.
Los datos de Facebook son 'resistentes, no redundantes'
Lo primero que nota sobre las instalaciones de Prineville es su gran tamaño. Al levantarse del alto desierto lleno de árboles del centro de Oregón, a tres horas en automóvil desde Portland, no hay un solo edificio, sino cuatro (y eso no incluye otro gran centro de datos que Apple construyó recientemente al otro lado de la calle, llamado Connect Way). Uno de los edificios de Facebook puede caber dentro de dos Walmarts, y es aproximadamente 100 pies más largo que un portaaviones de clase Nimitz.
Dentro hay servidores que contienen varios petabytes de almacenamiento, y que los ingenieros de Facebook actualizan constantemente reemplazando componentes. De las 165 personas que trabajan a tiempo completo en el centro de datos, 30 por edificio se asignan solo para dar servicio o reemplazar fuentes de alimentación, procesadores, memoria y otros componentes.
El sello distintivo de casi cualquier compañía que opera en Internet, desde Amazon hasta Charles Schwab, es la redundancia: múltiples servidores que almacenan múltiples copias de datos. Ese es menos el caso en Prineville, donde Ken Patchett, director de operaciones de datos occidentales de Facebook, se enfoca en la capacidad de recuperación, más o menos definida como la capacidad de estar listo cuando y en cualquier parte del mundo alguien inicia sesión en Facebook.
Centrarse en la "resistencia, no en la redundancia", como dice Patchett, es posible porque Facebook tiene el lujo de almacenar múltiples copias de datos en sus otros lugares del mundo, desde Lulea, Suecia, hasta Altoona, Iowa. Entonces, en lugar de tener dos o más de todo, puede enfocarse en la compra de equipos estratégicos en cada ubicación, como tener un generador de energía de respaldo por cada seis generadores principales.
"Tienes que ser fiscalmente responsable si vas a ser resistente", explicó Patchett. Es uno de los padres fundadores de los centros de datos de alta tecnología en el desierto de Oregón. Antes de llegar a Facebook, ayudó a iniciar un centro de datos en The Dalles, Oregon, para Google, una de las primeras compañías de Internet en capitalizar la energía hidroeléctrica barata y el clima frío y seco que caracterizan la gran porción oriental de la novena más grande de América estado.
El poder abundante, por supuesto, es crucial para la operación de Facebook. La temperatura del servidor está regulada por una combinación de refrigerante de agua y grandes ventiladores que arrastran aire seco del desierto (abajo) en lugar de unidades de aire acondicionado que consumen mucho dinero y dinero. El rango de temperatura objetivo es entre 60 y 82 grados Fahrenheit. El equipo de Patchett se ha vuelto tan bueno para lograr ese objetivo que Prineville ahora cuenta con una relación de eficiencia energética de 1.07, lo que significa que los equipos de enfriamiento, luces y calentadores, cualquier cosa que no sea un dispositivo informático, consumen solo el 7 por ciento del uso total de energía de la instalación..
32 iPhones en una caja
La mayor parte del enfriamiento y la energía se destinan a satisfacer las demandas de los servidores, pero algunos se desvían a una sala de prueba de aplicaciones comparativamente pequeña con implicaciones para reducir el uso de energía no solo en Prineville, sino en todos los teléfonos con una aplicación de Facebook.
No es ningún secreto que la aplicación de Facebook ha tenido problemas con la administración de energía. The Guardian afirmó a principios de este año que la aplicación estaba disminuyendo la duración de la batería de los iPhones en un 15 por ciento. Para optimizar la aplicación y disminuir el consumo de batería, la compañía trajo aproximadamente 2, 000 teléfonos iOS y Android a Prineville, donde se instalan dentro de cajas en grupos de 32.
Cada caja tiene su propia red Wi-Fi, rodeada de paredes aisladas y cinta de cobre, que los ingenieros de la sede de Silicon Valley utilizan para entregar una batería de pruebas. Están buscando "regresiones" en el uso de la batería y el rendimiento causado por las actualizaciones de las aplicaciones de Facebook, Instagram, Messenger y WhatsApp. Si encuentran uno en el propio código de Facebook, lo arreglan. Si un desarrollador introdujo la ineficiencia, su sistema notifica automáticamente al infractor por correo electrónico.
Las cajas no solo contienen el último iPhone 6s o Galaxy S7. En el lado de iOS, incluyen muchos modelos de iPhone 4s y posteriores. En el lado de Android, ¿quién sabe? Baste decir que hay un tipo cuyo trabajo es encontrar dispositivos Android oscuros y llevarlos a Prineville.
"Tenemos que obtener teléfonos de todas partes", dijo Antoine Reversat, un ingeniero que ayudó a desarrollar la infraestructura y el software de prueba. Su objetivo final es duplicar la capacidad de los racks para albergar hasta 62 teléfonos cada uno, y encontrar una manera de reducir el procedimiento manual de 20 pasos requerido para configurar el teléfono para pruebas en un solo paso. Eso debería consolar a cualquiera que haya tenido su teléfono muerto mientras actualiza sus noticias.
Big Sur: el cerebro AI de Facebook
El siguiente en nuestro recorrido fueron los servidores de inteligencia artificial de Big Sur, que, como la costa de California por la que llevan su nombre, posiblemente sean la parte más pintoresca del centro de datos. No estamos hablando de vistas panorámicas del Pacífico, por supuesto, sino de una pantalla de computadora que muestra lo que parecía ser un grupo de pinturas, tripuladas por Ian Buck, vicepresidente de informática acelerada de Nvidia.
"Entrenamos una red neuronal para reconocer pinturas", explicó Buck. "Después de media hora de mirar las pinturas, puede comenzar a generar las suyas".
Los que se exhibieron se parecían al impresionismo francés del siglo XIX, pero con un giro. Si desea una combinación de un bodegón de frutas y un paisaje fluvial, Big Sur lo pintará para usted flexionando sus 40 petaflops de potencia de procesamiento por servidor. Es uno de varios sistemas de inteligencia artificial que utilizan GPU Nvidia, en este caso, procesadores Tesla M40 basados en PCI.e, para resolver problemas complejos de aprendizaje automático. El proyecto de salud DeepMind de Google también utiliza los procesadores de Nvidia.
Facebook está utilizando Big Sur para leer historias, identificar rostros en fotos, responder preguntas sobre escenas, jugar juegos y aprender rutinas, entre otras tareas. También es un software de código abierto, que ofrece a otros desarrolladores un plan sobre cómo configurar su propia infraestructura específica de IA. El hardware incluye ocho placas de GPU Tesla M40 de hasta 33 vatios cada una. Se puede acceder fácilmente a todos los componentes dentro de un cajón del servidor para aumentar la facilidad de las actualizaciones, que seguramente vendrán cuando Nvidia lance nuevas versiones PCI.e de sus GPU Tesla, incluido el buque insignia P100.
Almacenamiento en frío para fotos olvidadas
Dado que Prineville es el primer centro de datos de Facebook, tiende a ser donde los ingenieros prueban ideas para hacer que los servidores de Facebook sean más eficientes. Una de las últimas ideas es el almacenamiento en frío, o servidores dedicados que almacenan cualquier cosa en Facebook que no tenga muchas vistas, por ejemplo, sus fotos de graduación de la escuela secundaria o esas docenas de actualizaciones de estado que publicó cuando Michael Jackson murió en 2009.
El secreto del almacenamiento en frío para el éxito son sus múltiples niveles. El primer nivel está compuesto por hardware empresarial de alto rendimiento, mientras que los niveles más bajos usan componentes más baratos y, en algunos casos, tal vez para esas fotos suyas con llaves que espera que nadie vea, bibliotecas de cintas de respaldo. El resultado final es que cada rack de servidores de almacenamiento en frío puede contener 2 petabytes de almacenamiento, o el equivalente a 4, 000 pilas de centavos que llegan hasta la luna.
Construyendo para el futuro
Aunque Facebook ha traído Internet más rápido y otros beneficios a Prineville, incluyendo más de $ 1 millón en donaciones a escuelas locales y organizaciones benéficas, su presencia no está exenta de controversia. Oregon está cediendo una gran cantidad de dinero en exenciones de impuestos a la compañía en un momento en que la economía local, aún recuperándose de la burbuja inmobiliaria de 2008, sigue el promedio nacional.
Aún así, 1, 65 mil millones de personas no tendrían acceso a Facebook sin este puesto avanzado del desierto y sus centros de datos hermanos. E incluso cuando da los últimos toques a su cuarto edificio Prineville, la compañía está en camino de completar un quinto centro en Texas. Pero si eso te hace sentir culpable por la energía que consume tu navegación en Facebook, no debería hacerlo. Según Patchett, un solo usuario que navega en Facebook durante un año entero consume menos energía de la necesaria para hacer un café con leche. En otras palabras, puede renunciar a un solo viaje a Starbucks y desplazarse por las noticias hasta el contenido de su corazón.