Eliminando la parte de la arquitectura de la computadora. Como el sistema de Google es solo el sistema Intel de dos sockets que podría construirse en ese momento (Xeon SFSB basado en P3 / 4). El sistema de Facebook es el sistema Intel de dos sockets (Sandy / Ivy Bridge Xeon QPI-NUMA) que se puede construir hoy. Esto se debe a lo que ofrecen los proveedores de productos básicos como Intel y AMD. La potencia de la computación probablemente será muy similar si compara las placas modernas, ya que ambas probablemente tendrán la misma CPU, conjunto de chips y chips más agradables. Veamos las principales diferencias.
Enfriamiento: Google utiliza circuitos de agua fría evaporativa. Las bobinas de enfriamiento se colocan cerca de los servidores. El aire caliente es extraído o empujado por las bobinas. El agua ahora más caliente se bombea al exterior para evaporarse, lo que se enfría antes de ser bombeada nuevamente dentro del edificio y a través de las bobinas de enfriamiento nuevamente. Facebook usa enfriamiento de aire gratuito. Esto es mucho más simple. El aire fresco se introduce en el edificio con ventiladores. Los ventiladores fuerzan el aire a través de filtros para eliminar pájaros grandes y rocas pequeñas. Luego, el aire pasa a través del servidor y los enfría. después de esto se explota el extremo más alejado del edificio. Esto elimina el costo CAPEX de las bombas de agua y el enfriador. También elimina el costo OPEX de hacer funcionar las bombas de agua. La potencia del ventilador probablemente se romperá incluso aunque sea un problema basado en el volumen de aire. El enfriamiento por aire gratuito limita la selección del sitio. Por lo tanto, la solución de Google se puede implementar en casi cualquier lugar frente a la solución de Facebook que necesita promedios anuales de humedad y temperatura del aire para estar dentro del sobre de operación del servidor.
Si vas por la mayor cantidad de cómputos por vatio, la victoria va a Facebook.
Si vas por el centro de datos más universalmente desplegable, la victoria es para Google
Alimentación: si amplía la imagen del servidor de Google, notará que la fuente de alimentación no puede funcionar a 120Vac (voltaje doméstico norteamericano). El voltaje de entrada probablemente supere los ~ 250Vac. 230Vac se usaría en Europa, ya que es común allí. Por lo tanto, en los EE. UU. Probablemente estén funcionando a 208Vac, que es común en los centros de datos y la energía industrial. Facebook, por otro lado, apunta a 277Vac. Esto es muy común como 3phase 480Vac en los EE. UU., Que es de 277Vac cuando se mide la línea a neutral. Se utiliza para iluminación (lámparas fluorescentes en centros comerciales) y energía industrial. Subir el voltaje ahorra en tres lugares. Está disminuyendo sus pérdidas en la entrega de energía al reducir la corriente necesaria por servidor. Esto reduce tanto el calor creado por su equipo de suministro de energía como el calibre del cable de cobre necesario para entregar la energía en su infraestructura. La elección de 277Vac de Facebook es muy interesante, ya que también elimina el uso de un transformador en el piso del centro de datos que se encuentra comúnmente en las unidades de distribución de energía o PDU que reduce los 480Vac a 208Vac. Esto ahorra en CAPEX dos veces al reducir los costos de cobre y transformadores del centro de datos. También ahorra en OPEX ya que está desperdiciando menos energía de enfriamiento que el cobre.
- ¿Por qué los fabricantes de computadoras portátiles no usan el cargador USB (adaptador) como fuente de energía predeterminada?
- Cómo conectar mi microcontrolador con máquinas de CC de alta potencia
- Arquitectura de la computadora: ¿Es necesario tener experiencia en ingeniería eléctrica para convertirse en diseñador de CPU?
- ¿Por qué el departamento de Ingeniería Eléctrica de IIT Kharagpur es tan mortal? ¿En qué se diferencian del departamento eléctrico de IIT de otros?
- ¿Cuál es el conocimiento básico que debe tener un ingeniero eléctrico?
Win va a Facebook.
Respaldo de batería o UPS: Ambos usan una batería cerca del servidor para su solución para superar el tiempo entre una pérdida de energía de la red y el arranque del generador. Google opta por una batería o dos por servidor. Facebook para un gabinete de batería cerca del estante. Ambos tienen pros y contras. Es posible que a Facebook le resulte más fácil administrar los gabinetes de la batería porque hay menos. Google perderá menos máquinas debido a un fallo de la batería. Como hay solución se distribuye más granularmente. La batería distribuida cerca del concepto de servidor ofrece grandes ahorros de CAPEX y OPEX sobre los sistemas UPS de edificios heredados. Al eliminar las pérdidas constantes inducidas por las dos conversiones necesarias para que funcionen. 480Vac a 480Vdc para cargar el banco de baterías y luego nuevamente a 480Vac para distribuirlo a las PDU y luego a los bastidores del servidor.
Es un lavado entre Google y Facebook en este caso. Pero es una gran victoria sobre el centro de datos heredado con la construcción de UPS.