¿Es hora de que el factor X determine la temperatura del Centro de Datos?

Hace un par de años un grupo de expertos de los principales proveedores de hardware de servidores, escribió un documento sobre el «factor x» (PDF), el cual es una forma de cuantificar la fiabilidad del servidor en diferentes temperaturas del centro de datos. La idea era ayudar a las empresas a tomar decisiones más informadas y orientadas hacia los negocios sobre cómo operar sus centros de datos.

Me pregunto si las empresas están ahora lo suficientemente cómodas para controlar las temperaturas de su centro de datos alrededor de esta idea del factor x, en lugar de simplemente establecerlo a una cierta temperatura durante todo el año.

Primero, un poco de historia sobre cómo funciona el factor x. La idea es que los servidores son sensibles a la temperatura, fallan más rápidamente a temperaturas más altas que las temperaturas más bajas. ASHRAE TC 9.9 hace varios años publicó la tercera edición de sus Guías Térmicas para Entornos de Procesamiento de Datos que describen las tasas de confiabilidad del servidor a diversas temperaturas.

Aquí es donde entra el factor x. Es una forma de medir la fiabilidad relativa del servidor esperado a diferentes temperaturas. El grupo TC 9.9 utilizó una temperatura de funcionamiento del centro de datos de 68 ° F como su línea de base, esta temperatura representa un factor x de 1,00. Si la temperatura aumenta, el factor x sube, cuando baja, el factor x disminuye.

Por ejemplo, a 59 ° F el factor x es 0,72, lo que significa que hay una probabilidad 28% menor de fallo del servidor, si el centro de datos se opera constantemente a esa temperatura frente a funcionar a 68 ° F. En el otro extremo, a 113 ° F, el factor x es 1,76, lo que significa que hay una probabilidad 76% mayor de falla frente a un funcionamiento a 68 ° F. Es importante tener en cuenta que la cifra del 76% es relativa a lo que la tasa de error del servidor normalmente sería, no significa que haya un 76% de posibilidades de fracaso.

Las tasas anuales típicas de fallo del servidor son bastante bajas, alrededor del 2% al 4%. Incluso usando la cifra más alta del 4%, de acuerdo con los cálculos de ASHRAE TC 9.9, operando a 113 ° F continuamente, solo aumentaría la tasa real de fallo del servidor en un 3% adicional, a 7% anualmente.

Aquí es donde las cosas se ponen interesantes. Como resultado, si usted opera durante parte del año a una temperatura más baja, que puede compensar los tiempos cuando se opera a temperaturas más altas, esto puede tener un profundo impacto en los centros de datos que utilizan el aire exterior ambiente para enfriar al menos parte del tiempo. Deje que su centro de datos se enfríe en los meses de invierno y puede operar a temperaturas más altas en verano, siempre y cuando su factor x permanezca en lo que le resulte cómodo dado su perfil de riesgo.

De hecho, usted podría dejar que su decisión de factor x dicte la temperatura a la que su centro de datos se ejecuta en momentos diferentes. Utilizando un sistema de enfriamiento inteligente y una plataforma de gestión de infraestructura de centro de datos (DCIM), es ciertamente posible operar de esta manera – y quizás lograr ganancias significativas en eficiencia energética.

La pregunta es, ¿están las compañías listas para tomar ese tipo de salto? ¿Es el tipo de datos confiable que tenemos de ASHRAE TC 9.9 lo suficiente como para convencerlo de que este enfoque funcionará? Los datos están altamente enfocados en servidores, no aborda otros equipos tales como equipos de red y sistemas de almacenamiento en la misma medida. ¿Es un trato? Me encantaría saber de usted en los comentarios a continuación, acerca de lo que necesitaría antes de que su organización permita que el factor x impulse su estrategia de enfriamiento de su centro de datos.

Etiquetas: , , ,

Añadir comentario

Todos los campos son requeridos.

Este sitio usa Akismet para reducir el spam. Aprenda cómo se procesan sus datos de comentarios .