Día a día aumenta la conciencia humana sobre la necesidad de cuidar nuestro planeta, y, ya sea éste el motivo o más bien la reducción de costes por gasto de electricidad, también aumenta la cantidad de empresas de cualquier tamaño interesadas en optimizar el consumo energético de sus centros de datos.

Los potenciales ahorros derivados de un consumo más eficiente pueden resultar críticos. Gartner estima que en 2008 el 48% de los presupuestos TI serán consumidos en el pago de las facturas de consumo eléctrico. Se trata de un porcentaje astronómico. Por su parte, la Agencia de Protección Medioambiental de Estados Unidos (EPA- Environmental Protection Agency) dibujó el pasado agosto un panorama desolador y advirtió que si las tendencias de eficiencia energética continúan al ritmo actual, el consumo de energía de los data centers en el país se habrá multiplicado por dos en el año 2011.

En este contexto, prácticamente la totalidad de suministradores TI recogen ya en sus discursos de marketing el decidido compromiso con lo que ha dado en llamarse “TI verdes”. Sin embargo, suelen escasear datos concretos sobre ahorros y experiencias concretas.

A continuación se muestran las diez técnicas que Network World -medio del grupo IDG Communications- ha aplicado en Estados Unidos para mejorar la infraestructura de su propio data center, un proyecto llevado a cabo en estrecha colaboración con la compañía NetApp y con el proveedor de servicios local del grupo. Seguramente muchos se sentirán gratamente sorprendidos al comprobar que en muchos casos se trata de medidas sencillas, asequibles y fáciles de implementar.

Gracias a las mejoras realizadas en el centro de datos principal de Network World en Sunnyvale (California), el grupo ha conseguido los ahorros energéticos que EPA marca como objetivo para los centros de datos de 2011. Y lo mismo puede decirse de algunas de las instalaciones de la organización en Research Triangle Park (Carolina del Norte).

Estos son los diez consejos de Network World para conseguir las mismas eficiencias, así como algunos de los beneficios cuantificables conseguidos por el grupo mediante su aplicación:

1- Medir para controlar
Que no se puede controlar lo que no se puede medir es una vieja máxima de la eficiencia operacional, válida, por supuesto, también para la eficiencia energética de los centros de datos. Cualquier intento de reducir las ineficiencias energéticas del data center habrán, por tanto, de empezar siempre por la realización de unas medidas básicas. Si una empresa no sabe dónde está yendo a parar su potencia, le resultará imposible saber dónde concentrar su atención y sus esfuerzos. Para medir el consumo de su centro de datos, Network World clasificó tal consumo en las siguientes categorías: Sistemas TI, UPS, Refrigeración (chillers) y Alumbrado.

2- Virtualizar y consolidar sistemas TI
EPA estima que hasta el 50% de todo el consumo de potencia de los centros de datos se destina a servidores y almacenamiento, lo que lógicamente convierte a estos sistemas en blancos prioritarios de cualquier iniciativa para el ahorro de energía. Y precisamente una tendencia especialmente candente en estos momentos, la virtualización de servidores, constituye también una estrategia efectiva para el ahorro en espacio, potencia y refrigeración.
Para conseguir todos los beneficios de la virualización servidor, se requiere una infraestructura de almacenamiento en red capaz de suministrar los recursos como servicios comunes. Además los mismos ahorros que se derivan de la virtualización servidor pueden obtenerse de la virtualización de almacenamiento; por ejemplo, menos sistemas de almacenamiento de mayor tamaño ofrecen más capacidad y mejores tasas de utilización, lo que significará también menos necesidades de espacio, consumo de potencia y refrigeración.

Mediante la implementación de virtualización de servidores y almacenamiento, se migrará sin duda a un modelo de almacenamiento más energéticamente eficiente. En el caso de Network World, se reemplazaron 50 sistemas de almacenamiento antiguos por diez de los últimos disponibles en el mercado y se consiguieron los siguientes beneficios:

  1. El espacio ocupado por sus sistemas de almacenamiento pasó de 25 racks a 6 racks.
  2. Sus requerimientos de potencia bajaron de 329 KW a 69 KW.
  3. Sus necesidades de capacidad de aire acondicionado disminuyeron en 94 toneladas anuales.
  4. Los costes de electricidad para alimentar tales sistemas se redujeron en 60.000 dólares anuales.

3- Gestionar los datos: eliminar la información duplicada o inútil
Durante la fase de planificación del proyecto de virtualización de su almacenamiento, Network World llevó a cabo una auditoría de sus datos y descubrió que el 50% de la información almacenada podía eliminarse sin impacto alguno sobre el negocio.

La primera medida a tomar si se desea evitar el crecimiento descontrolado de los datos consiste en impedir la proliferación de datos antes de que empiece. El volumen medio de disco empresarial contiene potencialmente millones de objetos de datos duplicados. Y, a medida que tales objetos son modificados, distribuidos, vueltos a duplicar en procesos de backup y archivados, los objetos de datos duplicados vuelven a almacenarse repetidamente.

Network World utilizó diferentes enfoques -incluidos la deduplicación, la “clonación” y el aprovisionamiento ligero (thin provisioning)- para la consecución de un mismo objetivo: reducir los datos innecesarios.

4- Eliminar la “sobre-refrigeración” de los sistemas
Los sistemas de refrigeración constituyen un área en la que los departamentos TI a menudo gastan más de lo necesario porque suelen realizar mal sus cálculos. Los suministradores generalmente basan sus estimaciones de consumo de potencia sobre el supuesto de que los sistemas del cliente estuvieran corriendo cargas pico todo el tiempo. Pero en la mayoría de los casos, después, los sistemas empresariales no corren a máxima capacidad casi nunca. Por tanto, ¿por qué refrigerar los sistemas como si lo hicieran?

La clave consiste en calcular con precisión las cargas de potencia, lo que a menudo no resulta del todo sencillo. Para conseguir una estimación razonable al respecto, Network World probó en su entorno de laboratorio el equipamiento antes de desplegarlo en el centro de datos. Estas pruebas mostraron que las estimaciones de carga de potencia razonable para sus sistemas eran entre un 30% y un 40% inferiores a las de los suministradores de los equipos. Partiendo de esta base, la organización decidió monitorizar el uso de potencia rack a rack y ajustar los sistemas de refrigeración en consecuencia. Con ello, ha conseguido reducir significativamente la cantidad de energía derrochada en el proceso.

Pero eso no es todo. Network World fue un paso más allá en la optimización de la energía consumida para la refrigeración utilizando unidades de frecuencia variable en los controladores de aire. En lugar de hacer funcionar sus ventiladores al 100% de velocidad todo el tiempo, las unidades de frecuencia variable modifican la velocidad dependiendo de la que realmente se necesita para enfriar cada una de las hileras de equipamiento del centro de datos en cada momento. Con los ventiladores monitorizando constantemente las temperaturas y ajustando de forma automática a ellas su velocidad, la organización consiguió ahorros de energía espectaculares. Descubrió además que una reducción del 50% en la velocidad de los ventiladores tiene como consecuencia una disminución del consumo de potencia considerablemente mayor; en concreto, del 87%.

5- No olvidar los principios físicos durante el diseño: el aire caliente sube, el frío baja
Conviene recordar que el aire caliente tiende a subir y el frío a bajar, una ley física básica a menudo se pasa por alto en los centros de datos. La antigua forma de refrigerar los data centers desde abajo ubicando los sistemas de enfriamiento en falsos suelos supone, por tanto, un gasto extra de energía. Network World decidió romper con esta costumbre creando un sistema que deja caer una cortina de aire frío enfrente de las máquinas y la dirige después hacia a ellas. Al salir de los equipos por la parte de atrás, el aire que entró por la parte delantera frío se ha transformado en caliente y, en consecuencia, sube al techo, desde donde es ventilado fuera de las instalaciones.

Resulta esencial en este escenario prestar especial atención al emplazamiento de los racks para evitar que el aire caliente que sale de una máquina pueda mezclarse con el aire frío “inhalado” por otra. Para evitar este tipo de situaciones, Network World colocó sus racks “frente a frente y espalda con espalda”. Este sistema de emplazamiento, conocido como “hot aisle/cold aisle” (pasillo caliente/pasillo frío), se ha convertido en una de las mejores prácticas recomendadas para el diseño de centros de datos debido a su eficiencia.

Al colocar el sistema de refrigeración por encima de los racks, también se eliminó la necesidad de elevar los pisos desplegando el tipo de falsos-suelos bajo los que típicamente se ubican las tuberías que llevan el agua fría y otros tipos de cables de refrigeración. Como consecuencia, se consiguieron también ahorros adicionales en infraestructura y se aumentaron las eficiencias en términos de aprovechamiento de espacios.

6- Mejorar continuamente la contención de calor
Dondequiera que haya racks de alta densidad en un diseño “hot aisle/cold aisle”, se necesitarán medidas adicionales de control de flujos de aire para prevenir que los escapes de calor puedan entrar en los “pasillos” fríos aumentando la temperatura del aire que por ellos circula. Además de ventilar hacia fuera el aire caliente que subía, Network World, implementó una técnica de bajo coste que, sin embargo, resulta muy efectiva e importante. Para aislar el calor utilizó cortinas de vinilo colocadas al final de los pasillos calientes y alrededor del sistema de refrigeración sobre los racks. Estas tiras de vinilo retienen el aire en los pasillos calientes y, al mismo tiempo, crean una barrera física alrededor de los conductos y el equipamiento.

7- Aprovechar al máximo la refrigeración natural
No hay motivo para que la generación artificial de aire frío sea la única fuente de refrigeración del centro de datos. ¿Por qué no recurrir también a la Madre Naturaleza? Utilizar el aire del exterior como un recurso de enfriamiento más, y gratuito, ha permitido a Network World ahorrar 1,5 millones de dólares anuales en costes energéticos.

Para conseguirlo, instaló en el lateral de su edificio moduladores, los cuales regulan automáticamente el aire exterior que penetra. Cuando la temperatura exterior es inferior a la fijada como deseable para el centro de datos, los reguladores se abren y el aire exterior se filtra en el sistema de refrigeración. Si, por el contrario, la temperatura externa es superior, los moduladores se cierran y empiezan a funcionar los chillers.

Este sistema, en cualquier caso, es un trabajo en continuo progreso de ajuste y mejora ininterrumpida. Network World cuenta con el apoyo de ingenieros medioambientales que actualmente trabajan para elevar el punto de temperatura máxima al que puede utilizarse el aire exterior. Originalmente el punto eran los 11,11º C (52º F) y gradualmente se ha ido aumentando hasta los 23,88º C (75º F), con lo que Network World ha aumentado las horas de refrigeración “gratuita” del centro de datos un 85% anual.

8- Minimizar las pérdidas de transformación eléctrica
En lugar de utilizar un sistema basado en baterías, el centro de datos de Network World en Sunnyvale usa sistemas UPS cinéticos que almacenan energía generada a través de movimiento. Más concretamente, la energía llega de la infraestructura de conmutación y hace girar un motor eléctrico en cada una de las unidades UPS.

Varios volantes almacenan la energía para producir entre 15 y 20 segundos de capacidad de alimentación -lo justo para trasladar cualquiera de las operaciones de switching de Network World-. Los UPS basadas en baterías más antiguos ofrecen eficiencias de un 85% y los mejores hoy disponibles alcanzan un 94%, pero los UPS basados en volantes, con tasas de eficiencia de hasta un 97,7%, pierden menos de la mitad de energía que las baterías en el proceso de conversión.

9- Aprovechar el calor en lugar de desperdiciarlo
La demanda de potencia y los precios de la energía van en pareja con las altas temperaturas del verano. Por eso, durante este período del año y en los tiempos picos de electricidad, el sistema de cogeneración alimentado por gas natural de Network World entra en funcionamiento para abastecer de forma más económica su centro de datos de un megawatio de consumo.

Esto aporta a la organización dos tipos diferentes de beneficios. En primer lugar, generando electricidad más cerca de donde se consume -lo que se conoce como generación distribuida- se reducen los costes de potencia y la cantidad de electricidad perdida durante su transmisión.

La segunda ventaja proviene directamente de la cogeneración, que consiste en el uso termodinámicamente eficiente del combustible, aprovechando las grandes cantidades de calor, de otro modo desperdiciado, que resultan de la producción de electricidad.

En su centro de datos de Sunnyvale, Network World utiliza el calor producido por sus generadores basados en gas para propulsar un chiller de adsorción que refrigera el agua utilizada por el sistema de refrigeración. Este mecanismo de cogeneración ha aportado a la organización eficiencias globales de entre el 75 y el 80% y ahorros de 300.000 de dólares anuales.

10- Monitorización y ajuste constantes
Otra medida esencial para mejorar la eficiencia del centro de datos es monitorizar de forma precisa y regular el entorno. La mayoría de las empresas miden la carga de sus data centers en el perímetro, lo cual hace las cosas impredecibles. Para conseguir realmente la mayor eficiencia, es importante llevar las mediciones un paso más allá y aplicarlas a niveles de rack, expresando el resultado en términos de watios por rack, en lugar de sencillamente activar los ventiladores cuando un área del centro de datos empieza a calentarse más de lo conveniente. Network World comprueba y ajusta constantemente su entorno siguiendo este principio, y sus múltiples sensores de temperatura, ubicados en el nivel medio del centro de datos, registran un diferencial medio de entre 10 a 12 grados.

No todos los centros de datos han sido creados iguales, y la estrategia más adecuada para aumentar sus eficiencias dependerá de sus condiciones específicas. Sin embargo, las diez técnicas anteriores servirán sin duda para sugerir algunas buenas ideas y lugares por los que empezar. En cualquier caso, lo primero, como se ha dicho ya, será determinar cuál el nivel de eficiencia de uso de potencia propio del centro de datos del que se parte. Sólo sobre esa base se podrán después decidir las técnicas y mejoras apropiadas para iniciar el programa de mejora.

Fuente: CIO

Anuncios