Datacenter


Grupos de la industria y agencias gubernamentales de Europa, Estados Unidos y Japón han alcanzado las bases de un acuerdo sobre cómo medir la eficiencia energética de los centros de datos. En concreto, han decidido adoptar Power Usage Effectiveness (PUE) como “métrica de preferencia en eficiencia energética”.

Este acuerdo constituye un significativo avance dado que establece una métrica común que diferentes tipos centros de datos, en diferentes partes del mundo, pueden utilizar para informar sobre su nivel de eficiencia en el uso de la energía. Tal medida proporciona una norma para que las compañías midan la eficiencia de sus propios data centers, y también para que juzguen la efectividad de las técnicas de ahorro de energía empleadas por otras instalaciones.

Se trata de un consenso inusual por el nivel de cooperación internacional conseguido. Bajo la supervisión y la promoción de Green Grid, consorcio de la industria estadounidense, ha logrado el apoyo del Departamento de Energía y de la Agencia de Protección Medioambiental de Estados Unidos, así como del Código de Conducta de la Unión Europea y del Ministerio de Economía de Japón.

“Green Grid está trabajando con organizaciones de todo el mundo con el fin de desarrollar un lenguaje claro y bien definido para comunicarnos sobre métricas de eficiencia energética, lo que nos aportará un criterio aplicable a todos los centros de datos, sin importar su localización”, señala Tom Brey, empleado de IBM y secretario de Green Grid. “Con tal nivel de consistencia, podemos empezar a emprender importantes cambios de comportamiento en la industria”.

Power Usage Effectivenes (PUE), desarrollado por Green Grid, divide el total de la energía consumida por un centro de datos entre la cantidad de energía utilizada para alimentar el equipamiento TI. El resultado muestra cuánta energía se está perdiendo en sistemas mecánicos y eléctricos.

La elección de PUE no resulta sorprendente. Tal fórmula se ha convertido en la métrica más popular para calcular la eficiencia de los data centers, y algunas grandes compañías, entre las que destacan Microsoft y Google, han utilizado PUE para mostrar el respeto por las Green IT en sus más recientes instalaciones.

Fuente: CIO

Greenpeace denuncia que los centros de datos para almacenar servicios de ‘cloud computing’ triplicarán las emisiones a la atmósfera en 2020

La nube de datos virtual (o cloud computing) está generando una nube real de contaminación mientras Facebook, Apple y otras grandes compañías tecnológicas construyen inmensos centros de datos alimentados por carbón, según Greenpeace, que ha puesto de ejemplo dos nuevas instalaciones que la red social y el fabricante del iPhone construyen en los estados norteamericanos de Oregon y Carolina del Norte, respectivamente. La ONG pide a las empresas de Internet que “sean más cuidadosas y construyan con energías limpias”.

Cloud computing infographic

Según el informe publicado por la ONG , el consumo energético y emisiones de carbono provocados por el cloud computing son “más elevadas de lo que se creía”. El estudio se basa en datos del informe realizado por el grupo Smart 2020, publicado en 2008 y ligado a las proyecciones de emisiones de carbono publicadas por McKinsey. A éstas, Greenpeace ha añadido las que publica la Agencia de Protección ambiental de Estados Unidos. El resultado: en 2007 el consumo energético de la nube en Internet fue de 622.000 millones de kWh (kilovatios por hora), 1,3 veces más elevado del que sugiere el informe Smart 2020. La ONG calcula que en 2020 el consumo será de 1,963.000 millones de kWh, “lo que significa consumir más que Francia, Alemania, Canadá y Brasil juntos”.

Lo que antes se almacenaba en el disco duro del ordenador ahora se guarda en la ‘nube’ de Internet. Las grandes compañías del sector, además, han conquistado a millones de internautas con servicios y aplicaciones gratuitos alojados en la Red, que necesitan granjas de servidores masivos, que físicamente dan soporte a la “nube”. El fenómeno se conoce como cloud computing (en inglés). GrenPeace critica que estos grandes centros de almacenamiento de datos se estén construyendo con energías fósiles como el carbón, que no ayudan a frenar el cambio climático.

Apple, Facebook, Microsoft, Yahoo y Google tienen por lo menos algunos centros que dependen en gran medida de la energía del carbón, según Greenpeace. Barato y abundante, el carbón es el combustible más empleado en Estados Unidos, según la ONG, incluso en aquellas instalaciones que requieren una alta eficiencia energética , como estos de centros de datos.

La mayoría de las empresas denunciadas por GreenPeace se ha negado a dar detalles sobre la cuestión, informa Reuters, aunque aseguran que tiene en cuenta el medio ambiente en las decisiones empresariales y que buscan las eficiencia energética.

pdf_icon.jpg Descargar informe Make IT Green: Cloud Computing and its Contribution to Climate Change

Fuente: El País

Una empresa finlandesa utiliza el exceso de calor de un centro de datos para alimentar las calefacciones de varios hogares de Helsinki.

El calor sobrante de un centro de datos servirá para mantener calientes durante el invierno a varios hogares en Helsinki, Finlandia. En total, unas 500 viviendas de gran tamaño podrán beneficiarse de este excendente de calor.

Tal y como explican desde la empresa Helsingin Energia, la prestadora del servicio, para calentar los hogares de la capital finlandesa se aprovechará el centro de datos situado en un antiguo refugio antiaéreo, donde se capturará el calor y se convertirá en calefacción urbana mediante un circuito de tuberías de agua caliente.

“Es perfectamente posible que una proporción bastante considerable de la calefacción en la capital de la ciudad pueda er producida a partir de la energía térmica generada por las salas de computación”, explica a EP el gerente de proyectos Helsingin Energia,Juha Sipila.

El sobrecalentamiento del centro de datos es uno de los problemas más preocupantes para las compañías, que se encuentran con un exceso de calor que deben evitar para el buen funcionamiento de sus centros y que necesitan una respuesta verde para no convertir este calor sobrante en un motivo más de contaminación.

La última moda en centros de datos verdes está en llevarlos a la costa, aprovechando el agua del mar para enfriar los circuitos. Aún así, en este tipo de situaciones, el calor no se aprovecha, todo lo contrario a lo que sucede con la propuesta finlandesa.

Fuente: SiliconNews

¿Es un centro de datos, cerca del Polo Norte malo o bueno? Con una energía barata, la refrigeración y los incentivos económicos para estimular su economía en crisis, Islandia ha incrementado su atractivo para empresas intensivas en información que requieren un gran número de servidores.

Jeff Monroe, CEO de Verne Global, una compañía de centros de datos al por mayor, ha recorrido el mundo en busca de lugares donde poder ofrecer costes de energía reducidos, disponer de una fácil de refrigeración y de comunicaciones fiables. Mientras en Estados Unidos los costes energéticos son una incertidumbre, Islandia, con su energía renovable, aparentemente ilimitada, frías temperaturas y tres (que pronto serán cuatro) cables transoceánicos encaja a la perfección.

“Estamos encontrando los puntos de la Tierra que están optimizados para la operación de servidores – Islandia cumple todos los aspectos”, dice Monroe.

La valoración es una buena noticia para un país que sigue sufriendo una profunda recesión provocada por la crisis económica mundial de 2008 y la nacionalización de sus tres mayores bancos en octubre de ese año. La economía del país probablemente no ha alcanzado aún su punto más bajo, con la Organización para la Cooperación y Desarrollo Económicos (OCDE), la estimación de desempleo al 10% este año y el producto interno bruto con una caída del 7%.

Para las empresas que buscan un buen lugar para poner sus centros de datos, sin embargo, el declive económico de Islandia es una buena noticia.

“A causa del golpe que Islandia asumió (económicamente), el gobierno podría estar dispuesto a presentar algunos incentivos muy saludable para las empresas”, dice Nik Simpson, analista senior de estrategias de centro de datos para el Burton Group.

Verne se ha establecido en un área que el gobierno de Islandia está desarrollando activamente – la antigua base aérea de Keflavik- , en el que ha convertido a dos depósitos de almacenamiento de armamento en centros de datos.

La infraestructura del país es relativamente nueva y construido para la industria pesada de fundición de aluminio y dispone de fuentes de energía tan abundantes y fiables que los precios se puede predecir con 20 años. Mientras que áreas en Estados Unidos donde han comenzado a atraer centros de datos, tales como Carolina del Norte con la reciente instalación de Apple, los precios de energía en el futuro son siempre una preocupación. No es así en Islandia, donde la actividad geotérmica puede alimentar los centros de datos, así como el calor de las aguas termales.

“Puede encontrar lugares en Estados Unidos donde la energía tiene un coste relativamente bajo, pero la volatilidad (de los precios) es el problema”, dice Monroe. Mientras algunos estados, como Iowa, están apostando en sus proyectos de energías renovables”, si el coste es de 20 centavos de dólar por kilovatio-hora, nadie va a ir porque es demasiado caro”, dice.

Verne estima que empresas que requieren de 20.000 a 25.000 servidores podría ahorrar $100 millones en una década, al pasar a Islandia.

Encontrar la combinación adecuada de condiciones, sin embargo, no es fácil. Por ejemplo, su vecina Groenlandia no tiene comunicaciones redundantes, es demasiado fría, y no dispone de profesionales técnicos como Islandia.

“Islandia se llama la tierra del hielo, pero es verde; Groenlandia se llama la tierra verde, pero es blanca, y hay que tener en cuenta la humidificación, porque es demasiado seca. Por lo que no es interesante un lugar donde hace demasiado frío”.

Sin embargo, aun con sus ventajas, la ubicación de Islandia convierte en un destino de nicho, sostiene Simpson Burton. Sólo aplicaría a las grandes empresas de alojamiento o corporaciones con enormes centros de datos. “La cuestión es la escala de los centros de datos”, dice Simpson. “Cuando usted está construyendo centros de datos que gigavatios de consumo, entonces hay un enorme potencial de ahorro”.

Además, los tres cables submarinos que conecta Islandia al resto del mundo no son suficientes, dice el analista. Mientras que el último proyecto, Danice, conectará Islandia con Europa a través de un cable de 5.1 terabits por segundo, tener pocas opciones reduce la competencia y puede aumentar los costes de comunicaciones. Además, la distancia puede causar problemas en aplicaciones sensibles a la latencia. “No es exactamente el centro de comunicaciones del mundo”, dice Simpson.

De todas formas, Verne sostiene que Islandia puede ofrecer algo para todos. Almacenamiento de datos distribuidos, tales como la red de Akamai, y el mayor uso de la fibra han reducido los problemas de latencia. Otras locaciones en la Tierra tal vez se encuentran demasiado lejos para servir con rapidez datos a la parte oriental de Estados Unidos y a Europa occidental, pero Islandia no es uno de esos lugares.

“Hay una banda de cierta tolerancia a la latencia, que desaparecerá (para lugares distantes), creemos que, en décadas”, dice Monroe. “Pero no hay ninguna aplicación que no puede residir en Islandia, a día de hoy”.

Al final, Islandia permite a las empresas cuidar el ambiente y ahorrar dinero al mismo tiempo, dice Monroe. “En Islandia, no hay ningún coste por ser green IT“, dice.

Fuente: CIO

Los problemas que se han mantenido durante años en el centro de datos y que ahora se magnifican no parecen estar siendo controlados por los responsables de TI, según Gartner.

Durante los últimos años, los administradores y responsables de TI en las empresas han contemplado como costes de la talla del consumo energético, refrigeración o espacio físico han supuesto un importante varapalo para sus presupuestos.

Sin embargo, tal y como asegura la analista Gartner, no han realizado los suficientes esfuerzos para mitigar estos problemas en el centro de datos, más aún en época de crisis como la que nos está tocando vivir, por lo que en 2010 seguirán lastrando los presupuestos tecnológicos.

Los costes energéticos están aumentando considerablemente, pero los responsables del centro de datos no están prestando la suficiente atención para medir, monitorizar y modelar el uso de energía en sus instalaciones”, asegura Rakesh Kumar, analista de Gartner, en el comunicado.

“Deben darse cuenta que la eliminación de un servidor x86 en el centro de datos podría ahorrarles en torno a los 400 dólares al año sólo en costes energético”.

Se trata de realizar un estudio más exhaustivo de las máquinas para detectar cuáles no están rindiendo lo suficiente y simplemente son demasiado antiguos. Gartner indica que este tipo de estudios determinaría que entre el 5 y el 20% de los servidores podría eliminarse como medida de racionalización.

Por otra parte está el problema de la refrigeración, donde es posible aplicar herramientas y técnicas disponibles para reducir la temperatura de los centros de datos y, por ende, la cantidad de refrigeración necesaria. Este proceso se podría llevar a cabo, por ejemplo, utilizando más aire exterior y menos aire acondicionado.

La situación física de los centros de datos también es de vital importancia. Si los costes energéticos o humanos son demasiado caros en el lugar donde se encuentra el CPD, las empresas deberían plantearse moverlo a otro lugar donde estos gastos sean menores.

El estudio finaliza indicando que los procesos de medir y monitorizar el consumo energético de las instalaciones deben ser una prioridad para las empresas.

Fuente: eWeek Europe

Los asistentes al Data Center Strategies 2009 se han sorprendido ante la propuesta de un nuevo centro de datos construido en Mauritania que aprovecha el agua fría de la profundidad del océano como sistema de refrigeración.

sea

La propuesta es colocar unos tubos a 1.000 metros por debajo del nivel del mar, donde la temperatura del agua es de unos cinco grados centígrados. El agua se bombea hacia un sistema de enfriamiento antes de volver al océano, ahorrando unas tres cuartas partes de los costes de refrigeración.

Ya se han utilizado sistemas similares en el Sur del Pacífico, pero el propuesto en el Data Center Strategies 2009 ayudará a Mauritania, situada en medio de África, Asia y Australia y sin riesgos de terremotos, a desarrollar un sector de alta tecnología.

Google ya ha barajado la idea de utilizar agua de mar para enfriar los centros de datos. El año pasado la compañía presentó una patentes para centros de datos flotantes que pudieran utilizar la energía de las olas del mar y enfriarse con su agua.

Fuente: ITespresso

Se ha inaugurado en la ciudad alemana de Munich, el DataCenter 2020, en el que T-Systems e Intel trabajan conjuntamente en la implementación industrial y automatización de servicios.

T-Datacenter

T-Systems e Intel plasman en el proyecto DataCenter 2020, su idea de lo que es el centro de datos del futuro. El proyecto se encuentra en una fase inicial en la que ambas compañías investigan cuáles son las mejores condiciones para crear un centro de datos ecológico. Los resultados iniciales de la investigación se publicarán este año y servirán como base para implantar mejoras ecológicas en los nuevos centros de datos así como en los que ya están en funcionamiento.

El techo del DataCenter 2020 puede ajustarse en altura desde unos 2,50 metros hasta los 3,70. Además cuenta con un generador de humo que hace visible cualquier corriente de aire. El centro de test medioambiental, de unos 70 metros cuadrados, y el local de equipamiento de igual tamaño se encuentran en el centro de datos de T-Systems. Intel aporta cerca de 180 servidores al proyecto, mientras que la filial de servicios para empresas del grupo Deutsche Telekom aporta la infraestructura necesaria para gestionar esos servidores. Cerca de 10 empleados de cada compañía se encuentran analizando la interacción de varios elementos en el centro de datos, con una visión global de las consideraciones energéticas incluyendo no sólo los servidores, sino también otros elementos como los refrigeradores, el tamaño de la habitación y la altura del techo o los circuitos de agua.

Uno de sus objetivos de este proyecto es lograr una eficiencia óptima en el uso energético (PUE) de un 1,3 en los nuevos centros de datos. Este valor muestra el ratio entre el total de energía consumida en un centro de datos y el funcionamiento de los ordenadores. El valor PUE actual en un centro de datos refrigerado con circuito de aire se sitúa entre un 1,7 y un 1,8 de media.

Fuente: ComputerWorld

Página siguiente »