junio 2009


Según Gartner, los administradores de los centros de datos podrían ahorrar millones de kilovatios-hora al año mediante la aplicación estas buenas prácticas.

green datacenter

La mayoría de estos proyectos pueden ser completados con poco presupuesto y esfuerzo, afirma la consultora. Esta es la lista verde de buenas prácticas de Gartner para los administradores de centros de datos:

Tapar agujeros en el suelo elevado. La mayoría de entornos de suelo elevado exhiben agujeros para cables, conductos y otros agujeros que permiten que las corrientes de aire frío escapen y se mezclen con el aire caliente. Ya sólo con esta mejora de baja tecnología se puede ahorrar hasta el 10% de la energía utilizada para el enfriamiento del centro de datos.

Instalación de paneles. Cualquier posición no utilizada en un rack debe quedar cubierta con un panel para gestionar el flujo de aire, impidiendo que el aire caliente que sale de una pieza de un equipo entre en la corriente de aire frío de otros equipos en el mismo rack. Cuando los paneles se utilizan de manera eficaz, la temperatura del aire de suministro se reduce hasta 5ºC, recortando en gran medida la electricidad consumida por los ventiladores en el equipo informático y aliviando potencialmente los puntos calientes en el centro de datos.

Coordinar los equipos de aire acondicionado de las salas informáticas. Los equipos antiguos de aire condicionado funcionan de manera independiente con respecto a enfriar y deshumidificar. Estas unidades deberían ser colocadas con otras con tecnología más reciente de manera que sus esfuerzos se coordinen, o, en caso contrario, los administradores deben eliminar las responsabilidades de humidificación de entre sus tareas y delegar esas responsabilidades en una nueva pieza de tecnología.

Mejorar las corrientes de aire bajo el suelo. Los antiguos centros de datos han limitado el espacio bajo el suelo elevado que no sólo es utilizado para la distribución de aire frío, sino que también ha servido para colocar cables de datos y cables de corriente. Muchos antiguos centros de datos han acumulado tal cantidad de cables de este tipo que la corriente de aire está restringida; por tanto, este espacio debería limpiarse para mejorar la corriente de aire.

Implementar pasillos calientes y pasillos fríos. En los centros de datos tradicionales los racks se colocan “estilo aula”, de manera que todas las caras miran a una dirección. Este método hace que el aire caliente expulsado por una de las filas se mezcle con el aire frío que entra en la fila adyacente, lo que incrementa la temperatura del suministro de aire frío de forma desigual e impredecible. Las nuevas prácticas de diseño de rack de los últimos 10 años demuestran que la organización de los equipos en pasillos calientes y pasillos fríos es mucho mejor para controlar el aire.

Instalar sensores. Se puede colocar un pequeño número de sensores en las zonas donde se sospeche que hay problemas con la temperatura. Los sensores simples almacenan datos de temperatura que pueden ser recogidos manualmente y transferidos a una hoja de cálculo, donde pueden ser más profundamente analizados. Incluso esta inversión mínima en la instrumentación puede proporcionar gran información sobre la dinámica de posibles problemas de temperatura del centro de datos y puede proporcionar un método para el análisis de los resultados de las mejoras de refrigeración.

Aplicar contención de pasillo caliente o pasillo frío. Una vez que un centro de datos se ha organizado alrededor de los pasillos calientes y fríos, la separación del suministro de aire frío del de aire caliente de escape mediante contención se convierte en una opción. Para la mayoría de los usuarios, la contención de pasillo caliente o de pasillo frío obtendrá gran beneficio de la inversión realizada en cualquiera de estas prácticas de eficiencia energética.

Elevar la temperatura en el centro de datos. Muchos centros de datos funcionan a menor temperatura que la que se considera eficiente. ASHRAE (Sociedad Americana de Ingenieros de Refrigeración y Aire acondicionado) ha incrementado el tope máximo permisible de la temperatura del aire de los 25 a los 26,6°C. No todos los centros de datos deben funcionar en el extremo superior de este rango de temperatura, pero aumentarla un poco tendría un efecto beneficioso sobre el consumo eléctrico del centro de datos.

Instalar bombas y ventiladores de velocidad variable. Los equipos de aire acondicionado para sistemas informáticos y los gestores de aire de las salas de ordenadores tradicionales funcionan a una única velocidad. Las nuevas prácticas sugieren que deben utilizarse ventiladores de velocidad variable cuando sea posible. Una reducción del 10% de la velocidad de ventilación conlleva una reducción del 27% del consumo eléctrico de sus equipos, y una reducción del 20% de la velocidad conlleva un ahorro energético del 49%.

Explotar el frío gratis. “Frío gratis” es el término general para cualquier técnica que enfríe el aire sin el uso de refrigeradores o unidades de refrigeración. Las dos formas más comunes de enfriamiento son por agua o aire. El gasto económico depende del clima local, y oscila entre aproximadamente 100 horas por año a más de 8.000 horas por año.

Diseñar nuevos centros de datos utilizando refrigeración modular. Los sistemas tradicionales de distribución de aire perimetral por suelo elevado han sido el método utilizado para refrigerar los centros de datos. Sin embargo, la evidencia apunta a que el uso de refrigeración modular (en hileras o en racks) es una estrategia mucho más eficiente de refrigeración de los centros de datos.

Fuente: eWeek

Anuncios

Un documento publicado en la base de conocimiento de IBM demuestra los avances que GNU/Linux ha hecho en el campo de la informática verde o ‘Green IT‘, cada vez más apreciada por las empresas que buscan eficiencia y un ahorro de consumo y costes en sus infraestructuras tecnológicas. Las soluciones Open Source han demostrado en los últimos tiempos aprovechar los recursos hardware al máximo, algo vital para las empresas.

Linux green

El documento de IBM analiza la situación actual del parqué informático de muchas empresas, que generan una cantidad de residuos electrónicos (los llamados e-waste) a los que se suma otro factor fundamental para las empresas: el consumo energético de PCs, portátiles y, sobre todo, de servidores.

A partir de ahí se valoran las opciones de GNU/Linux como parte de la solución, y se valoran las ventajas que tiene usar distintas distribuciones que, entre otras cosas, tienen unos requisitos mínimos realmente bajos. Como se puede comprobar en la siguiente tabla, los equipos más viejos de la empresa pueden ser reutilizados perfectamente como puestos de trabajo ligeros gracias a GNU/Linux y sus bajos requisitos hardware.

Otra de las posibilidades que contempla el documento es la de la donación de viejos equipos y componentes a alguna de las organizaciones que recogen PCs y portátiles viejos que las empresas ya no quieren. Eso sí, hay que tener en cuenta que será conveniente dedicar algo de tiempo para eliminar todos los datos de esos PCs que donemos y dejarlos más o menos ‘presentables’ y en el mejor estado posible para su reutilización.

La virtualización también puede jugar un papel fundamental en el ahorro de recursos y en la consecución de una eficiencia altísima para nuestros recursos hardware. Las soluciones de virtualización en Linux tienen una excelente reputación en la empresa y de hecho tanto Novell como Red Hat, dos de los mayores protagonistas del panorama de GNU/Linux en la empresa, tienen sus propios programas específicos destinados a impulsar ese área para que las empresas comprendan las ventajas de usar soluciones de virtualización con GNU/Linux.

Desde luego estas no son las únicas ventajas que impone GNU/Linux a la hora de ofrecer estrategias “verdes” para la empresa, ya que como indica el documento de IBM los desarrolladores de GNU/Linux han aportado mejoras como el llamado tickless kernel, una versión especial del núcleo Linux que procesa cuando las nuevas tareas deben ser planificadas y establece una interrupción programada para ese momento, permitiendo al procesador mantenerse en su estado de energía más bajo durante periodos de tiempo mucho más largos.

Otras iniciativas son la utilidad PowerTOP, una utilidad diseñada por Intel -pero compatible con micros AMD- que permite estudiar y monitorizar el comportamiento del procesador para analizar los periodos de inactividad del procesador y las causas que provocan que se active. Al analizar esas causas, PowerTOP ofrece sugerencias para ofrecer aún una mayor eficiencia.

Por último también está el tema de la hibernación, un apartado que tiene mucho más sentido en los puestos de trabajo de los usuarios que en los servidores -casi siempre activos- y que proporciona ahorros de energía dramáticos. La mayoría de distribuciones disponen de soporte para estos modos de hibernación gracias a los kernel que incluyen, y los entornos de escritorio más extendidos, GNOME y KDE, aportan utilidades para acceder a esos estados o recuperarse de los mismos.

Entre los recursos que se indican en el excelente artículo de IBM para ampliar detalles está la posibilidad de acceder a más información a través del Green Linux Workgroup de la Linux Foundation, en donde se apuesta activamente por la informática verde y, claro está, por soluciones Open Source como GNU/Linux que ayudan a conseguirla.

Fuente: MuyComputer.com

Según un estudio publicado por Symantec, la ecología está cobrando cada vez más importancia entre los directivos TI, los cuales, han manifestado su intención de aumentar los presupuestos relacionados con el Green IT y su disposición a pagar más por soluciones eficientes energéticamente.

green datacenter

A pesar de que el principal impulsor para emprender un proyecto de TI ecológico y sostenible está asociado con la reducción de costes, también está tomando gran importancia, en general, la responsabilidad con el medio ambiente, convirtiéndose en una de las iniciativas prioritarias para los CIOs.

Así se desprende del último informe elaborado por Applied Research y publicado por Symantec a más de 1.000 responsables de TI en todo el mundo. Aunque, específicamente, España no formó parte de las encuentas, según explicó Marcos Blanco, technical account manager de Preventa de Symantec, “los datos se pueden extrapolar a nuestro país ya que a la hora de gestionar los centros de datos las experiencias se asimilan a Reino Unido, Italia y Francia”, países que sí fueron objeto de estudio.

El 97% de los encuestados declararon estar al menos considerando una estrategia de TI sostenible, mientras que el 45% dijo haber implementado dichas iniciativas. De hecho, un 73% aumentará significativamente los presupuestos de TI sostenible en los próximos 12 meses, e incluso, “dos de cada tres directivos estarían dispuestos a pagar un 10% más en soluciones eficientes energéticamente y un 41% pagaría al menos un 20% más”, afirmó Blanco. Y es que, como explica el directivo, los sistemas de información tienen grandes potenciales de ahorro dentro de las empresas, ya que “representan el segundo coste dentro de los gastos de operación de un CPD”, siendo el 83% de los departamentos de TI responsables de los costes eléctricos; algo que ha generado una motivación en la reducción de costes de energía.

En este último sentido, y aunque, según Blanco, “realmente no existe una solución completa que sea la panacea que resulta los problemas de forma inmediata”, el informe concluye que los responsables de TI, a la hora de adecuarse a iniciativas más ecológicas, siguen principalmente tres tipos de iniciativas: reemplazar los equipos antiguos por otros con menor consumo de energía (el 95%); la supervisión del consumo eléctrico (el 94%); y la virtualización y la consolidación de servidores (con un 94% y un 93%, respectivamente); algo que, “puede ser la más rápida a la hora de obtener resultados”, puntualizó el directivo. Asimismo, los servicios SaaS también se elevan como una buena medida ecológica para las empresas.

Fuente: Computing

Jordi Torres, catedrático de la Universitat Politècnica de Catalunya, Barcelona Supercomputing Center

Jordi TorresYa no nos podemos imaginar un mundo sin sus redes sociales en internet, hasta tal punto que hoy en día cualquiera que se precie debe tener su sitio en Facebook. Prueba de ello es que en abril Facebook confirmó que tenía más de 200 millones de usuarios. Pero no es gratis, aunque nos lo parezca. Para mantener esta red social, Facebook requiere de un ejército de servidores que suponen una factura mensual de electricidad de alrededor de un millón de dólares. Quizás no les parecerá mucho, pero añadan a ello los centenares de servicios que tenemos disponibles en internet y todas las aplicaciones informáticas que hoy requieren las empresas. Esto nos lleva a que el ejército de ordenadores es de muchos millones, alojados en miles y miles de centros de proceso de datos.

Algunos de estos centros ocupan superficies equivalentes a cuatro veces el campo del Barça y consumen la electricidad que requieren los hogares de un barrio medio de una gran ciudad como Barcelona. Y este gran consumo energético de los centros de proceso de datos implica importantes emisiones de CO2 que ya han hecho saltar las alarmas de organismos como la ONU sobre la contribución de las tecnologías de la información y comunicaciones (TIC) al cambio climático. Se estima que el consumo energético del sector de las TIC es el responsable de generar el 2% de las emisiones de CO2. Para hacerse una idea, el equivalente a la contaminación que causa el tráfico aéreo mundial.

Y el problema se agravará si tenemos en cuenta que el consumo energético global de las TIC está creciendo día a día, duplicándose en los últimos cinco años. Es decir, hace falta de manera urgente que las TIC hagan un cambio de tendencia para consumir y contaminar menos.

La buena noticia es que hay muchísimo margen para mejorar y reducir el consumo energético de las TIC si invertimos en investigación e innovación. Soy optimista. Tanto los centros de investigación como las empresas ya han emprendido un camino de no retorno en la incorporación de estos temas en sus agendas de trabajo, es lo que se conoce como green computing.

Pero todos debemos tomar conciencia de ello y estar dispuestos a que se destinen recursos. El green computing es un reto oculto para la mayoría de los usuarios de internet, pero esta noche, cuando se conecte a Facebook, recuerde lo que hay detrás de su red social. Lo verá diferente.

Fuente: La Vanguardia

guía eficiencia CPDYa está disponible para su descarga el PDF con la Guía Práctica de Vnunet “Gestione con eficacia su centro de datos”, que en esta ocasión se enfoca en el ahorro energético y las bondades a la hora de implantar la virtualización a nivel de servidor.

Vnunet acaba de publicar en el Centro de Recursos de eWEEK la segunda entrega de las guías prácticas que en esta ocasión profundiza en las mejores técnicas para obtener un importante ahorro energético en el centro de datos.

Debido a la creciente importancia a la hora de llevar a cabo virtualización en el datacenter, este tema también se ha tratado en la guía práctica, lo que permitirá a los directores de informática y tomadores de decisiones conocer las claves para obtener un rápido retorno de inversión en tiempos de crisis como los que vivimos.

Con la colaboración de Intel y HP, la guía muestra tanto consejos para una mayor eficacia como casos de éxito o análisis del mercado actual, todo ello, en un PDF de 16 páginas que se podrá descargar de forma completamente gratuita a través de este enlace.

Fuente: eWeek

La relación entre la industria de las Tecnologías de la Información (TI) y el cambio climático es real y tangible. Cada empresa y cada trabajador es parte del problema, pero también parte de la solución. Les contamos por qué.

tendencias

“Green IT” es el futuro de la tecnología. Últimamente, el concepto tecnología verde gana adeptos en todas las grandes empresas, pero ¿qué es realmente Green IT? Se trata de la relación existente entre la industria de las Tecnologías de la Información (TI) y el cambio climático. Bajo este prisma puede verse cuál es su significado y cuáles sus tremendas implicaciones. La relación entre ambos puede ser directa, es decir, la industria de TI como parte del problema, o indirecta, o sea, como parte de la solución al cambio climático.

Existe una relación directa en tanto en cuanto la industria de TI consume energía y genera residuos, convirtiéndose, por tanto, en parte del problema asociado al cambio climático.

Según la consultora IDC:

  1. Un 2,9% de las emisiones de CO2 mundial se debe a las Tecnologías de la Información y la Comunicación.
  2. El 60% de los data center se están quedando sin energía, refrigeración y espacio.
  3. El 70% de los residuos de plomo y mercurio en los vertederos proviene de residuos electrónicos.

De estos datos se deduce que las TI no sólo son parte del problema sino que cada año que pasa su contribución a las emisiones de CO2 es mayor, y presumiblemente seguirá aumentando. Dentro de este 2,9%, una parte importante proviene del consumo energético de los data center. Para poner el problema en perspectiva, basta señalar que en Estados Unidos su consumo energético representa el 1,5% del consumo eléctrico del país, y las expectativas son que en el año 2012 alcance el 3%, según un informe de la Agencia de Protección del medio ambiente (EPA) de Estados Unidos.

pdf_icon.jpg Ver artículo completo.

Fuente: Microsoft

Página siguiente »