Tenía pendiente escribir un poquito sobre el tema de green IT, un área en la que estoy entrando por pura derivación natural, que después de todo algo le queda a uno de biólogo, y de cara a introducirlo en el temario de mis cursos. Esta entrada, por tanto, será de una simpleza insultante para personas especializadas en la materia, se trata de una mera iniciación.
Visto de una manera básica, el tema de green IT cubre tres aspectos fundamentales: la reducción en el uso de materiales peligrosos en la fabricación de productos tecnológicos, la reciclabilidad o biodegradabilidad de los mismos, y en tercer lugar, donde me estoy centrando de una manera más específica, en la optimización de la eficiencia energética en su uso. En las dos primeras áreas se están obteniendo progresos muy importantes: se estima que la denominada e-waste supone en torno al 2% de la basura sólida municipal generada en economías desarrolladas, y sobre esta basura, existen más de mil componentes fuertemente nocivos que los fabricantes deben minimizar en la medida de lo posible. La reciclabilidad o biodegradabilidad incide en el mismo tema, intentando el establecimiento de políticas en este sentido, recogida de máquinas obsoletas, programas de donación y reutilización, etc. Pero es en el tercer área donde las empresas usuarias tienen más posibilidades de mejora: la eficiencia energética de los data centers.
En primer lugar, es preciso entender que la idea de green IT no es hablar de buenos deseos o de mundos mejores: eso no es causa, sino consecuencia. Tampoco existe un estado en el cual «te conviertes en verde», sino que se trata de un camino, una aspiración. Pero es importante entender que se trata de hablar del bottom line, de resultados económicos, de puro ahorro energético. En torno al 10-20% del consumo eléctrico hoy en día se destina a data centers, con un crecimiento sumamente agresivo.
Para pensar en estas dimensiones, hay que tener en cuenta varios factores: la eficiencia energética de las máquinas como tales, el número de componentes que gastan energía, y la disipación del calor generado incluyendo la energía utilizada por refrigeración e iluminación. Se habla del burden factor, la razón entre la cantidad de energía suministrada a un servidor, y la necesaria para enfriarlo, un número habitualmente comprendido entre 1,8 y 2,5. El aire acondicionado, de hecho, es uno de los principales componentes del gasto energético de un data center, habitualmente en torno al 50%. De ahí que cuestiones como la forma de los servidores sean fundamentales: los blade servers, por ejemplo, permiten aprovechamientos energéticos muy superiores mediante la centralización de componentes como la refrigeración o la alimentación ininterrumpida (UPS): más máquinas en un sólo rack, que se enfría además de una manera más eficiente. El diseño de los flujos de aire en el data center, o el mantenimiento de condiciones de humedad adecuadas son factores muy importantes, y determinados además por la localización geográfica: sitios como Irlanda, por ejemplo, con humedad y temperatura adecuada, poseen de entrada mejores condiciones que un lugar en medio de un desierto, y reducen la factura en aire acondicionado o humidificación. Otros factores de interés, por ejemplo, son el uso de Linux, que permite un control del kernel y otros componentes, y mejora las posibilidades de ahorro.
Otro factor importante es el número de máquinas necesarias, momento en el que empezamos a hablar de la virtualización como tecnología de interés: los servidores son una de las cosas que se pueden virtualizar en IT, y con el tiempo y la evolución de la tecnología, hemos ido pasando de virtualizaciones con ratios de 4:1 (cuatro servidores virtuales en cada ordenador físico), y por tanto un 75% de reducción, hasta valores de 8:1 (87.5%), 10:1 (90%) o bastante más elevados. El proceso no sólo provoca una reducción del espacio y del número de componentes a alimentar (no sólo ordenadores, sino también UPS, firewalls, balanceadores de carga, etc.), sino también otros beneficios relacionados con la flexibilidad: los servidores virtuales pueden trasladarse o replicarse con mucha más facilidad, permiten mejores estrategias de cara a la recuperación de desastres, y ofrecen un uptime mucho más elevado.
Hablamos de tecnologías que llevan ya un cierto tiempo de desarrollo, y que están generando ahora muchísimo interés: no en vano algunas de las salidas a bolsa más fulgurantes de los últimos meses son de compañías que ofrecen tecnologías de virtualización. Pero sobre todo, hablamos de posibilidades reales al alcance de todas las compañías, de una evolución en las métricas de control de los data centers, de un interés cada vez mayor por componentes de última generación con mayor eficiencia energética (iniciativas del estilo del EnergyStar para electrodomésticos), y de ahorros que van directos a la cuenta de resultados.
Algunos enlaces interesantes:
- The Green Grid (consorcio sectorial)
- The evolution of Green IT (Enterprise Data Center), de Cisco
- Green Computing (Wikipedia)
- Virtualization (Wikipedia)
- Entrevista con el Dr. Mendel Rosenblum, Chief Scientist de VMWare (GigaOM)
- Build a green datacenter (Microsoft)
- Virtualization – Microsoft
- Virtualization – IBM
- Virtualization – Sun
- An introduction to virtualization (VMWare)
Esta interesante el artículo. En cuanto al tema de reducción de uso de materiales peligrosos totalmente de acuerdo. En cuanto al reciclaje tengo mis dudas de que el cliente esté dispuesto a pagar algo más para cumplir con ciertos estándares de reciclaje, pero acepto pulpo como animal de compañia, aunque yo en el año 1997 vendía workstations hp ecológicas y no llegué a vender muchas, y lo que tenían por dentro era todo biodegradable a excepción de los discos, la Cpu, etc.
En cuanto al tema de los Data Centers, el problema es evidente, tiene que ver con la disipación térmica, fundamentalmente provenientes de fuentes de alimentación y CPUs. Está claro que para disipar ese calor actualmente la forma es bajar la temperatura y crear flujos de aire en el datacenter o bien internamente en el rack. El problema es más bien termodinámico, es decir, utilizar el calor disipado en el Data Center para alimentar una bomba de calor.
Está claro que será una tendencia venidera, pero en la actualidad, para el responsable de IT esto es una soberana chorrada. Lo importante en los Data Centers es que no se incendien, que no se inunden, que no entre nadie a robar máquinas, que estén fresquitos y que no se caigan las aplicaciones de negocio. El resto es irrelevante, por ahora.
Por cierto,
Humedad en un datacenter? Mejor que esté seco, eso no es un invernadero para orquideas…
Hay una práctica que he visto en algunas pymes consistente en aprovechar los viejos equipos para usarlos como servidores de algún servicio concreto, como por ejemplo servidor de impresión. Por lo que comenta Enrique, entiendo que debe de ser muy poco eficiente. Supongo que sería mucho más, si queremos tenerlo en un servidor separado, meterlo en una máquina virtual del servidor principal, y deshacernos de esa máquina antigua. ¿Lo veis así?
Respecto a las sustancias peligrosas/tóxicas ya se ha avanzado mucho en la UE con las directivas RoHS http://es.wikipedia.org/wiki/Rohs y que aplicandolas a toda la electrónica de consumo realmente si que tiene un fuerte impacto positivo.
Respecto al consumo energético para climatización, como decía alguien en un comentario anterior, para los data center no es la prioridad ni el impacto tan grande.
Cada centro comercial, por ejemplo consume mucho más en este aspecto.
Por pura lógica: para «virtualizar» cuatro servidores de un procesador con 512 MB de RAM, necesitarás un servidor con cuatro procesadores y 2 GB de RAM. Vamos, que no veo donde está el ahorro…
Entiendo que la unificación supone la compartición de determinados componentes que puede llevar a ciertos ahorros de energía, pero nunca a hacer la cuenta de «4 a 1» directa.
Lógicamente no tengo en cuenta el ahorro que se consigue por la simple renovación tecnológica (un solo procesador Intel Core Duo es más rápido y eficiente que dos posibles Pentium IV a los que sustituyese).
Resumiendo, creo que las «cuentas» son mucho más complejas.
¡Ah! ¿Y qué tiene que ver que se pueda tocar el kernel de Linux con el ahorro de energía? ¿es que alguien le va a «meter mano» al Kernel para que gestione más eficientemente las subidas y bajadas de tensión de los procesadores y/o el apagado y encendido rápido de componentes? Yo juraría que eso ya lo hace… ¿Alguien puede comentar esto?
«gasto energético de un data center»
LeWeb3 ’07: (www.leweb3.com)- Datacentres: «An environmental rift – where technology fits in» – Tom Raftery (www.tomrafteryit.net)
http://portal.vpod.tv/leweb3/394209
«When data center cabling becomes art»
http://royal.pingdom.com/?p=240
Sé que es muy geek, por casualidad acabo de encontrarlo.
Nuestro amigo Tom Raftery acaba de abrir un datacenter pensado desde el minuto 0 en este sentido. Hay un gran video de Intruders sobre la presentación de Cix en su blog. http://www.tomrafteryit.net/cix-on-intruderstv/
Tom Raftery es un crack y sabe de estos temas un montón. A mí me ha ayudado mucho para encontrar buenas referencias.
7# No es muy geek es la PUTA VIDA. Se llama «peinar cables».
Con la virtualización sobre Xen se aprovecha el hardware mejor. Varias máquinas virtuales sobre una física.
http://es.wikipedia.org/wiki/Xen
Va a resultar que IBM tenía razón con los mainframes… alguién sabe lo que eran los dominios? pues eso, virtualización de hace 20 años….
Creo que no estamos hablando de virtualización sino de consolidación. El problema de la palabra consolidación es que a los fabricantes de HW no les gusta. Esperemos que «green» mole un poco más. Lo que es interesante son los avances en eficiencia energética, lo otro es + de lo mismo desde hace +10 años: otra iniciativa de marketing para vender hierros-licencias.
En 3# se propone utilizar máquinas no críticas en servicios no críticos. Esto da también estupendos resultados. Total, hay un montón de empresas en las que no se apagan ni hibernan los PCs ¿Por que no hacer lo mismo con un servidor no critico?. Lo que quiero decir es que tienen que plantearse políticas de eficiencia energética a nivel corporativo y no solo como iniciativas deslabazadas.
No es que esté en contra de estas iniciativas, es que me repatea que se conviertan en modas, porque las modas pasan y a esto se le debería dar mucha mas importancia de una simple «tendencia».
Resumiendo, no solo basta con comprar HW + eficiente y utilizar la virtualización, también hay que pensar un poco. Como dice 5# las “cuentas” son mucho más complejas
Muy interesante el artículo, sobre todo como introducción para aquellos de nosotros que queramos explorar nuevas tecnologías, se agradece.
Un saludo
Hace poco leí un artículo similar en la revista CIO. Ahora, no coincido que la utilización de blades servers mejora el uso de energía eléctrica, ya que los mismos consumen más cantidad de amperes que los servidores convencionales y a su vez disipan más calor en forma focalizada. Si se puede colocar un equipo de aire que acondicione directamente a ese blade, por ahí se ve una eficiencia, caso contrario (por ejemplo en los data centers que no se puede ingresar con equipos de agua dentro del salón de servidores) se genera un hot spot que es difícil contrarrestar, y se alcanza en ocasiones consumos eléctricos mayores (y ni hablar si tenemos high ends como el P5 de IBM con consumos de 45A por fuente)
Hola Enrique
Trabajo en una compañía que se dedica a ofrecer hosting en centros de datos. He recogido tu entrada en nuestro blog interno y un compañero del departamento de operaciones ha dejado el siguiente comentario:
«Hay una frase del Dans con la que no estoy de acuerdo:
“Permiten aprovechamientos energéticos muy superiores mediante la centralización de componentes como la refrigeración o la alimentación ininterrumpida (UPS): más máquinas en un sólo rack, que se enfría además de una manera más eficiente.”
Veamos, hoy por hoy para los datacenters, es un problema serio fundamentalmente por la densidad de potencia /m2 que necesitan. Esta densidad de potencia hay que refrigerarla y ahí es donde no estoy de acuerdo con Enrique pues refrigerar un rack con 4 blades es infinitamente más costoso que refrigerar racks con servidores individuales. De hecho hay DCs que restringen el uso de Blades
Saludos
Javier
Si Irlanda reúne las condiciones climáticas para montar data center a bajo coste, ¿porqué no hacerlo en Galicia o en el Puerto del Escudo (Santander)?
Hala, ya tenemos una idea para que el Presidente Revilluca se ponga a trabajar y deje de hacer el ridículo en la tele.
@Javier Z, completamente de acuerdo. La disponibilidad de aire de refrigeración a temperatura adecuada y con la humedad suficiente para evitar el desarrollo de estática es una gran ventaja en costes. La refrigeración puede llegar a suponer el 50% del coste en suministro eléctrico de un datacenter, la humedad debe estar en torno al 50% idealmente, y el suministro directo de aire del exterior es una práctica muy recomendable para disminuir costes de aire acondicionado.
Estimado Enrique, te invito a leer un post que escribí sobre el uso de blades servers en un data center, y el consumo de energía eléctrico. Un abrazo.
http://tinyurl.com/3dhj7x
Los pasos para construir un datacenter verde: 10 Simple Steps to a Green Datacenter