Networking | Artículos | 01 ABR 2010

Por un Ethernet "verde"

Ahorro energético con EEE
Es más que frecuente que la tasa media de utilización de los enlaces LAN sea inferior al 10% y que la capacidad de los centros de datos sea excesiva fuera de los periodos pico. Nada con más sentido entonces –por razones económicas y medioambientales– que aplicar mecanismos que permitan aumentar la eficiencia energética de los sistemas de redes.

Los responsables de los centros de datos y los fabricantes de soluciones de redes para estos entornos que buscan alternativas sostenibles y ‘verdes’ comenzarán a beneficiarse este año de una gran iniciativa dirigida a reducir el consumo energético del equipamiento Ethernet. IEEE 802.3az, la norma Energy-Efficient Ethernet (EEE), cubrirá el rango total de transceptores Ethernet BASE-T (100Mb, 1GbE y 10GbE) y los estándares de capa física de backplane (1GbE, 4-lane 1GbE y 10GbE).
El progresivo incremento del rendimiento del hardware de informática y comunicaciones, sometido a una incesante demanda de capacidad para tratar las necesidades crecientes de los negocios, está generando a su vez un rápido aumento del consumo energético, particularmente desde la llegada de los procesadores multiGHz. La tradicional falta de métricas claras y precisas sobre la eficiencia energética de estos sistemas no hace sino agravar un problema de dimensiones enormes, tanto en términos de costes como de emisiones de CO2.
Según la EPA (Environmental Protection Agency) de Estados Unidos, el uso de energía eléctrica en los centros de datos se duplicó entre 2000 y 2006, y volverá a duplicarse en 2011. El reto es lo suficiente importante como para justificar el interés creciente por el movimiento Green ITC por parte de las empresas. De acuerdo con las estimaciones de Gartner, la aplicación de algunas de las mejores prácticas que engloba la tendencia Green ITC para minimizar el uso de plantas de refrigeración y ventilación, alimentadores de potencia y luz, entre otros factores, podrían llegar a reducir a la mitad los costes de consumo energético asociados a la operación del centro de datos. En costes anuales por electricidad, la diferencia entre un centro de datos convencional con una carga de 500 kilovatios y otro similar objeto de una estrategia verde agresiva es sin duda incuestionable: 1.300 millones de dólares frente a 560.000.
El problema también se puede enfocar desde el punto de vista estricto de la conectividad. Como recogieron ya en 2007 destacados expertos del Lawrence Berkeley National Laboratory y de la University of South Florida en el documento ‘Improving the energy efficiency of Ethernet-connected: a proposal for proxying’, “hoy se destinan miles de millones de dólares a mantener los dispositivos continuamente conectados (…) Si no fuera por la conectividad de red, la mayor parte de estos dispositivos podrían estar ‘dormidos’ la mayor parte del tiempo, lo que generaría grandes ahorros de energía”. En la actualidad, “cientos de millones de dispositivos están conectados a Internet mediante enlaces Ethernet, con el potencial de crecer en uno o dos ordenes de magnitud. Pero la mayoría de estos dispositivos están relativamente inactivos la mayor parte del tiempo (…) Miles de millones de dólares en electricidad se están destinando a mantener estos equipos totalmente alimentados cuando el usuario no está presente o el acceso a la red es esporádico o incidental”.
Por lo general, la tasa media de utilización de los enlaces LAN es inferior al 10%, e incluso en los períodos pico no alcanza el 100%. Asimismo, los centros de datos están construidos para tratar los niveles máximos de carga, por lo que con frecuencia, fuera de esos periodos, su capacidad es excesiva. Siempre es bueno disponer de un buen número de núcleos capaces de tratar un gran problema cuando surge, pero cuesta mucho dinero mantenerlos alimentados y refrigerados constantemente. Por ello, resultaría altamente eficiente poder operar la infraestructura informática de modo que se pudiera escalar hacia abajo cuando la carga disminuye. Un ejemplo sería el caso de un centro de datos destinado a proporcionar cotizaciones de bolsa en segundos, donde los servidores se ven enormemente infrautilizados cuando cierran los mercados. En tales escenarios, hacer que el consumo energético sea proporcional a la carga permitiría reducirlo casi 10 veces a medida que el nivel medio de uso tiende a ser inferior al 10% de la capacidad pico.

Project 802.3az
Es evidente que conseguir un modo de utilización de las conexiones Ethernet más eficiente tendría consecuencias rentables en varios frentes, desde el estrictamente económico al medioambiental. Así lo ha entendido la industria, que trabaja desde 2007, gracias al impulso original de la EPA, en la especificación de un estándar que permitirá a los equipos de redes operar de un modo más eficiente. Aunque recientemente la agencia de protección medioambiental de Estados Unidos ha definido métricas sobre la eficiencia energética de los servidores, al no disponer hace dos años de medidas de la tasa de eficiencia energética del equipamiento de red recurrió a la división Environmental Energy Technologies del departamento de Energía del Lawrence Berkeley National Laboratory (LBNL), que optó finalmente por trasladar esta tarea al grupo IEEE LAN MAN Networking, que inició un proyecto de estandarización, el llamado Project 802.3az o Energy-Efficient Ethernet (EEE).
El propio IEEE 802.3 destaca en su website la trascendencia del nuevo estándar. “La presión del mercado y la acción legislativa mundial están demandando mejoras en la eficiencia energética de los sistemas de red. Las características de EEE serán explícita o implícitamente requeridas en el futuro por una gran parte de las conexiones de extremo Ethernet. La eficacia y consumo energéticos se convertirán en un factor clave a la hora de seleccionar soluciones de redes, especialmente en los centros de datos (...) Los suministradores y los clientes de equipos Ethernet podrán conseguir un equilibrio de costes óptimo entre los componentes de infraestructura de red y las estaciones conectadas”.
Cuando comenzó la actividad relacionada con los estándares de eficiencia energética en el grupo de trabajo 802.3, una de las opciones consideradas fue reducir el consumo eléctrico de los transceptores Ethernet en escenarios donde la tasa de datos requerida es inferior a los picos. Pero, tras muchos debates, esta idea fue abandonada a favor de mecanismos que permitieran pasar rápidamente de una velocidad de operación total al modo ‘ocioso’ de bajo consumo o LPI (Low Power Idle). Con este enfoque, el estándar EEE, actualmente en Draft 1.0 y cuya ratificación está prevista para finales de año, no sólo será capaz de mejorar la eficiencia de los equipos de red del centro de datos, sino que proporcionará además mecanismos de señalización normalizados capaces de que los sistemas situados en los extremos del enlace de la capa física pasen rápidamente del estado LPI al de operación normal
En realidad, esta capacidad es una reminiscencia de la técnica Wake-on-LAN, que define Magic Packects (‘paquetes mágicos’) para ‘despertar’ remotamente los sistemas que se encuentran en estado inactivo. Pero como Magic Packet fue desarrollado en los primeros 90 por IBM y AMD, cuando las redes IP que usaban routers no eran demas

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios