Networking | Artículos | 01 OCT 2007

¿Consolidación, clusters o grids?

Virtualización de Linux en el centro de datos
Virtualizar o no virtualizar ha dejado de ser una decisión a tomar cuando se trata de desplegar Linux en el centro de datos. Hoy la cuestión es qué enfoque concreto de virtualización asumir.

Hay dos opciones para virtualizar servidores Linux en el centro de datos. Una alternativa sería desechar docenas o cientos de cajas autó-nomas y consolidar imágenes de servidor Linux virtualizadas sobre unos pocos hosts de mayor tamaño. Otra, comprar cientos de nuevas máquinas Linux y unirlas entre sí como un único sistema virtual utilizando para ello tecnologías grid o de clustering. Según IDC, Linux es el ejemplo por excelencia de sistema operativo capaz de correr sobre casi cualquier hardware y escenario de despliegue que pueda imaginarse. El estilo de despliegue de Linux virtualizado más indicado en cada caso dependerá de las circunstancias de cada empresa y de los problemas que esté intentando resolver. Clusters, grids, servidores virtualizados representan alternativas todas ellas posibles dada la naturaleza de los bloques de construcción básicos de Linux.

“Scale-up” y consolidación
La última tendencia en esquemas de virtualización de centros de datos entre los usuarios Linux es la consolidación de servidores, alternativa que pretende atacar un problema cuyas raíces se encuentran en el bache económico del periodo 2001-2003. Durante estos años, los ajustados presupuestos llevaron a la mayoría de las empresas a preferir hacer crecer sus centros de datos mediante el despliegue de servidores de menor tamaño en lugar de aumentar su capacidad con plataformas más grandes y potentes. Como consecuencia, por aquel tiempo se produjo una proliferación de este tipo de servidores unitarios (Volume Servers) como nunca se había visto antes, recuerda IDC. Antes de 2001, el volumen de entregas anuales de servidores Linux sumaba de tres a cuatro millones de unidades; hoy en día superan los siete millones. Las empresas que han construido centros de datos utilizando cientos de estas máquinas autónomas se ven ahora en la necesidad de reducir el número de unidades hardware, o al menos evitar que siga aumentando, y la consolidación constituye una buena manera de conseguirlo.
Los fabricantes coinciden en que, si no se cambia el modelo de crecimiento, las compañías que hoy operan un centro de datos con 50 ó 100 servidores físicos pueden ver como sus necesidades elevarán esas cifras dentro de unos años a 500 ó 1.000 máquinas. Obviamente, gestionar todo ese entorno es una tarea desmesurada.
Entre las razones que hacen a las empresas adoptar un modelo de crecimiento basado en el despliegue de servidores mayores y más potentes –un enfoque también conocido como “scale-up”–, destaca la posibilidad de gestionar y atender las necesidades de estos equipos más fácilmente en un entorno de servidores virtualizados que corren todos ellos dentro de una misma caja física. Además, el ahorro en consumo de potencia si se tiene una gran máquina, en lugar de cientos de unidades de un único rack, es significativo. Tales ahorros no deben ser tomados a la ligera, teniendo en cuenta que, por ejemplo, un reciente estudio de Gartner revela que el coste del consumo de energía en los centros de datos llega en algunos casos a igualar, incluso, el coste del hardware servidor.
También los beneficios del enfoque sca-le-up para la gestionabilidad del entorno pueden ser significativos, ya que se reduce el tiempo dedicado al mantenimiento, algo que, aunque pueda parecer una nimiedad, obviamente no lo es cuando estas tareas se hacen a gran escala, como, por ejemplo, la instalación de parches de software. De hecho, es normal dedicar más de 45 minutos por servidor a la hora de aplicar parches u otras actualizaciones software, reiniciar el sistema y ponerlo de nuevo en marcha correctamente. Multiplicado ese tiempo por el número total de servidores el resultado se traduce en cientos de horas de trabajo.

Y llegaron los hipervisores
La introducción de mejoras clave en las herramientas de sistema y en el Kernel de Linux durante los últimos años están ayudando a evolucionar estos despliegues virtualizados a “centros de datos en una caja” y estilo grid. Sin duda, una de ellas son los hipervisores (hypervisors). Puede decirse que la tecnología de hipervisor –software que corre sobre una máquina hardware y gestiona uno o más sistemas operativos– es el avance más importante que se ha producido en el terreno de la virtualización en los últimos cinco años.
El hipervisor es un nivel de software que se introduce entre el sistema operativo invitado y el servidor físico, haciendo funciones de “guardia de tráfico”. El software controla los diferentes sistemas operativos que están corriendo sobre un servidor virtualizado y gestiona el flujo de los recursos hardware, como el uso de I/O, almacenamiento y procesador, y el acceso a la memoria. Existen diversos productos de este tipo tanto de código abierto como de fabricantes específicos, entre los que se incluyen la tecnología de virtualización de código abierto de Xen, z/VM de IBM y ESX Server de VMware.
La virtualización vía hipervisor es también conocida como paravirtualización, y propone una alternativa diferente al enfoque estándar tipo VMware. En esta última, el sistema operativo invitado corre sobre el anfitrión, sin ningún conocimiento de él. La plataforma SUSE Linux Enterprise Server 10 de Novell ofrece un hipervisor Xen integrado en la distribución Linux, y la más reciente actualización del sistema operativo Enterprise Linux Server de Red Hat también incluye esta pieza de virtualización. A diferencia de la virtualización completa, la paravirtualización exige introducir modificaciones en el sistema operativo huésped. En este enfoque es necesario colocar controladores software en los sistemas Linux invitados para hacerlos conscientes de que están siendo virtualizados. Esto permite utilizar los recursos de procesador más eficientemente. De otra manera, los sistemas competirían por los recursos, y el resultado sería el mismo que si el software corriera sobre un hardware poco potente.
Por lo que respecta al clustering y a la informática distribuida, algunos de los avances más importantes se han producido dentro del kernel Linux, así como en las herramientas de gestión y sistema ofrecidas por los fabricantes para utilizar y controlar docenas, cientos o miles de procesadores basados en este sistema operativo. Esto es algo fundamental para los usuarios de informática de alto rendimiento. Es difícil estar seguro de que todos esos procesadores corren el mismo sistema operativo exacto y exactamente los mismos parches con la gran cantidad de variaciones existentes. Si una caja no está sincronizada, podría tirar abajo todo el sistema.
En cuanto a las modificaciones en el kernel de Linux que en los últimos años han contribuido a ampliar las posibilidades de un Linux virtualizado y distribuido, se incluye el aumento de la escalabilidad y rendimiento. El software Linux puede ahora escalar hasta 10 TB de memoria a través de una grid o un cluster, y a hasta 1.024 procesadores.

“Scale-out” con clustering
Frente a los modelos que proponen basar el crecimiento del centro de datos en máquinas de mayores capacidades, los modelos “scale-out” ofrecen una alternativa basada en aumentar los recursos globales añadiendo m

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios