La virtualización será la tendencia de mayor impacto en las TI

De las tendencias en tecnologías de la información de más impacto, la virtualización será la que más y mayores cambios provoque en las operaciones e infraestructuras de TI durante los próximos cuatro años. Según Gartner, esta tecnología transformará todos los aspectos de las TI, desde las mismas soluciones que se compren a cómo se planifiquen, desplieguen y gestionen. Como resultado, la virtualización está creando una nueva ola de competencia entre los fabricantes de infraestructura que modificará y consolidará considerablemente el mercado en los próximos años.
De acuerdo con la consultora, el factor clave de este cambio es la virtualización de los servidores, ya que permitirá desbloquear la capacidad infrautilizada de las actuales arquitecturas de estos equipos. De hecho, esta tendencia ya se está dejando sentir en el mercado de servidores: según las estimaciones de Gartner, en 2006 la virtualización redujo el mercado de equipos x86 en un 4%. Y este impacto será aún mayor a medida que caigan los precios de los hipervisores y disminuyan los costes de gestión como resultado de una mayor competencia. La consultora predice la instalación de más de cuatro millones de máquinas virtuales en 2009.
También la llegada de esta tecnología a los PC se incrementará rápidamente. Se espera que el número de ordenadores personales virtualizados pase de los 5 millones que había en 2007 a 660 millones en 2011. En el PC, la separación del hardware y el software se produce a dos niveles: entre el hardware y el sistema operativo (virtualización de la máquina) y entre el sistema operativo y las aplicaciones (virtualización de aplicaciones). Y aunque está creciendo el interés en la virtualización de las aplicaciones, Gartner mantiene que es la de las máquinas la que tendrá mayor impacto a largo plazo, haciendo que los PC sean más gestionables, flexibles y seguros.

Adiós a los sistemas operativos monolíticos
“Esencialmente, la virtualización crea un cambio en la evolución de los sistemas operativos”, asegura Thomas Bittman, vicepresidente de Gartner. “Hasta ahora, el sistema operativo ha sido el centro de gravedad de la informática cliente/servidor, pero la aparición de nuevas tecnologías, nuevos modelos de computación y de la automatización y virtualización de la infraestructura está cambiando su arquitectura y su rol en los entornos informáticos. Los días de los sistemas operativos monolíticos y de propósito general pronto pasarán”. Una cuestión que, junto con un análisis más detallado de todos los aspectos de la virtualización, será abordada en el transcurso del Gartner Symposium/ITxpo 2008 que se celebrará del 12 al 15 de mayo en Barcelona.
En el entorno competitivo que la virtualización está creando, caracterizado por la incertidumbre que prevalecerá a corto y medio plazo hasta que acaben triunfando unas pocas arquitecturas de control de infraestructura dominantes, Bittman recomienda no seguir una visión específica de fabricante; por el contrario, aconseja a los usuarios determinar su propia visión del control de la arquitectura e ir en esa dirección con un plan estratégico actualizado constantemente. “A medio plazo, lo mejor es alinear la estrategia de virtualización propia con el negocio, evitar el marketing desmesurado de los fabricantes y ser conscientes del precio y modelo de licenciamiento del software”, afirma.


Mejores prácticas
--------------------------
A partir de la experiencia de más de mil empresas, Gartner recomienda abordar la virtualización de servidores siguiendo las siguientes mejores prácticas:
uuu Pensar en grande, comenzar en pequeño. Desde el punto de visto tanto los costes y la gestión, lo mejor es comenzar con despliegues pequeños para pasar luego a una segunda fase más estratégica y compleja con el objetivo de mejorar la calidad y la velocidad de los servicios.
- A por un rápido ROI. Las empresas han de crear un business case que les permita conseguir un retorno de la inversión en seis meses o menos. En general, las empresas que despliegan como mínimo 50 máquinas virtuales al año lo consiguen.
uuu Sólo las aplicaciones correctas. No todas se adaptan bien. Las más adecuadas para empezar suelen ser las aplicaciones empaquetadas más pequeñas y viejas.
Definir una estrategia de almacenamiento. Decidir cómo y dónde almacenar las imágenes virtuales y los datos de aplicaciones es un factor crítico. Si se almacenan en un sistema central, se podrá acceder a ellas desde cualquier servidor conectado al sistema de almacenamiento.
- Comprensión del software. Hasta que surjan nuevos modelos de precios, los usuarios deben comprender en detalle las políticas a este respecto, así como de licencias, de los ISV.
- Combinar la efectividad de las máquinas virtuales. Un objetivo clave es poder asumir dinámicamente los cambios de las cargas de trabajo, especialmente en las primeras fases.


Más información en págs. 30-37.

Contenido Patrocinado

Revistas Digitales

DealerWorld Digital

 



Registro:

Eventos: