Software

El centro de datos del futuro pasa por la virtualización

El centro de datos del futuro pasa por un proceso de migración de la red física a la red virtual y, posteriormente, a un entorno cloud computing. Esta estrategia permite mejorar la eficiencia y escalabilidad de las operaciones dentro de estas infraestructuras.
Tanto las empresas como las operadoras quieren proporcionar aplicaciones en modalidad de pago por uso, escalar las aplicaciones sin fisuras y realizar tareas sin tener que preocuparse por la capacidad de los servidores, la memoria o la ubicación. Asimismo, buscan el ahorro por medio de la consolidación de los servidores, la reducción del consumo de potencia y las operaciones automatizadas.
Esta confluencia de tecnologías afecta la manera en la que los centros de datos se diseñan y operan. Los servidores rack y blade, los procesadores multicore, y la virtualización potencian aplicaciones muy atractivas que son capaces de transformar el entorno del centro de datos.
La transformación de una infraestructura de aplicaciones dedicada, o basada en silos, a una infraestructura cloud computing compartida y externalizada no es un proceso uniforme para todas las empresas. En el contexto económico actual, las empresas buscan realizar esta transición de forma gradual, primero a una infraestructura virtualizada de alta eficiencia, y posteriormente, si así lo requieren, a un entorno de cloud computing. Esta estrategia promete mejorar de forma significativa la eficiencia y escalabilidad de las operaciones de los centros de datos.

Los retos de la migración
La virtualización y el cloud computing han creado diversos desafíos para el centro de datos que incluyen el aumento del número de capas de la red; la creciente complejidad de la arquitectura de switching; la convergencia entre servidores, redes y almacenamiento; y la movilidad de los sistemas operativos y aplicaciones frente a los entornos estáticos de las redes tradicionales.
Las arquitecturas de red tradicionales incluyen los switches para la parte superior o el final de la hilera del rack que se conectan con un switch de agregación o de núcleo de la red. Habitualmente, se despliegan las redes como arquitecturas de dos o tres capas. Con la virtualización, se introduce una nueva capa en la red por medio del switch virtual, un switch de software que se ubica en el hipervisor y que permite a las máquinas virtuales comunicarse entre sí. La adopción de los servidores blade aumenta la frecuencia con la que se utiliza un switch blade dentro del recinto de los servidores blade para proporcionar una nueva capa de agregación dentro de la red.
La complejidad del switching en el centro de datos ha aumentado no sólo en el número de capas y switches en la red, sino también la complejidad de la gestión del switching en el centro de datos. Por ejemplo, está la dificultad de configurar y gestionar switches virtuales de diversos fabricantes ya que actualmente no existen estándares para switches virtuales y cada vendedor establece sus propias funcionalidades y capacidades. Los switches virtuales de diferentes fabricantes tienen que coexistir, no sólo dentro de un mismo centro de datos sino dentro de un único servidor.
Otro problema creado por la incorporación de switches dentro del servidor, sean éstos virtuales o blade, es definir el grupo operativo que tiene la responsabilidad para la configuración y la gestión del switch en el servidor. Tradicionalmente, el grupo de infraestructuras de red se encargaba de los switches, sin embargo, con la virtualización, la gestión y control de las funcionalidades a nivel de infraestructuras se ha trasladado del grupo de redes al de sistemas o de servidores. La convergencia entre el área de comunicaciones y de infraestructuras aumenta la probabilidad de errores en la configuración o incidencias en la gestión del cambio, y hace más difícil el mantenimiento y la resolución de conflictos para los grupos de servidores y de redes.

Movilidad, beneficio de la virtualización
Los procesos de recuperación de desastres, así como las aplicaciones de balanceo de cargas, necesitan trasladar de manera dinámica las cargas a través de la infraestructura del centro de datos. La durabilidad y la tolerancia a fallos dependen también de esta capacidad dinámica. La capacidad de suministrar, de manera dinámica, las nuevas cargas de trabajo depende de la capacidad de mover las cargas, sin embargo, las redes son estáticas. Tradicionalmente, las configuraciones de red se configuraban y cambiaban muy poco, pero la necesidad de proporcionar cargas de manera dinámica crea la necesidad de que las configuraciones de red también sean dinámicas. La movilidad de las máquinas virtuales requiere que la configuración de la red (VLAN, QoS, ACLs, etc.) siga de manera dinámica a la máquina virtual mientras ésta se desplaza por la red. 

Pág 1/3 Siguiente:  2  3 



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital