De la automatización a la utility computing

Una nueva visión de la gestión para el nuevo centro de datos

Dentro del nuevo modelo de centro de datos, bajo conceptos como utility computing, autonomic computing o grid computing, las aplicaciones estarán construidas sobre componentes y servicios que abarcarán a toda la empresa, incluso a sus socios y clientes; recursos informáticos, de red y de almacenamiento se virtualizarán y podrán ser invocados por aplicaciones y usuarios remotos. Es decir, el nuevo centro de datos, en esencia, supone mucho más que un nuevo diseño físico. Se trata de una visión lógica sobre cómo los activos TI, incluidos los servicios externalizados y suministrados por terceros, son desplegados, gestionados y securizados en un nuevo escenario de informática en red. Esta todavía utopía descansa en tres tendencias clave: consolidación, virtualización y, muy especialmente, automatización, sin la que sería impensable romper las ligaduras del modelo convencional de informática en el que aún nos movemos.

El nuevo centro de datos, cada vez más complejo y cambiante, demanda software altamente integrado capaz de automatizar de un modo inteligente un amplio conjunto de tareas de gestión, así como de impedir que errores humanos puedan causar caídas o problemas de rendimiento. Tal tipo de automatización ayuda a los departamentos de TI a simplificar el cada vez más duro esfuerzo que supone recoger datos de múltiples fuentes, darles sentido, ponerlos en un formato común y, en función de la información que proporcionen, tomar las acciones oportunas de acuerdo con las políticas de negocio.
Conseguir un nivel de automatización como el descrito, que sienta las bases de la informática bajo demanda y la utility computing, llevará tiempo y dinero, y exigirá a los suministradores un gran esfuerzo de imaginación y desarrollo. Pero, al final, la tecnología estará disponible, abriendo las puertas al gran cambio cultural que impone el nuevo modelo de centro de datos. Como dicen los expertos, la automatización traerá consigo la puesta en marcha de nuevos servicios más rápidamente, con más seguridad y a menor coste. Y esto es lo realmente importante para los usuarios, que ya deberían irse preparando para esta nueva etapa. Comprender la automatización recurso por recurso es el primer paso del proceso.

Sobremesas
Donde mejor funciona la automatización es allí donde se han de realizar múltiples tareas tan sencillas como repetitivas, es decir, las máquinas cliente del usuario. Y aquí es por donde se debería empezar.
Con Radia, herramienta de distribución de software adquirida por HP con la compra de Novadig el pasado mes de abril, el departamento de TI podría, por ejemplo, automatizar las actualizaciones de software y la distribución de parches a miles de usuarios finales distribuidos por decenas de sedes y delegaciones. De este modo, es posible conseguir que toda la organización disponga siempre de la misma tecnología en un momento dado, lo que es prácticamente imposible cuando estas tareas hay que hacerlas manualmente. Sólo es preciso crear la nueva “imagen” de los puestos de sobremesa en un punto central y desde allí distribuirla a todos los usuarios.
Al igual que HP, fabricantes como Altiris, Computer Associates y Reflectent Software ofrecen herramientas como la descrita que, en función de reglas predefinidas, escanean las máquinas clientes para obtener información sobre sus aplicaciones, nivel de utilización, cumplimiento de licencias y parches. Y como mantienen actualizado un repositorio de información sobre cada sobremesa, muchos de estos productos también pueden detectar los cambios que se producen en las máquinas. Cualquiera de estos cambios se sincroniza con las políticas de modo que sea posible tomar acciones automatizadas para remediar los problemas que aparezcan. Así, este tipo de herramientas podría, por ejemplo, denegar el acceso de red a un cliente que hubiera eliminado el software antivirus.
Algunos fabricantes acompañan sus soluciones con best practices y modelos de procesos que ayudan a los responsables de TI a definir los pasos automatizados necesarios. Pero en muchos escenarios, serán los propios administradores de TI quienes tengan que identificar los procesos, definirlos en el software y actualizar cualquier cambio tanto en los procesos como en los componentes tecnológicos. Una tarea ardua de por sí a la que no le faltan voluntarios para añadir más complejidad si cabe: a muchos usuarios finales, sobre todo a los más formados, les gusta controlar personalmente sus propios sistemas y decidir qué y cuándo añadirles o eliminarles programas y versiones. Pero en un entorno automatizado, los usuarios finales deben renunciar, salvo excepciones justificables, a ese control y flexibilidad para seguir las políticas corporativas que establezca el departamento de TI.

Infraestructura de servidor
Las funciones de automatización son más amplias a nivel de servidor que en el de sobremesas. La automatización del servidor incluye el aprovisionamiento de nuevas máquinas, la distribución de los recursos automatizados y, algo fundamental en muchos entornos, la creación de las bases funcionales sobre las que crear mayores niveles de automatización a escala corporativa.
Firmas como BladeLogic y Opsware están combinando diversas tareas automatizadas para ayudar a los responsables de TI a lanzar nuevos servidores, distribuir actualizaciones de software y parches, y documentar los arreglos de software más frecuentes para simplificar el trabajo del personal técnico. Opsware, por ejemplo, proporciona plantillas que ayudan a los responsables de TI a crear aplicaciones de automatización para los procesos del usuario y sistemas propietarios. La idea es que el software asuma la ejección de los scripts que hasta ahora había que hacer manualmente. El valor de este tipo de productos se encuentra en que el departamento de TI podrá combinar y enlazar tareas antes separadas como la automatización del scripting, el aprovisionamiento y el parcheado.
Las tecnologías de estos fabricantes han atraído la atención de grandes como IBM, HP, Sun y Veritas Software. Todos ellos han comprado startups de automatización de servidor con la intención de potenciar sus ofertas para los centros de datos de nueva generación. Lo que pretenden es conseguir lo que Forrester Research llama la “fabric de automatización” del futuro centro de datos. Tal “fabric” creará, según la consultora, un sistema operativo global que correrá a través del centro de datos, en vez de sobre los servidores individuales, y que “responderá a los fallos, desplegando rápidamente nuevos recursos para añadir capacidad. En algún nivel, estos productos también han de ser capaces de manipular el almacenamiento en red, configurar routers y conmutadores, y crear LAN virtuales.”

Almacenamiento y backup
La práctica actual de poner el almacenamiento en múltiples máquinas en función de las aplicaciones, en vez de mantener almacenamiento específico en una pieza de hardware o base de datos, obliga a los responsables de TI a disponer de software capaz de reunir recursos y de automatizar su aprovisionamiento y seguimiento. Esta es la visión de la consultora Enterprise Management Associates, que ve la necesidad de reunir los recursos de almacenamiento en un pool gestionado centralmente, a medida que el almacenamiento migra paulatinamente de la capa de la base de dato

TE PUEDE INTERESAR...

Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital