Autonomic computing

Por qué, para qué, cuándo

En el número pasado, “Comunicaciones World” ofrecía una visión global de las principales tendencias que están ayudando a crear el nuevo modelo de centro de datos. En esta ocasión, con la ayuda de su revista hermana Network World, reúne la visión de seis destacados directivos del mundo de las TIC sobre la “autonomic computing”, una de las bases fundamentales de ese nuevo data center hacia el que evolucionan la tecnología y la industria.

Mucho se habla y escribe últimamente sobre la autonomic computing, a veces con precipitación, a menudo con un exceso de idealismo –inocente o interesado–, y siempre con tan poca concreción como demasiadas y difusas buenas intenciones. Es cierto, pero también lo es que la idea “engancha”, incluso a los más escépticos: sus promesas son muchas. El caso es que los principales fabricantes de infraestructuras pintan el nuevo centro de datos como un entorno con características de auto gestión, auto reparación y auto aprovisionamiento. Tales capacidades de informática autónoma o autonomic computing contribuirán a crear una infraestructura capaz de reaccionar sobre la marcha a las necesidades cambiantes de las empresas, y siempre con un alto y constante nivel de servicio, en un modo muy similar al de las “utilities” públicas, como el gas o la electricidad. Ventajas que darán a los responsables de TI la posibilidad de liberarse de las simples tareas manuales de mantenimiento para centrarse en las grandes cuestiones estratégicas del negocio.
Aquí se ofrece la visión sobre la autonomic computing de estrategas clave de los gigantes de la industria HP, IBM, Sun y Microsoft, la firma de gestión del almacenamiento Veritas Software y la unidad VMware de EMC, especializada en la virtualización de servidores.

¿Por qué es necesaria la autonomic computing?
- Greg Papadopoulos, CTO de Sun: En una palabra, complejidad. La complejidad ha lle-gado a tal punto que impide aplicar economías de escala a las TI. Lo que realmente se busca es la automatización del centro de datos, no introducir nuevas palabras de moda al servicio del marketing. Estamos hablando de la virtualización de recursos y del aprovisionamiento de las aplicaciones y de los niveles de servicio, herramientas aplicables a la mayor parte de los recursos TI. Sin embargo, veo con un poco de escepticismo la idea de que los ordenadores puedan actuar como las personas y repararse ellos mismos. Pero la verdadera automatización del centro de datos no es un principio difuso, abstracto; requiere una ingeniería estricta y a fondo. Tenemos que enfrentarnos al duro esfuerzo de crear cosas simples.
- Nora Denzel, vicepresidenta senior y directora general de Software Global Business Unit y Adaptive Enterprise Program de HP: Siempre ha existido su necesidad, pero no estábamos en condiciones de satisfacerla. Hasta hace pocos años, no había ni los estándares ni el ancho de banda necesarios para enlazar ordenadores separados por grandes distancias. Tampoco se habían inventado algunas de las tecnologías requeridas, como la virtualización, la capacidad de dividir programas en piezas pequeñas. Lo que estamos viendo es un nuevo ciclo de la informática que ha surgido sólo cuando ha sido finalmente posible.
- Irving Wladawsky-Berger, vicepresidente de tecnología y estrategia de IBM: Tenemos que encontrar maneras innovadoras de gestionar la creciente complejidad de las TI y de los negocios. A medida que las tecnologías han ido estando disponibles de un modo más sencillo, la mayor parte de los entornos se han ido llenando de componentes heterogéneos. Más del 40% del gasto total en TI se invierte precisamente sólo en conseguir que todas estas tecnologías funcionen conjuntamente. Al final, necesitamos la autonomic computing para hacer que las TI sean más auto gestionables, auto configurables, auto reparables y auto protegibles que ahora. Los usuarios entonces estarán más protegidos de la complejidad, la infraestructura funcionará puntualmente y será casi impermeable a los ataques, y el negocio podrá hacer un uso más eficiente de la cada vez más escasa experiencia en soporte.
- Gary Bloom, CEO de Veritas: Muchos responsables de TI se ven en medio de dos conflictos imperativos. En un extremo se encuentran los usuarios, que quieren más aplicaciones para automatizar sus negocios y más datos para tomar mejores decisiones, y lo quieren para ayer, si no antes. En el otro extremo están los CEO y los CFO, que pretenden que el CIO gaste menos en centros de datos, menos en hardware y menos en personal. Por supuesto, todo esto debe ser llevado a cabo con la tecnología existente, un complejo y heterogéneo entorno de servidores Web, servidores de aplicaciones, hardware y bases de datos. Y en ambos extremos hay una misma exigencia: perfección. Lo que todos están pidiendo es que el entorno TI sea tan digno de confianza y predecible como el agua, el gas, la electricidad o cualquier otra utility.
- Diane Greene, presidente y CEO de VMware: Autonomic computing puede ser definida de diferentes maneras pero el objetivo es uno: simplificar la gestión y mejorar la fiabilidad de los sistemas informáticos. Un sistema de este tipo que funcione correctamente no precisará de nadie para gestionarse y mantenerse una vez instalado. Si una aplicación empieza a funcionar mal, puede conseguir automáticamente mayores recursos. Si el software o el hardware falla, el servicio no se interrumpe y los usuarios ni se enteran. Los beneficios son claros: menores costes y mayores niveles de servicio.

¿Cómo afectará la autonomic computing al trabajo del personal de TI?
Denzel: Lo mejor de todo es que esta tecnología será empleada para automatizar muchas de las tareas manuales que el personal TI se ve obligado a hacer hoy, como instalar parches, establecer servidores o dar soporte a los nuevos usuarios. Así, los profesionales TI podrá dedicar más tiempo a comprender las necesidades y los procesos del negocio para optimizarlos y redefinirlos. Será un trabajo más satisfactorio.
- Papadopoulos: Dada la complejidad creciente de los entornos de informática en red, hay responsables TI que dedican hasta un 60 o 70% de sus presupuestos a mantener el statu quo, conservando la red activa, desplegando parches y actualizaciones, e intentando mantener y documentar docenas de versiones de software, plataformas y sistemas operativos. La autonomic computing automatiza las tareas repetitivas y monitoriza los niveles de servicio y la disponibilidad, permitiendo al personal TI centrarse en proyectos más estratégicos. Esto requerirá una comprensión más profunda del poder de la información, y de la necesidad de gestionarla, así como de desplegar y desarrollar aplicaciones y servicios que proporcionen una ventaja competitiva al negocio.

¿Cuándo estarán disponibles los sistemas autónomos? ¿Qué se está haciendo en la actualidad?
- Wladawsky-Berger: Hoy ya se están incorporando funciones autónomas a los sistemas. Pero su integración a fondo en el negocio será un proceso evolutivo. No es posible construir un entorno automatizado de la noche a la mañana. Vemos la autonomic computing como un proceso que permitirá a las empresas introducir tecnologías cada vez más autónomas en sus infraestructuras de un modo lógico y sistemático. Así, los clientes irán disfrutando de sus ventajas según el ritmo al que vayan actuali

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital