| Artículos | 01 FEB 2003

La autogestión llega a los servidores

Por una informática autónoma
Francisco Sánchez.
Con la vista puesta en el futuro, los gigantes del mercado mundial de servidores están realizando grandes esfuerzos por hacerse un hueco sustancial en la nueva generación de equipos con capacidades de autogestión. IBM, Hewlett-Packard y Sun Microsystems han puesto en marcha estrategias globales de amplio alcance que, si bien presentan diferencias en su concepción, coinciden en los objetivos.

IBM, HP y Sun trabajan activamente en el desarrollo de sus respectivas estrategias para crear redes de servidores con capacidad de autogestión. El camino es complicado pero la meta es simple: resolver los problemas de los servidores rápidamente, a veces incluso antes de que el propio personal técnico de las empresas sea consciente de su existencia. Así, la infraestructura se convierte en más resistente y se minimizan los tiempos de caída, y por tanto, los costes de mantenimiento.
Aunque es ahora cuando está generando mucho ruido mediático, la idea de disponer de servidores autogestionables lleva ya presente varios años en el mercado de servidores de gama alta. Pero, según IDC, es hoy cuando está tomando cuerpo por el simple hecho de que, como los servidores se han convertido cada vez más en un estándar de la industria, prácticamente en una commodity, a los fabricantes les resulta más difícil diferenciar sus productos de la oferta de sus competidores. Es este, pues, el momento de empezar a satisfacer la creciente necesidad de los usuarios, a medida que se multiplica el número de servidores presentes en las infraestructuras corporativas, de disponer de equipos fáciles de gestionar y administrar, siempre disponibles y al máximo posible de su capacidad.

Infraestructuras autosuficientes
Giga Information Group coincide en el diagnóstico: la intensificación de los esfuerzos de los fabricantes por proporcionar capacidades de autogestión a sus servidores trata de dar respuesta a una serie de problemas compartidos por la gran mayoría de los usuarios corporativos, como la limitación de la capacidad, complejidad de las instalaciones y dificultad para aprovisionar con rapidez nuevas aplicaciones y servicios. La gestión es un problema ubicuo en toda la base instalada de servidores, y, por extensión, de cualquier tipo de equipos y dispositivos.
En la práctica, los desarrollos de la industria dentro de las capacidades de autogestión para servidores se inscriben en estrategias más globales, como la iniciativa Autonomic Computing de IBM, con la que el fabricante se adentra en la visión de un mundo en red operado por equipos ultra inteligentes. La idea subyacente de este concepto de "informática autónoma", fruto del proyecto eLiza de la compañía anunciado en abril de 2001, es que la infraestructura corporativa (software, PC y servidores) "cuide de sí mismos", ocupándose de su configuración, identificación y solución de problemas, asignando y optimizando recursos.
El compromiso de IBM con la iniciativa es lo suficientemente fuerte como para crear una división dedicada a Autonomic Computing, bajo la responsabilidad de Alan Ganek, antes vicepresidente de estrategia de IBM Research, centrada en la incorporación de características de autogestión y autocorrección en los productos y servicios de la compañía. Aunque no hay datos oficiales al respecto, diversas fuentes estiman que la nueva división parte con un presupuesto anual superior a los 500 millones de dólares.
Según la compañía, alimentado con un software especial en forma de agentes electrónicos, un servidor corporativo que esté experimentando problemas automáticamente enviará información sobre los síntomas a un ordenador situado en IBM. Este ordenador, mediante una muy amplia base de datos sobre una gran variedad de problemas, analiza el informe recibido y genera acciones correctivas, como enviar una respuesta electrónica al servidor para que él mismo solucione el fallo, hacer una llamada al personal técnico de la empresa recomendándole soluciones concretas o, en último caso, enviar personal técnico para que lo resuelva.
Todo esto no son sólo futuribles. De hecho, fruto del precedente eLiza, IBM ya ha incorporado capacidades de autogestión en algunos de sus productos, como la línea de gestión Tivoli y WebSphere. Por ejemplo, Tivoli Identity Manager automatiza el despliegue de los derechos de acceso de los usuarios, y Tivoli Configuration Manager integra funciones de distribución de software e inventario. WebSphere Application Server 5.0, por su parte, incluye herramientas para analizar, monitorizar y solucionar automáticamente problemas de rendimiento.

Realidades tangibles
Igualmente, en la línea eServer de IBM ya se han incorporado características avanzadas de autoconfiguración, autocorrección, autooptimización y autoprotección. Así, los recursos y subsistemas de hardware pueden configurarse y reconfigurarse autónomamente mientras están activos o en el momento de iniciación de operaciones. Estas acciones pueden originarse por la necesidad de ajustar la asignación de recursos en función de los criterios de optimización en cada momento o en respuesta a la aparición de fallos del firmware o del hardware. Las funciones de autoconfiguración incluyen también la posibilidad de añadir o eliminar recursos de hardware en respuesta a las peticiones de los administradores, el personal de servicio o el software de gestión.
Con las funciones de autocorrección, las plataformas pueden detectar instantáneamente fallos en el firmware y el hardware, limitando sus efectos a ámbitos definidos, eliminando o minimizando su impacto en la ejecución del sistema operativo y en las cargas de trabajo a nivel de usuario. Igualmente, las características de autooptimización permiten a los sistemas informáticos medir autónomamente el rendimiento o nivel de utilización de los recursos y, en consecuencia, adaptar la configuración de los recursos de hardware para mejorar el rendimiento. Por último, los sistemas informáticos pueden protegerse de intentos de ataques internos y externos contra la integridad y privacidad de los datos y aplicaciones.
Aunque durante los últimos meses IBM ha captado mucha atención gracias a su estrategia Autonomic Computing, según la consultora Gartner, Hewlett-Packard lleva mucho tiempo de ventaja a sus competidores gracias a Utility Data Center (UDC), introducido en noviembre de 2001. Se trata de un proyecto a largo plazo para hacer más sencilla la gestión de grandes centros de datos, reuniendo cientos de servidores y sistemas de almacenamiento y dando a los administradores una única visión de la totalidad de la red. HP ha decidido denominar este objetivo como “infraestructura adaptativa” (adaptive infrastructure) y entiende su arquitectura UCD como una herramienta para hacerlo realidad.

Adaptación al entorno
Los productos UDC, que permiten a los administradores de servidores ofrecer servicios bajo demanda, como operaciones de red y almacenamiento, mediante un software de gestión inteligente, posibilitan además administrar servidores en remoto y descubrir automáticamente la topología de un entorno de usuario. Ofrecen, además, un rack de gestión integrada de servicios, planificación de capacidad y software de optimización, y arrays de almacenamiento. Con una infraestructura de este tipo, una vez que los servidores se cablean conjuntamente, los cambios de con

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información