| Artículos | 01 OCT 2003

La apuesta de la industria

Si durante 2001 y 2002, IBM, HP y Sun dieron a conocer su visión sobre el futuro de las TIC como algo suministrable siguiendo el modelo de las utilities, 2003 está siendo testigo de cómo sus discursos se plasman en desarrollos concretos.

La apuesta de IBM se concreta fundamentalmente en dos iniciativas complementarias: “e-business On-Demand” y “Autonomic Computing”. Ambas dan unidad a las estrategias de la compañía en áreas como tecnologías de informática autónoma, Grid, utility computing e integración, uniéndolas en una nueva visión con cuatro características clave: integración de los sistemas existentes; fuerte compromiso con los estándares abiertos de la industria; virtualización de los recursos, convirtiéndolos incluso en un servicio prestado en régimen de outsourcing sobre redes Grid siguiendo el modelo de las utilities; e incorporación de capacidades de informática autónoma en los productos existentes.
En enero de 2003, dentro de e-business On Demand, IBM lanzaba un servicio de supercomputación bajo demanda, denominado Supercomputing On-Demand. Basado en el pago por consumo, fue presentado como un medio de evitar a las empresas los costes asociados a la compra y mantenimiento de grandes servidores mediante el establecimiento de acuerdos a corto plazo con IBM para procesos de trabajo específicos. Lo realmente innovador de la oferta es que lleva el concepto de la informática como utility a su máxima expresión al aplicarlo no sólo dentro de la propia organización, sino también cómo un servicio proporcionado en remoto por un tercero, lo que en IBM denominan servicios de e-utility.

Autonomic Computing
Una de las piezas en la que se basa la estrategia e-business On Demand de IBM es su iniciativa Autonomic Computing, con la que el fabricante se adentra en la visión de un mundo en red operado por equipos ultra inteligentes. La idea subyacente a este concepto de informática autónoma, fruto del proyecto Elisa de la compañía anunciado en abril de 2001, es que la infraestructura corporativa (software, PC y servidores) “cuide de sí misma”, ocupándose de su configuración, identificación y solución de problemas, asignando y optimizando recursos.
Con las funciones de auto corrección, las plataformas pueden detectar instantáneamente fallos en el firmware y el hardware, limitando sus efectos a ámbitos definidos, eliminando o minimizando su impacto en la ejecución del sistema operativo y en las cargas de trabajo a nivel de usuario. Igualmente, las características de auto optimización permiten a los sistemas informáticos medir autónomamente el rendimiento o nivel de utilización de los recursos y, en consecuencia, adaptar la configuración de los recursos de hardware para mejorar el rendimiento. Por último, los sistemas pueden protegerse de ataques internos y externos contra la integridad y privacidad de los datos y aplicaciones.

Utility Data Center
Aunque la apuesta de IBM por la utility computing está atrayendo mucha atención en los últimos meses, Hewlett-Packard abrió la veda en este campo con el lanzamiento en noviembre de 2001 de su estrategia Utility Data Center (UDC). Se trata de un proyecto a largo plazo para hacer más sencilla la gestión de grandes centros de datos, reuniendo cientos de servidores y sistemas de almacenamiento y dando a los administradores una única visión de la totalidad de la red. HP llama a este escenario último “infraestructura adaptativa” (adaptative infrastructure) y entiende su arquitectura UDC como una herramienta para hacerlo realidad.
UDC se basa en cuatro elementos clave: virtualización de recursos, sencillez de gestión, despliegue simplificado y arquitectura basada en estándares abiertos. Juntos hacen del centro de datos una utility, permitiendo que los usuarios tengan disponible en todo momento la capacidad de TI que necesitan, de acuerdo a unos valores previamente establecidos.

N1
También Sun participa en esta carrera con su iniciativa N1, dada a conocer en febrero de 2002. Se trata de una línea de hardware y software que pretende brindar a los administradores de TI la capacidad de asignar tecnologías de hardware, software, almacenamiento y red para soportar aplicaciones distribuidas.
La primera fase de la estrategia se centra en la virtualización de todos los elementos de red –incluidos servidores, almacenamiento y cableado– para conseguir una gestión más eficiente y sencilla. Para ello, la firma ha lanzado un software con el que los ordenadores, servidores, redes y sistemas de almacenamiento pueden formar un pool de recursos agregados. El software asigna los recursos, los monitoriza y mide su utilización, facilitando la gestión de niveles de servicio y su ciclo de vida. En fases sucesivas permitirá además el aprovisionamiento de servicios y la automatización de las políticas.


Recursos Web
---------------------
Autonomic Computing de IBM
http://www.research.ibm.com/autonomic/
N1 de Sun
http://es.sun.com/infospain/noticias/2002/ 020920.html
http://es.sun.com/2002-1210/index.html
UDC de HP
http://welcome.hp.com/country/es/spa/features/ itvalue02.html
http://h30046.www3.hp.com/solutions/utilitydata. html?regioncode=NA&langcode=USENG

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información