"La informática bajo demanda supone un punto de inflexión en el sector"

John Manley, director de Sistemas Internet y Almacenamiento de los Laboratorios HP de Bristol

Con la presentación de la nueva arquitectura Darwin, HP ha dado un paso más en su estrategia Adaptive, que pretende adaptar la actuación del fabricante a la visión de la informática del futuro como algo suministrable siguiendo el modelo de las utilities. En opinión del director de Sistemas Internet y Almacenamiento de los Laboratorios de HP en Bristol, “nos encontramos precisamente en un punto de inflexión que dará paso a la consolidación del modelo Utilitity Computing”.

La I+D constituye el motor del desarrollo tecnológico y la permanencia del negocio de una compañía como HP en el tiempo. ¿Cuáles han sido las tendencias que han marcado la investigación en materia de sistemas durante las últimas décadas y en que momento nos encontramos?
- Cada década, el modelo de informática se transforma al ritmo de diferentes tendencias, que conforman ciclos. En los años sesenta la base la constituían los sistemas “mainframes”, en los ochenta predominaba el modelo cliente/servidor y en los años noventa le llegó el turno a la informática basada en Web.
Resulta significativo que cuando se pasa de un modelo a otro no aparece muy claro el rumbo que tomará ese nuevo ciclo y existe cierta incertidumbre al respecto. Cuando se está en medio del ciclo es más fácil profundizar y conocer hacia donde se dirige. Pero en momentos de incertidumbre, sin embargo, es cuando aparecen mayores oportunidades y esta es, en mi opinión, la situación que se vive actualmente en el sector de las tecnologías de información. Hemos atravesado un momento fuertemente marcado por la informática Web, pero ahora vemos que esto no ha sido suficiente y nos dirigimos a otra era.

¿Cuáles han sido las carencias de la informática Web y hacia donde está evolucionando la industria?
- Creo que en estos momentos es preciso que todo el sector de las tecnologías de la información pueda dar un paso más allá. La informática Web está claramente orientada a la información y ahora nos movemos hacia un mundo que se asentará en las capacidades de la computación y el almacenamiento. Este es el momento actual, repleto de tendencias y puntos de vista pero en el que aparece claro el consenso en torno a la Utility Computing y al concepto de la informática bajo demanda. HP está trabajando intensamente en estas áreas desde hace muchos años. De alguna manera, estaba claro que este modelo se terminaría de consolidar y ahora vemos que ha comenzado a ser una realidad impulsada por el principal motor: el mercado.
Estas cosas no pasan por la aparición de una tecnología absolutamente innovadora. En realidad, la consolidación de un nuevo modelo se produce siempre por la aparición de nuevas fuerzas de negocio. Todo modelo de informática no es más que una respuesta a la concepción de la misma economía y las necesidades que de ésta se desprenden.

¿Qué fuerzas estarían impulsando entonces la concepción de los sistemas que caracterizaría el ciclo que ahora comenzamos?
- Sin duda un impulso realmente importante es la presión que padecen todos los directores de sistemas y responsables de tecnología (CTO) de las empresas por hacer cada vez más cosas con las mismas infraestructuras, debido a al continuo crecimiento de las funcionalidades a que los recursos disponibles han de dar soporte. Y esto deben hacerlo al menor coste y con los mismos recursos. En determinados momentos se producen puntos de inflexión en los que los profesionales de las tecnologías de la información deben reformular completamente la forma en la que han entendido los sistemas en los últimos diez años.
Tomando la idea que mencionábamos antes, por ejemplo, en los años sesenta la piedra angular eran los sistemas mainframes, que significaban una concepción cerrada y custodiada por los CTO. Posteriormente se produjo la evolución natural al modelo cliente/servidor, pero ante la incorporación de otras prestaciones o la necesidad de dar respuesta a nuevos requerimientos no había otra salida que la compra de equipos y la continua inversión en infraestructuras. Así, teníamos una dispersión de sistemas totalmente diferentes entre sí, un rompecabezas que era imposible integrar. Este modelo se agotó en sí mismo, por los altísimos costes y la inexistencia de estándares. Toda la industria se movía con idiomas incomprensibles entre sí, tanto en la fabricación como en la utilización por parte de los usuarios, lo que exigía altos costes de mantenimiento y personal sumamente cualificado. Y así nos dimos cuenta de que teníamos que agrupar todos los recursos, independientemente del uso que se les diera, para lograr homogeneizar la aplicación de reglas y conseguir la estandarización de las infraestructuras.

¿Cuáles son entonces las directrices que marcan la configuración del nuevo modelo?
- Si pudiéramos tomar una suerte de fotografía de lo que son actualmente los sistemas informáticos, veríamos que en la base están compuestos por los recursos que tienen la responsabilidad de llevar a cabo los procesos más duros y críticos, como los sistemas de almacenamiento, entre otros. En un nivel superior encontraríamos ya una capa encargada de los procesos de virtualización, que posibilita la construcción de otros sistemas más allá de nuestros propios recursos físicos. La virtualización es sin duda una de las claves de la nueva etapa de la informática, que permite traspasar las fronteras de los recursos y las infraestructuras tradicionales.
Siguiendo este esquema simplificado podemos distinguir un tercer nivel encargado de la gestión e integración de todos estos sistemas resultantes de todos los componentes donde las responsabilidades tienen que ver con el control del ciclo de vida, el diseño, despliegue, monitorización, adaptación y terminación del conjunto del sistema. Nosotros creemos que todo el ciclo vital de los componentes debe ser gestionado por sistemas simples, exentos de complejidad, porque de lo contrario la integración resulta prácticamente imposible en todos los niveles.
Esos tres niveles son sumamente importantes, pero, además, debemos tener en cuenta otra dimensión que afecta a todos ellos y que agregan una mayor complejidad al entorno. Se trata de las propiedades de los sistemas, como la seguridad, la redundancia, el rendimiento, la escalabilidad o la predictibilidad.

¿Cómo ha sido el trabajo de los últimos diez años en los laboratorios de HP como parte de ese compromiso con el desarrollo de esta visión de las TIC?
- Los laboratorios de HP pretenden ser la herramienta mediante la cual se realice una fuerte inversión en las diferentes áreas de ciencia y tecnología que son de nuestro interés. Una de las más importantes para HP es la informática de próxima generación, desarrollada mediante componentes estándar de la industria para la creación de infraestructuras adaptables a diferentes necesidades.
Otra de las modalidades en las que trabajan los laboratorios es colaborando con otras compañías del sector para el desarrollo de soluciones en campos de rápido crecimiento, como los dispositivos móviles. El trabajo con tecnologías emergentes o poco difundidas es para HP un reto porque permite ampliar las barreras de la ciencia en áreas tan desconocidas como el almacenamiento de resoluci

Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital