Cloud Computing | Noticias | 26 SEP 2017

Cómo funciona un centro de datos hoy y cómo lo hará mañana

El futuro de los centros de datos se basará en cloud, infraestructura hiperconvertida y componentes más potentes.
Centro de datos
Zeus Kerravala

Un centro de datos es una instalación física que las empresas usan para alojar sus aplicaciones e información de negocio crítico, a medida que evolucionan, es importante pensar a largo plazo sobre cómo mantener su fiabilidad y seguridad.

Componentes del centro de datos

Los centros de datos se refieren a menudo como algo singular, pero en realidad se componen de una serie de elementos técnicos como enrutadores, conmutadores, dispositivos de seguridad, sistemas de almacenamiento, servidores, controladores de entrega de aplicaciones y más. Estos son los componentes que TI necesita para almacenar y administrar los sistemas más críticos que son vitales para las operaciones continuas de una empresa. Debido a esto, la fiabilidad, la eficiencia, la seguridad y la evolución constante de un centro de datos suelen ser una prioridad.

Infraestructura de centro de datos

Además de los equipos técnicos de un centro de datos también requiere una cantidad significativa de la infraestructura de las instalaciones para mantener el hardware y software en marcha. Esto incluye subsistemas de alimentación, fuentes de alimentación ininterrumpida (SAI), sistemas de ventilación y refrigeración, generadores de respaldo y cableado para conectarse a operadores de red externos.

Arquitectura del centro de datos

Cualquier empresa de tamaño significativo probablemente tendrá múltiples centros de datos posiblemente en múltiples regiones. Esto da a la organización flexibilidad en la forma en que respalda su información y protege contra desastres naturales y provocados por el hombre, tales como inundaciones, tormentas y amenazas terroristas. La forma en que el centro de datos se diseña puede ser algunas de las decisiones más difíciles porque hay opciones casi ilimitadas. Algunas de las consideraciones clave son:

¿El negocio requiere centros de datos duplicados?

¿Cuánta diversidad geográfica se requiere?

¿Cuál es el tiempo necesario para recuperarse en caso de una interrupción?

¿Cuánto espacio se requiere para la expansión?

¿Debe alquilar un centro de datos privado o utilizar un servicio de co-localización / gestión?

¿Cuáles son los requerimientos de ancho de banda y potencia?

¿Hay un operador preferido?

¿Qué tipo de seguridad física se requiere?

Las respuestas a estas preguntas pueden ayudar a determinar dónde y cuántos centros de datos construir.

Mientras que los centros de datos a menudo se asocian con las empresas y los proveedores de la nube a escala web, en realidad cualquier empresa puede tener un centro de datos. Para algunas Pymes, el centro de datos podría ser una habitación ubicada en su espacio de oficina.

Para ayudar a los líderes de TI a entender qué tipo de infraestructura implementar, en 2005, el Instituto Nacional de Estándares Americanos (ANSI) y la Asociación de la Industria de Telecomunicaciones (TIA) publicaron estándares para centros de datos que definieron cuatro niveles discretos con diseño e implementación. Un centro de datos de nivel uno es básicamente una sala de servidores modificada, donde un centro de datos de nivel cuatro tiene los niveles más altos de confiabilidad y seguridad del sistema. Una descripción completa de cada centro de datos se puede encontrar aquí (http://www.tia-942.org/content/162/289/About_Data_Centers) en el sitio web TIA-942.org.

Futuras tecnologías de data center

Como ocurre con todas las tecnologías, los centros de datos están experimentando actualmente una transición significativa y el centro de datos de mañana se verá significativamente diferente del que la mayoría de las organizaciones están familiarizadas con el día de hoy.

Las empresas se están volviendo cada vez más dinámicas y distribuidas, lo que significa que la tecnología que potencia los centros de datos debe ser ágil y escalable. A medida que la virtualización del servidor se ha incrementado en popularidad, la cantidad de tráfico que se mueve lateralmente a través del centro de datos (Este-Oeste) ha empequeñecido el tráfico de servidor cliente tradicional, que se mueve dentro y fuera (Norte-Sur).

Esto está causando estragos en los administradores de centros de datos a medida que intentan satisfacer las demandas de esta era de TI. Pero a medida que la canción de Bachman Turner Overdrive va, "B-b-b-baby, simplemente no se ve n-n-nada aún".

Aquí están las tecnologías clave que convertirán a los centros de datos de entornos estáticos y rígidos que están llevando a las empresas a instalaciones fluidas y ágiles capaces de satisfacer las demandas de una tecnología digital las nubes empresariales. Historicamente, las empresas tenían la opción de construir su propio centro de datos, utilizando un proveedor de hosting o un socio de servicio administrado. Esto cambió la propiedad y la economía del funcionamiento de un centro de datos, pero los largos plazos requeridos para desplegar y administrar la tecnología aún se mantienen. El surgimiento de Infraestructura como Servicio (IaaS) de proveedores en la nube como Amazon Web Services y Microsoft Azure da a las empresas una opción en la que pueden proporcionar un centro de datos virtual en la nube con sólo unos clics del ratón. Los datos de ZK Research muestran que más del 80% de las empresas están planificando entornos híbridos, lo que significa el uso de centros de datos privados y nubes públicas.

Networking definido por software (SDN)

Un negocio digital sólo puede ser tan ágil como su componente menos ágil. Y eso es a menudo la red. SDN puede aportar un nivel de dinamismo nunca antes experimentado. Infraestructura hiperconvertida (HCI, por sus siglas en inglés). Uno de los retos operacionales de los centros de datos es tener que combinar la mezcla adecuada de servidores, almacenamiento y redes para soportar aplicaciones exigentes. Luego, una vez que se despliegue la infraestructura, las operaciones de TI necesitan averiguar cómo escalar rápidamente sin interrumpir la aplicación. HCI simplifica eso al proporcionar un dispositivo fácil de implementar, basado en hardware de productos básicos que puede escalar agregando más nodos al despliegue. Los primeros casos de uso de HCI giraban en torno a la virtualización de escritorios, pero recientemente se han expandido a otras aplicaciones empresariales como las comunicaciones unificadas y las bases de datos. El desarrollo de aplicaciones de contenedores a menudo se desacelera por el tiempo que se tarda en proporcionar la infraestructura en la que se ejecuta. Esto puede dificultar considerablemente la capacidad de una organización para pasar a un modelo de DevOps.

Los contenedores son un método de virtualización de todo un entorno de tiempo de ejecución que permite a los desarrolladores ejecutar aplicaciones y sus dependencias en un sistema autónomo. Los contenedores son muy ligeros y pueden ser creados y destruidos rápidamente, por lo que son ideales para probar cómo funcionan las aplicaciones en determinadas condiciones. La segmentación de los centros de datos tradicionales tienen toda la tecnología de seguridad en el núcleo, por lo que el tráfico se mueve en una dirección Norte-Sur, las herramientas de seguridad y protege el negocio. El aumento del tráfico Este-Oeste significa que el tráfico evita cortafuegos, sistemas de prevención de intrusiones y otros sistemas de seguridad y permite que el malware se propague rápidamente.

Microsegmentación es un método de creación de zonas seguras en un centro de datos donde los recursos pueden ser aislados entre sí por lo que si ocurre una violación, el daño se reduce al mínimo. Microsegmentation es típicamente hecho en software, por lo que es muy ágil.Non-volatile memory express (NVMe). Todo es más rápido en un mundo cada vez más digitalizado, lo que significa que los datos necesitan moverse más rápido. Los protocolos de almacenamiento tradicionales, tales como la interfaz del sistema informático pequeño (SCSI) y Advanced Technology Attachment (ATA), han existido durante décadas y están llegando a su límite.

NVMe es un protocolo de almacenamiento diseñado para acelerar la transferencia de información entre sistemas y unidades de estado sólido que mejora en gran medida las tasas de transferencia de datos. GPU (unidades de procesamiento de gráficos). Las unidades de procesamiento Central han alimentado la infraestructura del centro de datos durante décadas, pero la ley de Moore está llegando a una limitación física. Además, las nuevas cargas de trabajo, como la analítica, el aprendizaje automático y el IoT están impulsando la necesidad de un nuevo tipo de modelo de cálculo que supere lo que las CPU pueden hacer. Las GPUs, una vez utilizadas sólo para juegos, funcionan fundamentalmente diferentes ya que son capaces de procesar muchos hilos en paralelo haciéndolos ideales para el centro de datos de un futuro no muy lejano. Los centros de datos siempre han sido críticos para el éxito de negocios de casi todos los tamaños, y eso no cambiará. Sin embargo, el número de formas de implementar un centro de datos y las tecnologías habilitadoras está experimentando un cambio radical. Para ayudar a construir una hoja de ruta hacia el futuro centro de datos, recuerde que el mundo se está volviendo cada vez más dinámico y distribuido. Las tecnologías que aceleran ese cambio son las que serán necesarias en el futuro. Aquellos que no lo harán probablemente permanecerán por un tiempo, pero serán cada vez menos importantes.

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información