Internet de las Cosas
Red

2016 traerá cambios y la descomposición de las redes

La virtualización guiará la evolución y cambio de las funciones de red, ampliándose las capacidades de los balanceadores de carga tradicionales y distribuyéndose la potencia en computación.

VPN red Internet

Durante los últimos 10 años se han ido consolidando nuevas funciones de red en un appliance físico, sin embargo, hoy en día se está produciendo el efecto contrario, se está pasando de lo físico a lo virtual. Esta “descomposición de la red” hará que veamos cómo van migrando más funciones de vuelta a los elementos de donde partieron. Y la virtualización de las funciones de red producirá un cambio cada vez mayor en el diseño de las redes.

“La virtualización elimina los límites de la red y sus funciones pueden desplegarse allí donde tengan más sentido”, ha comentado  Eduardo García, director para la Región del Sur de Europa de KEMP Technologies. “Por ejemplo, desde que las funciones de red virtualizadas pueden localizarse más cerca del usuario final, la potencia en computación puede ser distribuida en torno al extremo de la red, lo que reduce la necesidad de que se tengan que enviar paquetes al centro de datos, algo crítico para una red de baja latencia”.

Además, García señala cómo las capacidades de los balanceadores de carga tradicionales se han ampliado para incluir Web Application Firewalls, IPS, cortafuegos, aceleradores SSL, compresión y almacenamiento en caché, dando lugar a lo que hoy conocemos como ADCs, controladoras de distribución de aplicaciones.

“Lo que tiene sentido en el mundo físico no tiene el mismo sentido en el mundo virtual”, continúa. “En el caso de los ADCs, podríamos colocar el firewall o los sistemas de prevención de intrusiones en el extremo, mientras que las capacidades de balanceo de carga se podrían colocar más cerca de la aplicación en el centro de datos. Esto evitaría que el tráfico “malo” atravesase toda la red y acabase finalmente sobrecargando el centro de datos”. 

Además de la creciente descomposición de la red, KEMP también prevé otras tendencias emergentes de cara a 2016, entre ellas, la adopción empresarial de IoT. Y es que aunque aún esta lejos de ver como Internet de las Cosas dirigirá los objetos de nuestro hogar, las empresas ya estás adoptándolo para mejorar la recogida y análisis de información, como bases para la automatización y el control. El alcance de IoT llegará a entidades grandes y complejas, como las fábricas. Esta evolución supondrá no sólo un incremento en los volúmenes y fuentes de datos, sino que requerirá nuevas capas de seguridad y de distribución de aplicaciones. Estas capas adicionales se entregarán en un entorno virtualizado como microservicios dinámicos que pueden adaptarse ágilmente a los cambios en los patrones de uso que a menudo caracterizan los servicios IOT.

Otra tendencia la supondrán los Centros de Datos Definidos por Software (SDDC). La necesidad de que los servicios de TI puedan adaptarse rápidamente para soportar las dinámicas del negocio llevará a la adopción de sets de herramientas de orquestación y automatización que simplificarán las operaciones de TI. Un enfoque definido por software permite al departamento de TI reaccionar de forma más rápida, hacer un mejor uso de los recursos y tener una visión unificada de la distribución de aplicaciones desde la red a los componentes de las aplicaciones. La clave de este enfoque está en el uso de tecnologías emergentes de redes definidas por software y de la virtualización de las funciones de red, junto con tecnologías consolidadas de servidores y virtualización del almacenamiento. Disponer de un entorno que está virtualizado desde arriba (aplicación) hasta abajo (la red) es la clave para el centro de datos definido por software en 2016.

También surgen modelos de Seguridad Adaptativa. Con la aparición de infraestructuras de entrega de aplicaciones más complejas y dinámicas, las herramientas tradicionales de seguridad diseñadas para identificar amenazas conocidas son insuficientes y veremos un enfoque de seguridad adaptativa. Este modelo podrá ver las políticas de seguridad y comportamientos horneados en el stack de entrega de aplicaciones, lo que impulsará un cambio fundamental en cómo se desarrollan y despliegan las aplicaciones. La capacidad de desplegar y orquestar las funciones de seguridad como microservicios permite la aplicación de políticas de seguridad en múltiples puntos, en lugar de hacerlo en el extremo de la red, como se hace habitualmente.

Y por último, no hay que olvidar el uso de APIs para acelerar el desarrollo y despliegue. El modelo DevOps para el desarrollo y entrega de software impulsará el uso de herramientas y microservicios de terceros que acelerarán el proceso. La clave para la utilización de estos microservicios está en el uso generalizado de las APIs que no sólo proporcionan la funcionalidad de la aplicación, sino que también permitirán la gestión y orquestación. En el modelo DevOps es fundamental poder aprovisionar, monitorizar y controlar a través de APIs, ya que es la automatización lo que permite la entrega continuada y asegura la consistencia. Con APIs impulsando microservicios que proporcionan funciones de red y de seguridad, los entornos DevOps podrán adoptar un enfoque tipo Lego para crear y desplegar servicios en 2016.



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital