I+D
Internet

El MIT crea un generador de algoritmos que duplica el rendimiento de las redes

Científicos del Massachusetts Institute of Technology (MIT) han creado sobre un ordenador de 80 núcleos una herramienta que podría acelerar significativamente las redes mediante la generación de los mejores algoritmos a aplicar en cada momento.

MIT

El sistema, llamado Remy, genera sus propios algoritmos para optimizar la implementación de TCP (Transmission Control Protocol), el protocolo utilizado para prevenir la congestión de las redes. Dichos algoritmos son diferentes de cualquiera de los desarrollados hasta ahora y funcionan mucho mejor, según los investigadores del MIT. En redes simuladas son capaces hasta de duplicar la capacidad de proceso.

Aunque Remy no está diseñado para correr en PC y servidores individuales, en el futuro podría ser utilizado en estos sistemas para desarrollar los mejores algoritmos, de acuerdo con Hari Balakrishnan, profesor de Fujitsu en el MIT. De momento, lo que Remy es capaz de hacer es crear millones de posibles algoritmos y probarlos en redes simuladas para identificar el mejor posible para un objetivo determinado.

Las redes IP no predeterminan la velocidad a la que se han de enviar los paquetes de datos, ni si deben dejar de transmitir una vez que se congestionan. Cada sistema toma sus propias decisiones utilizando algunas implementaciones de TCP. Cada versión de TCP usa su propio algoritmo para determinar la mejor forma de actuar en diferentes condiciones.

Tales implementaciones de TCP han sido rediseñadas muchas veces a los largo de los últimos 30 años, en ocasiones para adaptarse mejor a determinadas redes y aplicaciones dando prioridad a unas frente a otras. De hecho, hoy existen de 30 a 50 esquemas TCP de gran utilidad, de los que se emplean con mucha frecuencia de cinco a ocho, según Balakrishnan. Pero hasta ahora estos algoritmos han sido desarrollados por ingenieros humanos, algo que Remy podría cambiar, asegura el profesor del MIT.

Los actuales algoritmos de TCP solo utilizan unas cuantas reglas para definir cómo un ordenador debe responder a las condiciones cambiantes de la red a fin de conseguir el mejor rendimiento. Sin embargo, según Balakrishnan, mediante un proceso que dura de cuatro a 12 horas, Remy es capaz de crear algoritmos que manejan más de 150 reglas y además los prueba en condiciones de red simuladas para determinar el mejor en cada caso teniendo en cuenta cómo un pequeño cambio en dichas condiciones puede dar como resultado un gran cambio en el rendimiento.  Los algoritmos finalmente identificados como los óptimos son capaces de duplicar la capacidad de las versiones de TCP más comúnmente utilizadas, y con un retardo muy inferior. En una simulación llevada a cabo en la red de datos móviles de Verizon, los algoritmos de Remy consiguieron un rendimiento de un 20 a un 30% superior y un retardo inferior en entre un 25 y un 40%.
 

Eso sí, los científicos del MIT advierten de que Remy aún solo es un proyecto de investigación que ni siquiera ha sido probado en la Internet real. Creen además que si algún día llega a utilizarse fuera de los entornos académicos de prueba, es muy probable que sea empleado en primer lugar en las redes privadas, donde, como hace Google,  ya funcionan rediseños de TCP adaptados a las condiciones concretas de cada red para mejorar el rendimiento. En estos casos, Remy podría ser usado para mejorar aún más los algoritmos empleados.

 

Para Balakrishnan , “nuestra aspiración real es que otros investigadores e ingenieros utilicen Remy como una herramienta. Incluso si el impacto final de nuestro trabajo se limita a cambiar la forma en que los desarrolladores analizan este tipo de problemas, será una enorme recompensa”.



TE PUEDE INTERESAR...

Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital