cerrar-sesion editar-perfil marker video calendario monitor periodico fax rss twitter facebook google-plus linkedin alarma circulo-derecha abajo derecha izquierda mover-vertical candado usuario email lupa exito mapa email2 telefono etiqueta

Cloud Computing y las redes de telecomunicación de área ‘glocal’

  • Por José Manuel Armada, director de ingeniería de clientes de Interoute Iberia

Escrito por Redacción Byte TI el 1 junio, 2017 en Networking
no hay comentarios Haz tu comentario
Imagen de logotipo de facebook Imagen de logotipo de Twitter Imagen de Logotipo de Google+ Imagen de logotipo de Linkedin

En el mundo de las redes de telecomunicación todos estamos familiarizados con términos tales como convergencia, integración, colaboración, etc. que surgieron hace tiempo de la necesidad de optimizar los recursos de transporte y distribución de la información para obtener el máximo partido de la tecnología y permitir, entre otras cosas, aumentar la productividad. Hay dos tendencias en las redes de teñecomunicación que pueden parecer aparentemente contradictorias. Por una parte, se tiende a la centralización y unificación de los recursos para aprovechar las ventajas tecnológicas y de economías de escala del cloud, pero por otra, las redes de acceso han de evolucionar y tener cada vez más densidad y cercanía al origen donde se genera la información para recolectarla y en algunos casos también preprocesarla. En realidad, las redes se están preparando desde hace tiempo para soportar estos requisitos y actuar como nexo de unión con la nube.

Hay dos tendencias en las redes de telecomunicación que pueden parecer aparentemente contradictorias

El transporte de la información. En el nivel de transporte, las redes se están adaptando de diversas maneras. Por un lado, algo que era de esperar, aumentando su capacidad, de tal manera que ahora hablamos de troncales que utilizan múltiplos de canales de 100 Gbit/s. Pero también, integrando funciones de control que, de alguna manera, se habían dejado en mano de niveles superiores.

Las redes de transporte óptico (en inglés Optical Transport Network, OTN) recuperan las funciones que tenía la Jerarquía Digital Síncrona (SDH) en cuanto a facilidades de monitorización y supervisión de la calidad de servicio extremo a extremo que, de alguna manera, se habían perdido en las redes basadas en multiplexación de longitudes de onda (WDM) que fueron diseñadas inicialmente para obtener el máximo rendimiento de la fibra óptica y que añaden también la capacidad de realizar la conmutación a nivel óptico (OADM, OXC) mediante un plano de control, que utilizando el protocolo GMPLS automatiza esas funciones.

En el nivel inferior, más cercano a la capa física, las tecnologías de separación del espectro óptico y los sistemas coherentes que están desarrollando algunos fabricantes permiten a las empresas y proveedores de servicio multiplicar la capacidad de la fibra óptica hasta varios terabits por segundo y construir redes privadas virtuales simplificando enormemente la gestión de la red, reduciendo la latencia provocada por los propios equipos de transporte. Al contrario de lo que se podría pensar, esto es algo que no afecta únicamente a los operadores, ya que tiene mucha importancia, por ejemplo, para las transacciones de bolsa automatizadas.

La importancia del acceso y la ubicación de los datos. Sin embargo, aunque el aumento de capacidad en las redes y en la “nube” puede sugerir que las distancias entre las aplicaciones y los usuarios ya no importan, hay tres escenarios o situaciones en las que esto es discutible. La primera, de índole técnico, es que hay, y parece que siempre habrá, aplicaciones sensibles a la latencia por su propia naturaleza y el tiempo de propagación no se puede acortar fácilmente o, al menos, de forma significativa, porque la distancia siempre será una constante inevitable. La segunda, tiene más que ver con razones de coste y adecuación, y es que siempre habrá ubicaciones que, además de estar más alejadas que otras, tendrán mayores costes de conexión por motivos de competencia, o simplemente por disponibilidad de infraestructuras. La tercera, es de índole legal y tiene que ver con los requisitos (cada vez más importantes, como hemos visto recientemente con la polémica entre las autoridades de la Unión Europea y ciertas empresas norteamericanas) que tienen que cumplir los datos y que hace obligatorio que se pueda elegir la ubicación concreta donde estos se depositan y con ello las leyes que resultan aplicables.

Frente a la aproximación monolítica de la gran nube y los usuarios o utilizadores distribuidos geográficamente, la tendencia será quizá la construcción de un conjunto de nubes más o menos inteligentes que se comunicarán entre sí, que estarán ubicadas lo más cerca posible del usuario (o en su propio bolsillo o ubicación geográfica) y que optimizarán el uso del ancho de banda y las comunicaciones teniendo en cuenta la naturaleza de las aplicaciones, siendo capaces de distinguir qué información se puede procesar de forma local y qué parte ha de enviarse o recibirse de otras nubes, minimizando la intervención humana o manual.

Las redes y el cloud 2.0 eliminan fronteras. No es necesario pensar en un futuro demasiado lejano para verificar el tremendo impacto que la combinación de las redes y cloud computing está teniendo en la forma en que hoy mismo diseñamos nuestras aplicaciones y adquirimos y utilizamos estos servicios (o deberíamos hacerlo) sobre todo si decidimos pensar más allá de la replicación de lo que ya conocemos cuando llevamos a cabo esta tarea. La frontera entre mi red de área local (LAN) y la red de área extensa (WAN) del proveedor de servicios está cada vez más difuminada y tiende a desaparecer, como veremos a continuación, pero es necesario tener en cuenta algunos factores.

Hasta ahora estamos acostumbrados, aunque sea indirectamente, a ser los propietarios de los equipos de la LAN y de los recursos informáticos ubicados en nuestro CPD u oficina (servidores, switches, centralitas, etc.) Es decir, que están bajo nuestro control y se consideran activos de la empresa, aunque se deprecien rápidamente. Por otra parte, lo habitual es que el Proveedor de Servicios, si necesita instalar equipamiento en estas ubicaciones, lo haga como parte de la infraestructura necesaria para prestar el servicio y que sea de su propiedad. Es decir, que nosotros lo consideramos un coste y como tal, cuanto mayor sea el volumen de servicio consumido, normalmente mayor será el precio a pagar. El cloud no ha hecho más que empeorar esta situación, porque el pago por uso, que puede ser una ventaja en algunas circunstancias, puede causar que muchas empresas averigüen lo que han de pagar… cuando les llega la factura.

Primera anotación a la hora de contratar servicios: costes predecibles.

En mi LAN normalmente no tengo que preocuparme por el ancho de banda. Y si existen cuellos de botella, como se trata de mi infraestructura, las ampliaciones corren de mi cuenta. Sin embargo, si he de salir al exterior, lo normal es que el caudal contratado en la WAN sea menor, porque he de pagar por él a mi proveedor. Esto ha cambiado de forma radical últimamente ya que las aplicaciones a las que tienen que acceder los usuarios de forma continua, ya no están en mi LAN… sino en la nube. Si desde un punto de vista técnico, las empresas ya pueden disponer de conexiones homogéneas entre la LAN y la WAN, de 1 Gbit/s, 10 Gbit/s o incluso 100 Gbit/s y desde un punto de vista económico nunca ha tenido sentido pagar por la transferencia de información desde mi LAN a mis servidores. ¿No sería un retroceso que ahora con el cloud deba preocuparme por el ancho de banda que consumen mis usuarios o mis máquinas?.

Segunda anotación: No quiero adaptarme al cloud, quiero que se adapte él a mis necesidades.

Por otra parte, aunque dispongamos de ancho de banda abundante y a un precio razonable, en la red de mi empresa (y aquí incluimos cloud como extensión natural de la misma) siempre habrá que distinguir el tratamiento que reciben unas aplicaciones sobre otras en la red. Quizá a los usuarios domésticos en su domicilio les baste con saber que su nueva conexión FTTH les ofrece muchos megabits por segundo a bajo precio para ver películas y usar redes sociales, pero yo necesito estar seguro de que las sesiones de videoconferencia no interfieren en el CRM o en el ERP, porque que todo el mundo ha de poder trabajar a la misma hora y facturar a tiempo sigue siendo importante. Es decir, que es necesario mantener -extender- las diferentes calidades de servicio (QoS) a la nube, porque la actividad de la empresa no puede depender de la calidad de la conexión a Internet del proveedor de cloud, de la de mi empresa… o del proveedor o proveedores intermedios que unen ambas redes y con los que no tengo contrato ni SLA alguno.

Tercera anotación: “Una red para gobernarlos a todos”.

Por último, hay un punto decisivo a tener en cuenta si formo parte de una empresa con cierta historia, no de una de las llamadas nativas digitales… en caso de no haber migrado a la nube todos mis sistemas, los equipos que mantengo en mi oficina o CPD ¿cómo se integran en el cloud cumpliendo los requisitos expresados anteriormente?. Además, puede que mi objetivo sea trasladar a la nube todo lo que sea conveniente pero posiblemente tenga que contratar a varios proveedores de cloud y prever que estos puedan cambiar a lo largo del tiempo o que tenga que revertir algunas situaciones y devolver a mi CPD ciertas aplicaciones. ¿Cómo puedo asegurarme de poder mantener el control en todo momento?

La respuesta es más sencilla de lo que parece y la tecnología ya lo permite: integrando todo en mi red. Una solución de servicios bien diseñada ha de poder permitir al administrador de sistemas definir y particionar las redes que soportan las aplicaciones de la misma manera que lo podía hacer cuando era el propietario de las infraestructuras, pero con las ventajas de la automatización mediante un API, aprovechando las facilidades de la virtualización de los componentes de la red y la distribución geográfica de los contenidos. Para eso existen las tecnologías como SDN en las redes y NFV en los elementos que las componen.

El objetivo no es otro que poder aprovechar las ventajas inherentes de cloud computing y de las redes de última generación sin ser propietarios de los activos, pero no por ello debemos renunciar a la propiedad de los datos, a poder acceder en cualquier momento a estos y a las aplicaciones y a saber y elegir dónde están ubicados, porque seguimos siendo responsables de ellos.

Compártelo

Noticias relacionadas

Escrito por Redacción Byte TI el 25 junio, 2019 en Actualidad TI

AWS anuncia AWS Security Hub y AWS Control Tower

Escrito por Redacción Byte TI el 22 mayo, 2019 en Actualidad TI

Ávoris traslada sus sistemas de gestión a la nube con Linke

Escrito por Redacción Byte TI el 8 mayo, 2019 en Cloud Computing

AWS Summit Madrid muestra la realidad del cloud

Escrito por Redacción Byte TI el 2 abril, 2019 en Cloud Computing

Mutua Universal apuesta por la firma digital en nube de SIA

Comentarios

No hay comentarios.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Debes haber iniciado sesión para comentar una noticia.