La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

data center, centros de datos

Un data center para gobernarlo todo

El centro de datos, aunque quizá no tiene tanto marketing detrás como otras tendencias del mundo TIC, está en constante evolución. Ya se habla incluso de los data centers de cuarta generación que serán dependientes de Edge. Pero, ¿cuál es la situación actual del data center? En la nueva era de transforman digital, los centros de datos demandan un entorno centrado en las aplicaciones distribuidas y redes más abiertas y programables, con el fin de simplificar y automatizar las operaciones y transformar las TI en un activo capaz de responder a las cambiantes necesidades de los negocios. Tal y como asegura Gabriel Maestroarena, Responsable de Desarrollo de Negocio para Data Center en Cisco, “los data centers deben acceder a los recursos y servicios de TI ubicados en cualquier Cloud -ya sea público, privado o híbrido- para lo que se necesita una herramienta capaz de mover los recursos, datos y aplicaciones entre nubes privadas o híbridas (software de administración de carga de trabajo) de forma transparente y segura. Es así como los modelos tradicionales de data center basados en silos que han proliferado en las últimas décadas requieren un modelo operativo común entre los equipos de aplicaciones, redes, seguridad y Cloud, con el fin de simplificar las operaciones, proporcionar agilidad y garantizar el rendimiento y la seguridad”. Por su parte, Galo Montes, Director de Innovación de HPE España afirma que «los centros de datos están en una profunda transformación ya que han pasado de ser en gran medida entidades aisladas e independientes que trabajan en paralelo con su respaldo, aparte de un ecosistema que convive con el Cloud y los micro data centers que generará la necesidad creciente de computación en el extremo».

Actualmente, el centro de datos necesita seguir evolucionando. Las organizaciones, en muchos casos, se están reinventando para afrontar los retos de esta nueva era digital. La innovación va más allá de la tecnología y es necesario encontrar el equilibrio entre la tecnología existente y las nuevas tecnologías. Este proceso de transformación impacta tanto en la tecnología, en el negocio, las personas y en los procesos. Para Ana Rocha de Oliveira, Business Development Manager, Cloud, de Red Hat, “nosotros entendemos que esta evolución se asienta en tres pilares: en el primero podemos observar que es fundamental hacer convivir las plataformas actuales con las plataformas nuevas de cloud. Para ello, es necesario entender cómo modernizar lo existente y adoptar la nueva infraestructura basada en cloud, ya que «el negocio de hoy no puede parar». En el segundo, vemos que la adopción gradual de arquitecturas modernas, como Devops, agile y microservicios, permiten nuevas formas de desarrollar, integrar y entregar las nuevas aplicaciones. Todo ello basado en estándares abiertos. Por último, y para nada menos importante, encontramos las personas y la necesidad de cambios culturales. Como decía anteriormente, la tecnología no es todo y la colaboración, las nuevas metodologías de trabajo y cultura de las empresas ha de adaptarse a esta nueva era, para impulsar la innovación. Las personas han de sentirse que su contribución aporta valor al negocio”.

Ya se habla incluso del data center de cuarta generación que serán dependientes de Edge

La evolución del centro de datos es la principal característica de este mercado. Y no, no se trata de una tendencia: más bien es una realidad. Y, como decíamos, aunque el centro de datos es el anillo que gobierna al resto de elementos que conforman la amalgama de productos, soluciones y servicios de las tecnologías actuales, éstas hacen que a los CPDs no les quede más remedio que adaptarse a las nuevas exigencias. Big Data, Internet of Things, el impulso de los grandes proveedores de nube pública o la cada vez mayor implantación de entornos híbridos están llevando a los centros de datos hacia nuevos retos relacionados con la capacidad de procesar, almacenar y gestionar; pero sobre todo de interconectar un tráfico cloud en constante crecimiento. Alta densidad de potencia y la mejor conectividad son en la actualidad las variables que marcan la situación de los centros de datos. Tal y como afirma Robert Assink, Director General de Interxion España, “esto es algo que está afectando en distinta medida a los centros de datos corporativos y a los profesionales (o de colocation). Los primeros tendrán que ser capaces de adaptarse, teniendo en cuenta que las necesidades de potencia eléctrica e interconexión irá a más. Mientras, que los de colocation se han convertido en la mejor opción para conectar a las empresas a las nubes públicas de forma directa y segura ofreciendo una flexibilidad no siempre al alcance de los centros de datos corporativos”.

La realidad es que como afirma Samuel Bonete, country manager de Netskope, “los CPD siguen creciendo en número y en recursos, si bien actualmente los centros de datos están cada vez más deslocalizados, y en la mayoría de los casos emplazados fuera de las empresas. El consumo de soluciones cloud en alguno de sus sabores (IaaS, PaaS y SaaS) está produciendo esa deslocalización de la información a infraestructuras, o datacenters, no operados por las propias empresas. A día de hoy se estima que más de una tercera parte de los datos de una empresa están ya almacenados en cloud”.

Retos del nuevo data center

El data center, por tanto, se enfrenta a varios retos. El aumento en los volúmenes de datos, impulsado en gran medida por los dispositivos conectados, está provocando que las organizaciones estén evaluando sus infraestructuras de TI para satisfacer unas exigencias cada vez mayores de los consumidores. Sergio García, IT Senior Product Manager de Huawei cree además que “aparte de permanecer seguros y robustos, han de ser ágiles y flexibles para poder ofrecer una respuesta rápida y afrontar las demandas de nueva capacidad de infraestructura. Cada vez más empresas exploran el camino de usar Infraestructura como servicios (IaaS, por sus siglas en inglés) y los Data Center tienen que estar preparados para dar servicios a esta nueva demanda sin olvidar los servicios tradicionales aportados por el Data Center”.


También te puede interesar:

– Programas para gestionar el Data Center

– Tendencias en el nuevo centro de datos

– El Data Center del futuro es híbrido


Además, a medida que las aplicaciones de negocio se distribuyen entre centros de datos locales, nubes privadas y nubes públicas, multi-cloud se convierte en la nueva norma para el centro de datos. En este contexto, los departamentos de TI deben aprovechar al máximo los entornos de aplicaciones multi-cloud para responder a las necesidades de negocio. Tal y como señala el portavoz de Cisco, “para tener éxito con las estrategias multi-cloud se requiere un enfoque integral o convergente de la infraestructura del data center (computación, almacenamiento, redes y seguridad) que gestione la evolución de las aplicaciones, la proliferación de cargas de trabajo distribuidas y la creciente complejidad de la administración y las operaciones de TI. Para adaptarse a los nuevos modelos de consumo de TI -como la nube y TI como un servicio (ITaaS)- la infraestructura del centro de datos debe ser modernizada, abierta y altamente automatizada. Además, dicha infraestructura debe beneficiarse del control y de la gestión basados ​​en políticas, así como de la analítica en tiempo real. Y todo ello a través de entornos multi-cloud para garantizar que las políticas se apliquen de forma coherente, segura y uniforme”.

Los retos son varios, de tal forma que la lista de elementos a los que se enfrenta el data center es larga. Galo Montes, director de innovación de HPE resume cuáles son los principales:

  • La computación en el extremo crecerá exponencialmente en los próximos años y la aparición de micro data centers trabajando en paralelo con data centers centrales, tendrá que ser lo suficientemente ágil, flexible y fácilmente gestionable para no convertirse en una pesadilla.

  • En línea con lo anterior, la automatización será clave. Los días en que se configuraban todos los elementos de forma aislada están acabando, por ello es necesario que todos ellos sean configurables vía API.

  • La explosión de los datos derivado de la proliferación de multitud de dispositivos que se despliegan o interactúan con la empresa, hace que las redes de los data centers crezcan de forma importante, ya que moverlos de forma ágil y segura es clave. El aumento de la velocidad de los enlaces internos están siendo ya un hecho.

  • Asimismo, dicha explosión de datos tiene un impacto crítico en los sistemas de almacenamiento. Cada tipo de dato y la forma en que se procesa, hace también necesario dotar de distintas soluciones de almacenamiento que sea eficiente para cada uno de ellos, siendo difícil cubrirlo con soluciones monolíticas o genéricas.

  • Finalmente el procesamiento del dato, para obtener el máximo rendimiento del mismo a través de técnica de big data, hace que los sistemas de computación intensivos se despliegue de forma genérica. Siendo éstos grandes consumidores de recursos que es necesario cubrir (electricidad, espacio físico, refrigeración,..)

La eficiencia energética es también uno de los principales retos a los que se enfrenta el centro de datos. Por un lado afecta a la sostenibilidad ambiental y por otro, directamente a la cartera de las empresas. En este sentido, Javier Gallego, Seles Engineer Senior Manager de Dell-EMC cree que los retos a los que se enfrenta el centro de datos se pueden resumir en dos: “eficiencia energética y eficiencia operacional. En el primer caso las compañías deben considerar el coste total de un activo, esto es, no sólo su compra sino la huella que supone en su centro de datos y la energía y dinero necesario para alimentarlo y refrigerarlo. Realizamos estudios de modernización de las infraestructuras existentes donde en muchos casos demostramos de forma empírica que la renovación de su infraestructura de cómputo, redes o almacenamiento tiene un retorno de la inversión inferior a un año. La gestión del ciclo de vida de los activos de un centro de datos y la automatización de los procesos de puesta en marcha, evolución y retiro es una segunda área donde ayudamos a nuestros clientes a mejorar sus costes operativos reduciendo riesgos de no disponibilidad”.

Uno de los mayores retos es sin duda, la capacidad que tengan las empresas para modernizarse y adaptarse a un futuro incierto. En este sentido, tendrán que optimizar el IT existente en su centro de datos, de manera que siga aportando valor, integrando los sistemas, recursos y prácticas tradicionales, con los nuevos. Crear infraestructuras y servicios cloud, exige arquitecturas escalables y elásticas, basadas en estándares abiertos (evitando a toda costa las soluciones propietarias «lock-in»). Hay que tener en cuenta, que actualmente existen muchos silos, es decir, la incapacidad de algunas empresas para trabajar eficientemente entre las distintas áreas o unidades de negocio, y tecnologías como la automatización o el uso de contenedores contribuyen enormemente para una infraestructura de IT ágil y preparada para el futuro. La Ana Rocha de Oliveira cree que “las arquitecturas de cloud hibrida abierta son las más idóneas para hacer frente a los desafíos de esta nueva era digital. Para conseguirlo habrá que empezar estandarizando y automatizando los procesos y las tecnologías y adquirir herramientas de gestión y de orquestación que permitan a las empresas, gobernar todo su TI desde un único punto. De esta manera, se consigue dar respuesta a la demanda del mercado, a través del desarrollo de nuevas aplicaciones. Al modernizar la infraestructura existente y permitir obtener los beneficios de las nuevas arquitecturas de cloud, las empresas se «moverán más rápidamente». Adicionalmente, destaco que el cambio cultural permitirá soportar estas nuevas formas de trabajar y contribuirá a retener y atraer, el talento”.

Para el portavoz de Interxion, las tendencias que afectarán al centro de datos se pueden resumir en tres:

– crecimiento del modelo de colocation, es decir, alojar la infraestructura TI en centros de datos profesionales con múltiples opciones de conectividad y alta disponibilidad de potencia eléctrica. Para las empresas es más eficiente operar su IT desde un centro de datos profesional, que construir uno propio, no solo por la mayor rentabilidad sino también por las mejores opciones de conectividad.

– los centros de datos hiperescala, impulsados por los grandes proveedores cloud como Google, Amazon, etc. donde es imprescindible contar con infraestructura que soporte grandes requisitos de supercomputación, almacenamiento y análisis de datos. Según un informe de Synergy Research, 2017 ha cerrado con 390 centros de datos hiperescala en todo el mundo, 90 más que en 2016 y se prevé que para finales del año que viene haya más de 500 a nivel mundial.

– y el Edge Computing, es decir, ubicar cerca del usuario esos centros de datos que permitan mejorar la entrega de contenido.

La nube

Uno de los elementos clave en el desarrollo de este nuevo centro de datos es la nube. Y dentro de la nube, parece que es la nube híbrida la que se va a llevar el gato al agua y el camino que eligen la gran mayoría de las organizaciones. En este sentido, la portavoz de Red Hat considera que “En un mundo dónde el «everything as a service» empieza a cobrar mayor importancia, la cloud (sea pública o privada) ofrece la capacidad de escalar en picos, la elasticidad y consecuentemente la agilidad. A la hora de decidir o elegir una cloud privada, es necesario tener en cuenta una serie de factores (desde la posibilidad de que determinadas aplicaciones sean aptas para entornos cloud (i.e. «cloud enabled»), a la criticidad o confidencialidad de los datos). Recomendamos un análisis detallado de esas aplicaciones existentes y de las expectativas de desarrollo de nuevas aplicaciones, para medir la masa crítica prevista, entre otros factores, para la toma de decisión a la hora de optar por la cloud pública o privada. Un análisis económico habrá que llevarlo a cabo, teniendo en cuenta todo tipo de costes ocultos y los beneficios esperados, para que realmente se pueda valorar el uso de un tipo u otro de cloud. Adicionalmente, comentar que cada vez más se observa un interés en la multicloud pública, permitiendo una total libertad en la elección de la cloud que mejor se adapte en cada momento, a las necesidades del negocio”.

La migración a la nube por parte de las empresas, es un elemento esencial en el debate que afecta al data center y no siempre se hace bien. Sergio García de Huawei afirma que “hay que ir caso a caso. Hay empresas que si pueden ir 100% y otros que tiene que adoptar modelos de cloud híbridos. En cualquier caso,la migración o el comienzo de una empresa que use servicios en cloud, obliga al data center a dar una respuesta rápida y a ser flexible a la hora de proveer los servicios en cloud”. Galo Montes de HPE da unas claves de lo que sucede en torno a la migración a la nube. En su opinión, “El Cloud es una solución que ha cambiado desde hace años la concepción que tenemos de los data centers. Es una solución para determinados casos de uso, pero no se puede aplicar de forma generalizada. Para una correcta migración al cloud, vemos que hay que realizar un análisis exhaustivo de los sistemas actuales y una previsión de necesidades futuras, para en base a estos datos evaluar las alternativas de despliegue (local, hibrido o Cloud) y los modelos de pago que uso que ofrecen los distintos proveedores. Con todo, ello tomar la mejor decisión. Nos hemos dado cuenta, que en muchos casos los modelos anteriores no se evalúan bien y se hacen despliegues precipitados en el Cloud que al final terminar saliendo más caros”.

Desde Cisco se asegura que las organizaciones necesitan una gestión escalable y consistente (con políticas comunes) a través de sus data centers y nubes públicas y privadas, y mover las cargas de trabajo y aplicaciones de forma transparente. El reto es superar el ‘cloud gap’ para adaptar las necesidades de negocio con las TI, incluyendo:

  • Redes preparadas para el Cloud

  • Portabilidad de aplicaciones

  • IT as a broker

  • Automatización del data center

  • Seguridad multi-cloud

  • Entornos DevOps y contenedores

Finalmente, Francisco García director de operaciones de EinzelNet asegura que “el proceso de migración en el data center no es muy diferente de cualquier otro, añadiendo el condicionante de que previamente es necesario evaluar, con detalle, qué procede migrar, a qué coste y cómo se va a convivir con la plataforma tradicional”.

Tendencias

El centro de datos va a seguir evolucionando. Algunos fabricantes, como es el caso de HPE, tienen claras cuáles van a ser las principales tendencias que afecten a este mercado. En este sentido Galo Montes cree que es importanrte señalar las siguientes:

  • Como principal tendencia vemos que nuestros clientes necesitan soluciones de data center híbridos, que permita de forma unificada gestionar todo el entorno, abstrayéndose en la mayor medida posible de la complejidad inherente de si los recursos son locales o el Cloud. Por ello, el gran esfuerzo de desarrollo que está haciendo HPE en Onesphere para alcanzar dicho objetivo a corto plazo.

  • La automatización vendría a ser la segunda gran necesidad. El número de sistemas crece, y disminuir la complejidad de la administración es muy crítico. Todos los sistemas y la infraestructura debe ser orquestable, para que con pocos pasos conseguir configurar de forma adecuado todos los elementos. Por ello, HPE ha realizado un esfuerzo muy fuerte desde hace años en crear infraestructura componible, que cubra estas necesidades de forma sencilla. Un ejemplo de este tipo de infraestructura, con gran éxito en el mercado, son los HPE Synergy.

  • En cuanto a las redes, las tendencias van encaminadas en dos sentidos. Primero en dotar de enlaces cada día más rápidos, generalizándose 40G y 100G tanto en el acceso de los servidores como en la interconexión de los elementos de red. Y en segundo lugar, las redes se deben poder orquestar también, con lo que las redes definidas por software son un hecho en muchos data centers.

  • En cuanto al almacenamiento, hay también dos tendencias claras. Para el acceso rápido de datos, los sistemas All-Flash están liderando la transformación de este tipo de entornos ayudados por una bajada del coste de los discos de estado sólido. Y para el almacenamiento masivo, pero con no tantas necesidades de velocidad, sistemas masivamente escalables (scale-out) basados en servidores estándares en los que el coste por giga es mucho más reducido.

  • En computación orientada a procesamiento de datos masivo y big data, hace que aparezcan en los data center entornos no tan comunes anteriormente que hay que gestionar. Así sistemas de procesamiento basado en memoria, como el HPE superdome flex, o entornos basados en GPUs (HPE Apollos 6500), etc… los cuales requieren de una planificación adecuada para poder integrarse.

  • Finalmente, como paradigma para obtener lo mejor de los entornos híbridos, los modelos en pago por uso están creciendo y serán cada día más generalizados. Permitiendo desplegar soluciones en los propios data center de forma que solo se page por el uso que se hace de las mismas. Teniéndose además la posibilidad de escalar o decrecer de forma rápida y sencilla. Un ejemplo claro es el HPE Greenlake.

El papel de la red

Las mayores áreas de crecimiento en el mercado del data center están en instalaciones a hiperescala (por lo general proveedores de colocation o de servicios en la nube) y en el edge. Con el crecimiento de los recursos de colocation y de la nube, los operadores de centros de datos tradicionales tienen ahora la oportunidad de reconfigurar sus instalaciones y recursos que siguen siendo críticos para las operaciones locales.

Las organizaciones con varios centros de datos seguirán consolidando sus recursos informáticos internos, probablemente transfiriendo lo que puedan a la nube o a centros de colocation, a la vez que reducen el tamaño y aprovechan configuraciones de rápida implementación que puedan escalar rápidamente. Estas nuevas instalaciones serán más pequeñas, pero más eficientes y seguras, con alta disponibilidad y coherentes con la naturaleza crítica para la misión de los datos que estas organizaciones buscan proteger. En este aspecto, la red juega, por tanto un papel fundamental. Gabriel Maestroarena de Cisco asegura que “se necesitan redes capaces de auto-adaptarse a las necesidades de negocio (intent-based networking). Es lo que Cisco ofrece con ACI Anywhere, nuestra oferta SDN que permite incrementar la agilidad de negocio mediante capacidades de automatización de red, gestión simplificada y seguridad reforzada. ACI interpreta la intención de las aplicaciones para traducirla y activar esas políticas a través de la red. Estas funcionalidades pueden aplicarse a cualquier combinación de cargas de trabajo en contenedores, máquinas virtuales o entornos bare-metal tanto en data centers on-premise como en nubes privadas. Además, con el reciente anuncio de Cisco DNA Center platform -que ofrece APIs abiertas para que los desarrolladores puedan innovar con la plataforma-, ACI pronto se integrará con Cisco DNA Center, el cuadro de mandos que gestiona las redes basadas en la intención”.

Otro de los jugadores principales en el papel de la red es HPE. En este sentido, Galo Montes asegura que desde HPE,  «vemos claramente que las redes definidas por software son realmente la tendencia futura de todo data center. Permite minimizar los recursos para administrarlas y permiten una gran automatización, así como mayor seguridad»

Consolidación

Uno de los problemas que afectan a los centros de datos se refieren a la consolidación. Y es que a medida que se va creciendo y escalando, el data center se va volviendo cada vez más ineficiente. Por eso es fundamental la realización de una correcta consolidación. La infraestructura convergente ayuda a que esta consolidación se realice de forma eficiente.

Porque el problema viene determinado porque muchas empresas siguen considerando al centro de datos como una sala apartada en la que se concentran numerosos servidores sin conocer que cada vez que añade un nuevo servicio en el centro de datos es como si implantara un nuevo órgano que necesita ser vigilado. Y es que al Data Center se le añaden cada vez más complejidad para reducir la flexibilidad de modo inverso. Se convierte así en una torre de naipes que puede provocar un auténtico caos en la empresa. Por este motivo la infraestructura convergente es tan importante. Para el portavoz de Cisco, “gracias a plataformas convergentes (unifican la computación, las redes, el acceso al almacenamiento y toda la gestión en una única plataforma, como Cisco UCS) de alta densidad y sistemas hiper-convergentes como Cisco HyperFlex. Estos sistemas permiten reducir la complejidad de la infraestructura del centro de datos, aumentar la eficiencia y la agilidad de negocio y reducir los costes operativos. Pero, para que sea verdaderamente efectiva, la solución de hiperconvergencia debe tener un elevado nivel de automación y de gestión, combinando la simplicidad y la escalabilidad de la nube pública pero aplicada a los CPDs”.

En cuanto a la gestión del data center, juega un papel importante la automatización. En este sentido, Ana Rocha de Oliveira cree que “ la automatización, contribuye, sobre todo, a la estandarización de procesos, a la agilidad y a la seguridad. Al eliminar las tareas repetitivas, las personas podrán dedicarse a tareas de mayor valor y al minimizar el error humano se obtiene una mayor seguridad. También muy importante es la trazabilidad que puede permitir la automatización y consecuentemente su auditoria y seguimiento (dependiendo de las herramientas utilizadas, para el efecto)”.

 

https://www.revistabyte.es/comparativa-byte-ti/software-para-la-gestion-del-data-center/

Deja un comentario

Scroll al inicio