La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

Portada Revista Byte TI 224, Febrero 2015

La rápida evolución del almacenamiento

Uno de los principales cambios de este mercado viene por las las soluciones de almacenamiento en la nube: ya no es necesario tener grandes equipos en las empresas para guardar la totalidad de los datos. Se trata por tanto, de un mercado en constante evolución y con cambios que se adpatan perfectamente a las necesidades de las organizaciones. Gracias a esta constante evolución, las tendencias, también son múltiples. ¿Por dónde irán esas tendencias? Para Sara Martínez, jefe de producto de soluciones de almacenamiento Flash de HP “en 2015 se extenderá la virtualización de  forma horizontal y abarcará múltiples sistemas de almacenamiento, que pueden estar a una distancia geográfica metropolitana en el caso de bloques, y a grandes distancias globales en el caso de los sistemas de almacenamiento de archivos y de contenido, creando máquinas de almacenamiento virtual que presenten un pool de recursos de almacenamiento virtual que abarcan múltiples sistemas de almacenamiento físico. Por otro lado,  otro concepto clave será la “TI definida por Software” que supondrá un paso hacia la simplificación y la automatización de la infraestructura de TI. Si bien el software puede mejorar la tecnología, en el hardware los resultados estarán limitados por la infraestructura de hardware subyacente. Además, se reemplazarán los dispositivos de estado sólido diseñados para el mercado del PC básicos por módulos flash empresariales optimizados con la capacidad de procesamiento empresarial en lo que hace a performance, durabilidad y capacidad”. Por su parte Tomás García, Director de Almacenamiento de IBM cree que “Una de las tendencias más destacadas es la de almacenamiento en entornos definidos por software –Software Defined Environment (SDE)–, que permite a una organización prestar servicios de TI de la forma más eficiente posible. En estos entornos, se optimiza la infraestructura informática, de almacenamiento y de redes, de manera que pueda adaptarse al tipo de trabajo necesario. Otra tendencia imparable, máxime con la expansión de Big Data, es el almacenamiento en Flash, que proporciona una mejora de rendimiento exponencial frente a los discos tradicionales, reduciendo los tiempos de respuesta a microsegundos en lugar de milisegundos en los discos mecánicos, al tiempo que ofrecen un significativo incremento de densidad de almacenamiento”.

Básicamente las tendencias se reducen ofrecer soluciones para para reducir el coste del almacenamiento de datos, aumentar la productividad y simplificar la gestión para las pymes. En cuanto a soluciones y productos este año que acaba de empezar estará marcado por la evolución de la segunda a la tercera plataforma continúa marcando la redefinición de las  estrategias de TI y por tanto de las soluciones de almacenamiento. Estrategias de nube híbrida, Flash en todas partes, Infraestructuras Hiperconvergentes y soluciones de Almacenamiento Definido por Software aportan a los responsables de TI la flexibilidad y agilidad que necesitan para ajustar costes, facilitar IT como servicio y contribuir al incremento de beneficios para el negocio.

La influencia de Big Data

La confluencia de tecnologías de Big Data, sociales, móviles y cloud está haciendo que las empresas demanden mayor rapidez y eficacia en el acceso a información de negocio y el almacenamiento Flash lo hace posible. Esta clase de almacenamiento significa acceder más rápidamente al conocimiento derivado del Big Data a través de la nube o, más concretamente, proporcionar un acceso más rápido a la información en implantaciones cloud a gran escala mediante la virtualización y la compresión en tiempo real. La clave de Big Data es extraer valor de toda la información que esté al alcance de la organización. Por este motivo, para que el funcionamiento de las aplicaciones analíticas sea óptimo, es fundamental que los sistemas de almacenamiento estén bien alineados y “se entiendan” con ellas. En cuanto al mercado, consideramos que cada vez es más maduro y demanda este tipo de soluciones que, combinadas, generan valor y oportunidades para el negocio. En opinión de Manuel Vidal, director de Preventa de Sistemas de Oracle, “el fenómeno Big Data está teniendo un impacto muy profundo y que va mucho más allá de almacenar grandes volúmenes de datos no estructurados, nos referimos a la manipulación del Big Data. Para obtener el máximo valor del Big Data la empresas tienen que innovar en los siguientes aspectos y esto si que está suponiendo una autentica revolución: el primero de ellos es ser capaces de implementar procesos de adquisición de este Big Data de las distintas fuentes teniendo en cuenta las particularidades de cada una. Por otro lado necesitan el análisis del Big Data para enriquecer la información que utilizarán en la toma de decisiones para su negocio y así poder ser más competitivos”. Por su parte, Alejandro Giménez, CTO de EMC considera que “el potencial del Big Data supone una transformación sin precedentes para el negocio, a través del análisis masivo de información, que nos permite articular una nueva generación de inteligencia para el negocio. La tecnología pone a disposición de los responsables de TI nuevas las funcionalidades que este entorno demanda, y que habilitan el desarrollo del ‘Data Lake’ o repositorio que contiene toda la información que el negocio necesita; se trata de acabar con los silos de información incomunicada dentro de la organización, componiendo un repositorio de datos que puede ser utilizado y reutilizado por múltiples departamentos o unidades de negocio. Por tanto, algunas de las características que este ‘Data Lake’ requiere son una escalabilidad sin precedentes, acorde con el volumen de información a almacenar, soporte a cualquier formato de información, estructurada o desestructurada, sean ficheros, documentos, vídeos, o bases de datos así como acceso mediante diversos protocolos que permitan la utilización de los datos por aplicaciones diversas, sean analíticas o no. Estas tecnologías facilitarán de forma sensible el trabajo de los “científicos de datos” al permitirles trabajar de forma eficiente con grandes conjuntos de datos, aportando al negocio nuevos descubrimientos por cruces masivo de información, un valor anteriormente oculto en la estructura de silos de información”.

Y es que, el fenómeno de Big Data, la necesidad de almacenar y procesar cantidades ingentes de información no estructurada, etc., está cambiando el concepto del almacenamiento. Pero aunque el almacenamiento entra en juego, hay que tener claro que Big Data no es almacenamiento. Tal y como apunta Alfredo Gonzalo, Consultor de Soluciones de Almacenamiento de Atos, “Big Data supone contar con cantidades ingentes de sistemas de almacenamiento para guardar toda esa información. Representa también el compromiso de los integradores y fabricantes para adaptarse a las demandas de los clientes para que puedan explotar esa información de forma adecuada. Obviamente, el Big Data se sale del concepto de almacenamiento tradicional cediendo protagonismo a las aplicaciones. Por ejemplo, se pueden tener los datos en un disco pero hay que saber darles un cierto orden, una estructura, para poder explotarlos. Algunos fabricantes quieren incorporar a los sistemas de almacenamiento una serie de herramientas de más bajo nivel que permitan ofrecer esa estructuración. Por su parte, los líderes del mercado de Big Data, que vienen de entornos de software, trabajan para dar esa estructura a los datos que les rodean.  Creo que el fenómeno Big Data ofrece enormes oportunidades de negocio para los fabricantes de almacenamiento facilitando mucha más capacidad”.

Pero lo que está claro es que Big Data está obligando a una gran transformación en las soluciones de almacenamiento, incorporando nuevas funcionales para ajustarse a esta creciente demanda. Como señala Carmen Pérez Casamayor, Product Manager de Almacenamiento de Fujitsu, “Hoy en día nos encontramos en un proceso de transformación, ya que los equipos tienen que conseguir ser capaces de analizar online gran cantidad de datos en un tiempo razonable. Se va hacia soluciones más flexibles capaces de poder ajustarse en cada momento a las necesidades de los negocios. Y por supuesto con una gran escalabilidad para dar cabida al crecimiento incontrolado de datos”.

El valor del software

Uno de los aspectos que más relevancia están cobrando en el mundo del almacenamiento es el denominado como almacenamiento definido por software. La principal ventaja es que permite un balance interesante entre afrontar el crecimiento masivo de la información y el control de los costes. Se trata de una aproximación innovadora a la gestión y automatización, que transforma almacenamientos físicos heterogéneos en una plataforma virtual, simple, abierta y escalable. Como señala la portavoz de HP, “El almacenamiento definido por software es el siguiente paso en el centro de datos virtual en la era de la Nube, con el fin de lograr mayores niveles de eficiencia y agilidad. La virtualización en los centros de datos se vislumbra como una alternativa de gran valor para conseguir grandes niveles de eficiencia, rendimiento, seguridad y productividad dentro de una misma solución tecnológica, sin que esta esté exclusivamente dirigida a grandes empresas o grandes presupuestos”. Las ventajas de implementar almacenamiento definido por software por parte de las empresas son:

–   Reducción de costes: permite obtener nuevos y mejores niveles de utilización de la infraestructura y productividad del personal

–   Mejor rendimiento: Al implementar aplicaciones para una base de datos controlada por software, los procesos podrían llevar minutos e incluso segundos para el aprovisionamiento regido por políticas que adopta de forma dinámica los recursos y los cambios continuos en las cargas de trabajo, además de las propias exigencias de cada negocio.

–  Mejor control: A través de la disponibilidad, de la seguridad y del cumplimiento de la normatividad correctos, la computación, el almacenamiento, las redes y las aplicaciones, entre otros, son gestionados por un software inteligente, ofreciendo la continuidad automatizada del negocio, es decir, el control y la gobernanza regidas por políticas específicas, además de la virtualización que reconoce la seguridad y el cumplimiento normativo.

–  Centro de Datos personalizado: independientemente de que se necesite una nube pública, una privada o una híbrida, el almacenamiento defenido por Software ofrece la infraestructura que permite personalizar su uso, separando aplicaciones para que puedan ser ejecutadas en múltiples stacks de hardware, hipervisores y, por supuesto, nubes.

Por estos motivos, la mayoría de los grandes actores TI se han sumado a la eclosión del almacenamiento por software. La ventaja es que a esta tendencia se pueden sumar no solo los fabricantes de almacenamiento sino también los proveedores tradicionales de software. Se trata de gobernar el hardware y software en su conjunto. Tal y como señala el portavoz de Atos, “el objetivo es ofrecer uniformidad, independientemente de las capas que haya debajo. Un objetivo que ofrece oportunidades a todas las partes, no solo para los fabricantes del almacenamiento, que investigan e invierten en funcionalidad e integración con terceras partes, es decir, con otros fabricantes de almacenamiento, sino también para las empresas de software e, incluso, para los integradores. Todos son capaces de desarrollar herramientas de este estilo, lo que les abre nuevas oportunidades de negocio en un segmento del mercado en el que no estaban”.

Pero este tipo de almacenamiento tiene numerosos frentes. Tal y como señala Rafael Díaz-Guardamino de Dell, “el almacenamiento definido por software puede estar construido en base a una amplia variedad de escenarios; la virtualización de infraestructuras de almacenamiento compartido, almacenamiento interno en los servidores o incluso a entornos híper-convergentes.

En el caso de las soluciones híper-convergentes, las infraestructuras basadas en servidor se fusionan las capas de proceso, red y almacenamiento. Este tipo de arquitectura implica que cada vez más, los fabricantes de soluciones de almacenamiento hagan uso de plataformas x86 basadas en servidores convencionales de clase empresarial para este propósito. Dell contempla una cobertura completa para todos los escenarios, ya sea con entornos más tradicionales o con entornos híper-convergentes con arquitecturas plenamente probadas y soportadas en base a soluciones SDS como Nutanix, Storage Spaces o vSAN”.

En cualquiera de los casos, el almacenamiento definido por software presenta una serie de ventajas comunes a todos los escenarios, entre las que destacan la simplificación de los entornos tradicionales de IT y la mayor flexibilización en el uso de la tecnología, permitiendo salirse de los entornos propietarios y adoptar infraestructuras basadas en estándares. “Tanto para los fabricantes tradicionales como para los nuevos jugadores en el mercado del almacenamiento, esta nueva tendencia implica que los sistemas de almacenamiento han de proporcionar plataformas lo suficientemente flexibles para permitir la integración entre lo actual y lo futuro de manera no disruptiva”, concluye el portavoz de Dell.

La nube

Si hay un elemento que ha influido de forma notable en la evolución del mercado del almacenamiento ese no es otro que Cloud Computing. Desde el nacimiento y popularización del concepto del Cloud, cambia la forma en la que se entiende el almacenamiento. Las empresas empiezan a entender las ventajas de este modelo y los proveedores de almacenamiento comienzan a cambiar sus propuestas para satisfacer las necesidades de sus clientes. Tal y como apunta  Sara Martínez, jefe de producto de soluciones de almacenamiento Flash de HP, “hasta ahora la nube ha entrado muy fuerte en la forma que consumimos almacenamiento, por ejemplo en los datos personales. El peso del almacenamiento es clave, es el CORE, con las tecnologías de OpenStack se tiene que integrar el almacenamiento apoyándose en unos drivers predefinidos. Nosotros con 3PAR nos integramos con todas las iniciativas de OpenStack”. Por su parte, desde IBM afirman que “Cloud es la columna vertebral de todos los avances sucesivos, tal y como ocurrió hace años con la virtualización. La nube es sinónimo de flexibilidad, de personalización de los servicios y de reducción de costes. Sin lugar a dudas, el principal beneficiado es el cliente, que puede optar a un abanico más amplio de tecnologías y a un precio más reducido. Una ventaja paralela es la simplicidad, la sencillez que permite un modelo cloud”.

El Cloud Computing, y más concretamente el Cloud Storage está cobrando mayor relevancia en los últimos meses y probablemente sea una de las mayores tendencias tecnológicas durante 2015. Hoy en día, el almacenamiento en la nube se está abordando de manera parcial en la mayoría de los casos, en lo que denominamos nube híbrida, y únicamente en los casos de externalización completa del centro de datos, el almacenamiento reside íntegramente en el Cloud. Desde este punto de vista, y según afirma el portavoz de Dell, “el hecho de poder llevar parte del almacenamiento a servicios en el Cloud podría percibirse como una amenaza al status quo tradicional, aunque la realidad es otra. Si vinculamos esta tendencia al crecimiento exponencial del dato y a la mayor capacidad para la extracción de información de valor, entenderemos como este tipo de servicios son un complemento perfecto, especialmente para los datos de menor frecuencia de acceso o de criticidad más baja. Para los datos más críticos, se almacenarán en soluciones de almacenamiento de alto rendimiento que nos permita ejecutar nuestras cargas de trabajo más críticas con éxito, muy de la mano de las tecnologías basadas en Flash”.

Así que ante la evolución de la nube y el crecimiento constante del denominado como cloud storage, la pregunta que surge es si las empresas van a seguir almacenando los datos en equipos tradicionales o al final, optarán por llevarlo todo a la nube. Para el portavoz de Oracle, nada más lejos de la realidad. En opinión de este ejecutivo, “el mercado tradicional no desaparecerá, pero evolucionará drásticamente. Siempre habrá organizaciones para los que la información o los datos serán sus activos estratégicos y querrán custodiarlos ellos mismos. Aunque cada vez veremos más organizaciones que deciden hacer uso de la cloud para sus servicios de TI y a medida que estos servicios en cloud se vayan optimizando habrá menos restricciones en las aplicaciones que se puedan beneficiar de la cloud. La clave es no solo pensar en una cloud a nivel de infraestructura sino también a nivel de aplicaciones como está haciendo Oracle”. Por su parte desde la multinacional Synology se afirma que «aunque son más numerosas las ventajas del Cloud que los inconvenientes cuando los comparamos a los sistemas tradicionales debemos seguir teniendo en cuenta algunos aspectos cuando establecemos nuestro sistema de Cloud. La seguridad sin duda es el primero de ellos. Debemos tener cuidado con la gestión de nuestros datos para evitar que los mismos sean hackeados o tengan fallos de seguridad. Es por ello que muchos usuarios se declinan en este aspecto por soluciones de nube pública, donde los datos están hospedados en nuestro propio NAS. Pero no debemos perder de vista que desde el momento que los datos están conectados a internet estamos siempre expuestos en mayor o menor medida al riesgo».

Otros aunque aseguran que cloud no va a obligar a la desaparición del almacenamiento tradicional si afirman que éste va a sufrir una clara transformación. Es en ese punto donde se sitúa Rafael Díaz-Guardamino, que considera que “el mercado tradicional del almacenamiento está destinado, más que a su desaparición, a su transformación. Como prueba de esta transformación, es importante destacar cómo Dell es de hecho el proveedor líder para los principales constructores de servicios de Cloud, gracias a mecanismos que permiten optimizar este tipo de plataformas en base a mecanismos de Tiering, a arquitecturas ultra-densas y a soluciones plenamente certificadas. En cuanto a cómo va a suceder esta transformación, veremos como en los próximos meses aparecerán junto a los tradicionales proveedores, nuevas compañías que presenten soluciones innovadoras acorde a las tendencias del mercado. Si nos planteamos dos horizontes, a corto y a largo plazo, veremos como el Cloud a corto plazo complementará a las soluciones tradicionales en las áreas en donde se prime el coste por TB frente al rendimiento. Por tanto, parece que las soluciones de tipo híbrido serán las que se materialicen de manera más frecuente.Mirando a un plazo más largo, es posible que los servicios que requieran rendimiento puedan alejarse más físicamente de los Centros de Datos de los clientes, pero esto a su vez depende de otros factores como la evolución de los anchos de banda en la red y la securización del medio de transporte. En cualquier caso, las infraestructuras de almacenamiento en cualquiera de sus formas habrán de seguir existiendo a medio plazo, aunque posiblemente, veremos cómo parte de la inversión se desplaza del cliente/usuario final a los proveedores de servicio”. En la misma línea se sitúan en IBM: “Es cierto que sobre el modelo Cloud es sobre el que se están desarrollando e incluso implementando las nuevas cargas de trabajo de entornos analíticos, aplicaciones sociales y de movilidad que están transformando el entorno TI de las empresas. Todas las empresas están interesadas o desplegando ya aplicaciones de este tipo, que han de integrarse con las aplicaciones tradicionales que siguen siendo el motor de muchos procesos de negocio. En cualquier caso no hay que olvidar que dentro del concepto de la nube existen diferentes implementaciones: cloud público, privado, y finalmente híbrido. Por diferentes motivos, muchas aplicaciones “tradicionales” evolucionarán a un modelo de nube privada o incluso híbrida, usando por tanto almacenamiento tradicional, pero con muchos de los beneficios de la nube”.

El problema radica en que son numerosas las empresas que no saben si seguir con sus métodos tradicionales de almacenamiento o pasarse a los entornos cloud. La nube ofrece un menor coste y una mayor escalabilidad, entre otras, así que ¿qué puede ofrecer lo tradicional que no tenga lo novedoso, representado en la nube? El almacenamiento en el Cloud principalmente cubre a día de hoy la capa de almacenamiento orientada a capacidad y a un bajo coste por TB. Cuando hablamos de los servicios de Cloud pública, nos encontramos cómo entre el proveedor de servicios y el cliente, existe una distancia física y unas latencias asociadas a la red pública que impiden alojar las aplicaciones más críticas en almacenamiento en la nube. Esto hace de este tipo de servicios algo no tan interesante para aquellas cargas de trabajo en las que se requiera rendimiento elevado y bajos tiempos de respuesta. Por tanto, en este caso puede tener más sentido el uso de infraestructura de almacenamiento consolidado en casa del cliente. Sí es cierto que gracias a mecanismos de automatización, veremos cómo los estratos inferiores de disco podrán moverse al cloud de manera que podamos implementar soluciones híbridas y beneficiarnos de las ventajas de ambos entornos.

En opinión de Alfredo Gonzalo de Atos, el almacenamiento tradicional no desaparecerá porque “muchas empresas que están deslocalizadas y tienen muchas sedes quieren tener parte del almacenamiento en cada ubicación donde están presentes. La concentración les viene muy bien para adaptarse mejor a las necesidades de producción o a los cambios de negocio. Creo que una parte importante del mercado de almacenamiento seguirá estando en las empresas pequeñas y medianas que quieran tener sus datos en interno y en las empresas muy grandes y deslocalizadas que necesitan parte de esa información en determinadas  localizaciones que no son la central. Es evidente que se está produciendo una transformación donde la parte más visible es la de la concentración. Así, cada vez son más los grandes proveedores de servicios que demandan mucho más almacenamiento para atender las necesidades de almacenamiento que tienen empresas medianas e incluso grandes que han decidido externalizar este servicio. En paralelo, hay muchas empresas que cada vez tienen más datos dentro de sus organizaciones y que no quieren confiar en un proveedor de servicios Cloud, sea el que sea”.

Aunque en general no hablan de desaparición, sí que se apuntan a unas claras señales de evolución en el mundo tradicional. Al menos esta es la opinión de HP: “Está claro que en los últimos tiempos hay una tendencia estrella que es el cloud computing, que representa una nueva forma de entrega y consumo de servicios flexibles, altamente escalables y globales, según un modelo de negocio de pago por uso. Esta tendencia está representando el siguiente peldaño en la evolución de Internet. Hay que reconocer que el mercado del almacenamiento ha evolucionado y que poco a poco unas tecnologías irán dejando paso a otras. Y no debemos ignorarlo porque la tendencia global del almacenamiento de datos en las empresas muestra un crecimiento constante. De hecho, cada seis meses se duplica la cantidad de información generada.Lo que vemos desde HP es que la tecnología flash va en aumento y los discos giratorios de almacenamiento tradicionales irán desapareciendo o siendo reemplazados por tecnología flash. Este tipo de soluciones permiten reducir hasta 10 veces el volumen de almacenamiento en las empresas”, y también la de EMC: “No parece que el mercado de almacenamiento ‘tradicional’ vaya a desaparecer a corto o medio plazo; lo que sí que está haciendo es adoptar nuevas funcionalidades que le permiten integrarse en un entorno de nube híbrida, es decir, que las fronteras entre la nube pública y la nube privada son cada vez más tenues, permitiendo a los clientes planificar y mover cargas a su conveniencia entre ambos entornos. Creemos que el almacenamiento ‘tradicional’ de última generación ha adoptado las características de una nube privada en cuanto a su consumo como un servicio, la forma de gestionarse, la imputación de costes o la interacción con la nube pública. En este sentido, una nube privada (no un almacenamiento tradicional) ofrece ciertas garantías complementarias en cuanto a seguridad y control respecto a la nube pública”.

Gestionar (bien) el dato

Una de las dificultades con las que se encuentran las empresas de hoy día la encontramos en la dificultad de gestionar semejante cantidad de datos. Esta dificultad es mayor en un entorno de cloud computing. En un entorno cloud, o en un entorno de múltiples clouds que pudieran ser compartidos por múltiples usuarios, departamentos e incluso organizaciones, una primera consideración es que los datos han de ser gestionados con independencia de su situación. Esto significa desacoplarlos del hardware en el que pudieran encontrarse, basando los niveles de servicio y seguridad en políticas asociadas a la importancia que dicho dato tiene para la organización.

Así, las expectativas de rendimiento o ciclo de vida, las copias de seguridad, las políticas de gestión de identidades y acceso a la información a los usuarios autorizados, etc. son establecidos con independencia de la localización temporal del dato.

Además, la necesidad de reducir los costes de gestión en un entorno que por volumen y heterogeneidad pudiera ser muy complejo, aconseja que la gestión se base en la automatización, lo que contribuirá a disminuir los riesgos tradicionalmente asociados a las operativas manuales. Las empresas de todos los tamaños cada día tiene más claro que necesitan almacenar sus datos de forma segura y eficiente, ya que son críticos para la buena marcha de sus negocios, pero a la vez tienen que recortar sus presupuestos, ofreciendo nuevos servicios con menos recursos para permitir reducir el TCO y con ello el precio por GB. Los puntos clave para conseguirlo son disponer de sistemas que incorporen las siguientes funcionalidades: Ecológicos para ahorro de energía, garantización de la seguridad del dato, aprovisionamiento inteligente, escalabilidad flexible tanto en capacidad como en prestaciones, recuperación ante desastres… y sobre todo un sistema de gestión sencillo e intuitivo. Está claro que en el contexto actual, las empresas ante todo buscan rentabilidad y simplicidad en sus soluciones de almacenamiento. Una infraestructura que no ofrezca estos beneficios puede perjudicar la capacidad de la organización de tomar decisiones fundadas, así como de prestar el mejor servicio a sus clientes, fomentar la productividad de sus empleados, de cumplir con las normativas o de desarrollar nuevas vías en su negocio. Los entornos de almacenamiento deben evolucionar para hacer frente a los cambios que se producen de forma constante en el mercado y, sobre todo, para hacer frente a la explosión de datos que crece de forma exponencial.

Uno de los mayores problemas del almacenamiento viene cuando se produce un desastre inesperado. En estos casos, en Synology señalan que muchas empresas pierden toda su información y como consecuencia, muchas acaban cesando en su actividad. Cuando un desastre de este tipo alcanza a una empresa sólo alrededor de un 28% se va a acabar salvando, el resto de empresas cesarán su actividad en el momento o en los dos años siguientes. Para poder evitar esto hay que tener un buen sistema de backup y recuperación de datos. «En este sentido podemos decir que las empresas van a tener que tener en cuenta las diferentes posibilidades a la hora de planificación previa al desafortunado hecho de un suceso drástico. Entre estas tendencias nos gustaría destacar la Alta Disponibilidad, es decir, que el servidor pasivo conectado al activo tome el control de la actividad cuando este último falla. En segundo lugar, la recuperación geográfica, es decir si una de las filiales sufre un desastre que otra filial, aunque esté a kilómetros de distancia pueda recuperar su trabajo fácilmente, y por último, la flexibilidad en la recuperación de los datos, porque muchas veces las empresas solo querrán recuperar una parte de los datos y no de todo el bloque», afirman desde Synology.

Desde EMC se asegura que para realizar una correcta gestión del dato lo fundamental es tener en cuenta la seguridad. De esta forma, Alejándro Giménez, CTO de la firma asegura que “hay que dar un valor prioritario a la seguridad, tanto la seguridad física como lógica, garantizar que los datos no se pierden o corrompen así como disponibilidad, están accesibles cuando los necesitamos; La escalabilidad, que nos permite hacer frente a un volumen de información que sabemos muy grande hoy y que es difícil de cuantificar en el futuro. ‘Compliance’, que nos asegura el cumplimiento de las normativas o regulaciones en el uso de unos datos que pueden ser sensibles. Y automatización, puesto que las tareas manuales con costosas y fuente de errores en un entorno en el que la información crece a un ritmo sin precedentes”. Por parte de Dell  la estrategia para la correcta gestión de los datos es clara; proveer soluciones simples, capaces y asequibles que nos permitan alojar el dato adecuado, en el almacenamiento adecuado y al precio adecuado. En otras palabras, el objetivo es conseguir hacer más con menos. El modo de alcanzar esta meta, tiene que ver con la implementación de un ecosistema de soluciones y tecnologías como pueden ser la convergencia, el tiering automático, la virtualización, el Cloud, almacenamiento definido por software, etc. Todas ellas proporcionan en diferente medida mecanismos de ahorro de costes, simplificación y flexibilización de las plataformas”.

Hoy en día se genera una cantidad ingente de datos que es necesario gestionar de una forma adecuada con el fin de poder hacer un buen uso de ellos.

Una correcta gestión de los datos transforma los datos en información útil para que se puedan tomar decisiones mejor informadas. Este conocimiento ayuda a las empresas, organizaciones y grupos a entender mejor a sus clientes y también a su propia organización. En resumen, los beneficios de una correcta gestión de los datos almacenados son:

–          Tomar decisiones basadas en información más fiable

–          Entender mejor a los clientes y ciudadanos

–          Ahorrar costes mediante el incremento en la eficiencia

–          Planificar mejor futuros escenarios

La portavoz de la multinacional HP afirma que “para gestionar los datos es necesario rodearse de las mejores soluciones para sacar el máximo partido de toda la información que está disponible para ser aprovechada y con ello poder obtener los mejores resultados de negocio. Hay que disponer del software más adecuado para la explotación de esa información obteniendo la información más relevante, del hardware que permita tratar con esta información de una forma óptima en resultados y tiempo lo más real posible, y por supuesto de los servicios que ayuden a conseguir todo esto con éxito. Y con HP, es posible”.


Almacenamiento abierto definido por software

El crecimiento repentino del volumen de datos está sobrecargando el almacenamiento basado en hardware, además de los presupuestos de TI. La información, tanto pública como privada, está creciendo a un ritmo incontroladamente rápido. La mayoría de las empresas no están preparadas para gestionar esta cantidad de información y mucho menos para obtener valor de los mismos. Pero no hacerlo puede suponer perder negocio.

A diferencia del almacenamiento tradicional basado en hardware el cual divide la información, dificultando la búsqueda, el acceso y la gestión;  una plataforma abierta definida por software constituye un almacenamiento de datos  diferente. Permite gestionar fácilmente y de forma segura grandes volúmenes de datos estructurados y semiestructurados por mucho menos que con el almacenamiento tradicional. Reduce costes de forma significativa, evita depender de un único proveedor y permite añadir capacidad infinita sin que ello afecte al rendimiento.

Red Hat está liderando el campo en almacenamiento definido por software abierto, para ayudar a construir empresas ágiles que pueden obtener rápidamente una ventaja competitiva al aprovechar el valor tangible escondido dentro de los datos no estructurados.

Las capacidades avanzadas de  las últimas soluciones de  Red Hat Storage 3 están optimizadas para cargas de trabajo empresariales intensivas en datos, incluyendo Big data, análisis operativo e intercambio de archivos empresariales y colaboración. Con sus soluciones de carga de trabajo probadas y validadas, Red Hat Storage Server 3 permite a las empresas conservar datos para aumentar la capacidad de respuesta, controlar los costes y mejorar la eficiencia operativa.

Red Hat está comprometida con la construcción de soluciones de almacenamiento ágiles gracias a la innovación impulsada por la comunidad para fomentar la agilidad en la empresa y responder mejor a las amenazas de la competencia y los cambios en la infraestructura de TI. Basado en el sistema de archivos open source GlusterFS 3.6 y Red Hat Enterprise Linux 6, Red Hat Storage Server 3 está diseñado para escalar fácilmente para soportar petabytes de datos y ofrecer un control granular del entorno de almacenamiento al tiempo que reduce el coste total de almacenamiento.


El almacenamiento definido por software gana enteros

Por Rafael Díaz-Guardamino, Storage Specialist, Dell España

A la hora de decidir qué solución tecnológica implementar en su infraestructura de TI, los CIOs tienden a considerar cinco aspectos principales – la flexibilidad, la agilidad, la escalabilidad, las capacidades de gestión y el precio. La velocidad con la que se mueven los negocios actualmente está provocando la transformación de los centros de datos y la presión para que se produzca ese cambio nunca ha sido mayor. Empresas de todos los tamaños – desde grandes empresas multinacionales hasta pequeños negocios – están cada vez más presionadas para ofrecer aplicaciones y servicios de TI bajo demanda a sus trabajadores, cada vez con mayor movilidad y en constante evolución.

Como complemento a estas tendencias, el almacenamiento definido por software (Software Defined Storage o SDS) está ganando terreno. En particular, las plataformas SDS son la tecnología en la que se basan los Centros de Datos Definidos por Software (Software Defined Data Center o SDDC). El SDS ofrece servicios de almacenamiento automatizado en base a políticas y plenamente integrado a través de la orquestación de la infraestructura de almacenamiento dando servicio al entorno global definido por software. Implementado de forma inteligente, el SDS puede convertirse rápidamente en una solución fiable para aquellos clientes sepultados bajo grandes volúmenes de datos, almacenados en diversos sistemas hardware y software de gran complejidad.

Mientras que el interés por esta tecnología está creciendo, todavía nos encontramos en sus primeras etapas. Por primera vez, IDC mide durante el pasado año el tamaño del mercado para plataformas SDS y, más específicamente, para plataformas ofreciendo SDS en conjunción, aunque sin dependencias, con sistemas basados en plataformas hardware convencionales.

Según IDC[1], el mercado SDS continuará creciendo más rápido que cualquier otro segmento del mercado de almacenamiento, ya sea el basado en archivos o el almacenamiento basado en objetos. Este mercado estará impulsado principalmente por un conjunto rico y diverso de casos de uso a lo largo de múltiples industrias y geografías. Ya que las ofertas de almacenamiento definido por software representan uno de los segmentos de más rápido crecimiento dentro de los denominados Software-Defined, tanto los nuevos proveedores como los proveedores más tradicionales deberán adaptar su oferta al mercado. Para los clientes, los beneficios potenciales del SDS incluyen, entre otros, mayor flexibilidad, escalabilidad, ahorros CAPEX y OPEX, y reducción en la complejidad.

Para muchas empresas y organizaciones, especialmente para las más grandes, el almacenamiento puede estar muy fragmentado, incluyendo diferentes tecnologías (como por ejemplo SAN, NAS y Almacenamiento de Objetos), múltiples proveedores, diferentes herramientas y software de gestión diverso. Por otro lado, el tipo de información a almacenar también está cambiando; datos estructurados y no estructurados, datos ricos o complejos, Big Data o Internet de las cosas.

Además, para muchas de estas empresas, el almacenamiento es tratado como un silo, aislado de la capa de proceso o de red. Pero cada vez más veremos cómo el almacenamiento no puede ser tratado como una solución aislada, sino que realmente es una combinación de varios componentes; cabinas, servidores e incluso memoria.

Todos estos puntos no hacen sino agregar complejidad y hacer que la gestión y el cambio puedan verse como un desafío. Es por eso, por lo que las soluciones convergentes que integran almacenamiento, computación y redes, se hacen más atractivas y ponen de relieve por qué el SDS está ganando enteros en estos días.

Pero para que las plataformas de almacenamiento basado en software ocupen el lugar que les corresponde, creemos que el SDS debe proporcionar los servicios de almacenamiento que ya proporcionan las soluciones de almacenamiento tradicional, ya sean snapshots, deduplicación, replicación y thin provisioning, en una capa de software que se pueda ser implementada en servidores convencionales (comercial-off-the-shelf o COTS).

En Dell creemos que el mejor enfoque se basa en tres principios: separar los datos del hardware; integrar el almacenamiento, la computación y las redes; y orquestar a través del software. La intención es ofrecer soluciones flexibles que puedan ser fácilmente implementadas en cualquier entorno sin necesidad de sustituir la infraestructura existente.

Con la creación de un grupo unificado de recursos hardware y añadiendo herramientas de automatización y monitorización, el SDS va más allá de la virtualización del almacenamiento. Ya que consigue trasladar algunas funciones propias de los dispositivos de almacenamiento acercándolas al dato, permitiendo un mejor balanceo de la carga, una reducción de las labores operativas y una mejora en tiempos respuesta y flexibilidad.

El SDS debe integrarse en un hardware fiable y probado y con la configuración adecuada. Por eso, trabajar con un proveedor con servicios y soporte globales es fundamental para una implementación exitosa de proyectos SDS de clase empresarial. Los clientes nos cuentan cómo necesitan flexibilidad sin comprometer la calidad y la fiabilidad de una solución de almacenamiento, y por ello buscan proveedores que puedan ofrecer soluciones y arquitecturas completas y probadas.

A medida que los usuarios optan por nuevas soluciones de SDS, también han de tratar de mejorar su entorno de almacenamiento actual. De hecho, un paso natural en la industria es que los proveedores de almacenamiento tradicionales ofrezcan beneficios similares a los del SDS, incluyendo mayor flexibilidad, automatización y escalabilidad, a través de soluciones de almacenamiento tradicionales, mientras buscan nuevas soluciones que hagan de puente entre estas soluciones y los nuevos modelos de TI.

En Dell creemos firmemente que no existe una única solución genérica que sirva para satisfacer todas las necesidades del centro de datos de todos los clientes, y que la idea esencial es la de poner los datos correctos en el lugar correcto en el momento adecuado y con unos costes razonables. El éxito del SDS dependerá de lo bien que las organizaciones se planteen esto. Al final, lo que buscan las compañías es tener un almacenamiento ágil a través de procesos automatizados, que les permita tener una mayor flexibilidad, y conseguir así mejorar sus servicios de TI y alcanzar sus objetivos de negocio.


El futuro de la tecnología Flash en almacenamiento

Sara Martinez, jefe de producto de soluciones de almacenamiento Flash de HP


El almacenamiento, como tal, tradicionalmente ha tenido mucho peso en las empresas y ha sido  una parte muy tenida en cuenta por los directores de sistemas de las empresas, independientemente de su tamaño. Pero, actualmente, debido a la cantidad ingente de datos que se generan en cualquier tipo de compañía, el conocido por todos como fenómeno Big Data, el mercado se encuentra sometido a una situación de cambio, que está desembocando en un crecimiento importante del sector, y por tanto, traduciéndose en oportunidades para los fabricantes.

Y dentro del almacenamiento, la tecnología Flash es una tendencia real que se incluye en todos los proyectos de almacenamiento y que permite a nuestros clientes aprovechar el rendimiento y la eficiencia de la capacidad basada en Flash, mientras se preserva la inversión en la infraestructura actual. Estamos siendo testigos de cómo nuestros clientes buscan implementar soluciones de almacenamiento basado en Flash para beneficiarse de los costes operativos y de rendimiento, a través de formas no-disruptivas, mientras sus actuales inversiones se encuentran protegidas.

Además de aumentar la productividad y simplificar la gestión para las empresas, el almacenamiento Flash proporciona una mejora de rendimiento exponencial frente a los discos tradicionales, reduciendo los tiempos de respuesta por debajo de un milisegundo en lugar de varios milisegundos en los discos mecánicos, al tiempo que ofrecen una alta disponibilidad equivalente a una gama alta. Además, al carecer de componentes móviles, esta tecnología también es más fiable y eficiente en términos de consumo energético y refrigeración frente a los discos tradicionales.

Hasta ahora, y teniendo en cuenta que todas las empresas se encuentran presionadas para hacer más con menos, el precio ha supuesto una barrera, especialmente para las pymes. Pero el rendimiento y los costes de la tecnología Flash han alcanzado un punto que puede tener un impacto revolucionario en las empresas, especialmente en aquellas aplicaciones transaccionales como SAP, bases de datos OLTP (Online Transactions Proccessing) o entornos de Business Analytics y Virtual Desktop Infraestructure, donde la mejora en tiempos de respuesta del almacenamiento tiene un impacto directo en la experiencia del usuario.

Pero además del precio, el almacenamiento Flash ofrece una serie de ventajas que le auguran un buen futuro. Una de ellas, como he mencionado anteriormente, es la mejora de rendimiento frente a los discos tradicionales. Pero también es importante destacar otras como son la gran velocidad de escritura, una mayor rapidez de lectura, incluso 10 veces más que los discos duros tradicionales, baja latencia de lectura y escritura, cientos de veces más rápido que los discos tradicionales, lanzamiento y arranque de aplicaciones en menor tiempo, menor consumo de energía y producción de calor y una mayor resistencia, ya que soporta caídas, golpes y vibraciones sin estropearse y sin descalibrarse como pasaba con los antiguos discos duros, gracias a carecer de elementos mecánicos.

En definitiva y a modo de conclusión se puede afirmar que la tecnología Flash está en un momento de clara expansión, ya que el abaratamiento de la tecnología y las  nuevas propuestas tecnológicas han hecho que las grandes corporaciones la incorporen a sus sistemas y, sobre todo, han acercado las soluciones Flash a las empresas de tamaño medio.



[1] IDC, July 2014 “IDC’s Worldwide Software-Defined Storage Taxonomy, 2014”

Deja un comentario

Scroll al inicio