Comunidad de CIOs Revista Byte TI | Noticias tecnología

Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú, donde podrás explorar tecnologías emergentes, compartir estrategias y colaborar en soluciones de vanguardia

the machine big data en movimiento

The Machine: arquitectura de computación para la era del Big Data de HPE

HPE ha presentado hoy la mayor arquitectura de computación de memoria única en el mundo, el último hito en el proyecto de investigación The Machine. The Machine, el programa R&D más extenso en la historia de la compañía, tiene como objetivo lanzar un nuevo paradigma llamado la Computación centrada en la Memoria (o Memory-Driven Computing), una arquitectura diseñada a medida para la era del Big Data.

Los secretos del próximo gran avance científico, innovación que cambia la industria, o tecnología que altera la vida se esconden detrás de la gran cantidad de datos que creamos cada día”, ha explicado Meg Whitman, CEO de Hewlett Packard Enterprise. “Para cumplir esta promesa, no podemos confiar en las tecnologías del pasado, necesitamos una arquitectura de computación diseñada para la era del Big Data”.

The Machine, el programa R&D más extenso en la historia de la compañía, tiene como objetivo lanzar un nuevo paradigma llamado la Computación centrada en la Memoria

El modelo presentado hoy posee 160 terabytes (TB) de memoria, capaz de trabajar simultáneamente con un volumen de datos similar al que contendrían todos los libros de la Biblioteca del Congreso de Estados Unidos multiplicados por cinco – aproximadamente, unos 160 millones de libros. Nunca ha sido posible almacenar y manipular conjuntos de datos de este tamaño en un sistema de memoria única, y esto es solo un ejemplo del inmenso potencial del Memory-Driven Computing.

Adaptabilidad e Implicaciones Sociales

Basándose en el modelo actual, HPE cree que la arquitectura podría crecer fácilmente a un sistema de memoria única del orden de los exabytes y, más allá, a un nivel de memoria prácticamente ilimitado – 4.096 yottabytes. Por ponerlo en contexto, esta medida equivale a 1.000 veces el tamaño del universo digital al completo en la actualidad.

Con esta cantidad de memoria, será posible trabajar simultáneamente con los historiales médicos digitales de cada persona en la tierra; cada dato de Facebook; cada viaje de los vehículos autónomos de Google; y todos los conjuntos de datos de la exploración del espacio, todo al mismo tiempo – hallando respuestas y descubriendo nuevas oportunidades a velocidades sin precedentes.

Creemos que el Memory-Driven Computing es la solución para hacer evolucionar la industria tecnológica, de forma que se produzcan avances en todos los aspectos de la sociedad”, ha afirmado Mark Potter, CTO de HPE y Director de Hewlett Packard Labs. “La arquitectura que hemos presentado puede aplicarse a todas las categorías de computación, desde dispositivos Intelligente Edge hasta supercomputadoras”.

El Memory-Driven Computing coloca la memoria, no el procesador, en el centro de la arquitectura de computación. Al eliminar las ineficiencias de cómo la memoria, el almacenamiento y los procesadores interactúan en sistemas tradicionales hoy en día, el Memory-Driven Computing reduce el tiempo necesario para procesar problemas complejos de días a horas, de horas a minutos y de minutos a segundos para ofrecer inteligencia en tiempo real.

 

Deja un comentario

Scroll al inicio