cerrar-sesion editar-perfil marker video calendario monitor periodico fax rss twitter facebook google-plus linkedin alarma circulo-derecha abajo derecha izquierda mover-vertical candado usuario email lupa exito mapa email2 telefono etiqueta

¿Preparado para la economía de los algoritmos?

  • Por Anjan Srinivas, Director Senior de Gestión de Producto en Nutanix

Escrito por Redacción Byte TI el 4 diciembre, 2017 en Tendencias TIC
no hay comentarios Haz tu comentario
Imagen de logotipo de facebook Imagen de logotipo de Twitter Imagen de Logotipo de Google+ Imagen de logotipo de Linkedin

A medida que las necesidades de almacenamiento global se van acercando al territorio zettabyte, el término Big Data resulta más irrelevante, con todos los datos convertidos ahora en “grandes datos”. Lo mismo sucede cuando utilizamos el vocablo “grande” para referirnos a complicado: el crecimiento exponencial de datos no estructurados se ha disparado en complejidad (y la capacidad de procesamiento necesaria para hacer frente a ella) haciéndolo además, hasta niveles difíciles de imaginar incluso hace pocos años.

Sin embargo, las capacidades de almacenamiento y procesamiento están lejos de ser los únicos problemas, y, más cuando se trata de la revolución Big Data, donde es necesario apreciar qué no solo el volumen y la complejidad son revolucionarios. Nuestra creciente capacidad para entender y hacer uso de este recurso masivo también está haciéndose eco de esta disrupción; transformando la forma en que abordamos las TI.

Observe detenidamente y verá que la verdadera fuerza motriz detrás de la revolución de Big Data radica en nuestra capacidad para combinar modelos estadísticos avanzados y nuevas tecnologías de computación. Con ello es posible comprender y sacar partido de las fuentes de datos, más específicamente, generar reglas o algoritmos para buscar patrones en los datos, además de resolver problemas en menos tiempo y sin el esfuerzo que supone utilizar métodos convencionales de computación.

A vueltas con los algoritmos

Así como las aplicaciones han revolucionado la forma en que nosotros como seres humanos interactuamos con los ordenadores, los algoritmos están facilitando un salto cuantitativo en el aprendizaje automático, lo que nos permite hacer algo realmente útil con nuestros recursos de Big Data.

Para muestra, un botón. Los algoritmos son lo que impulsa el motor de búsqueda de Google, los que accionan las recomendaciones de Netflix, los asistentes de voz, los coches sin conductor, las entregas al día siguiente, el comercio a alta velocidad o un número cada vez mayor de servicios y tecnologías que ya damos por sentado.

Sin embargo, no son sólo los datos los que representan valor en estos ejemplos, o la cantidad procesada, aunque haya sido vasta. Realmente, es la inteligencia que los algoritmos son capaces de proporcionar lo que permite a las máquinas extraer sentido de los datos, para aprender a usarlos. Por otra parte, es este valor el que las empresas buscarán monetizar, lo que Gartner, ha denominado “economía del algoritmo” y ha previsto como la próxima gran cosa en Big Data, a medida que los algoritmos empiecen a ser desarrollados, comercializados y explotados al igual que las aplicaciones móviles durante los próximos años.

Cómo lidiar con la disrupción

La otra cara o el reverso de la economía del algoritmo será una presión aún mayor sobre el almacenamiento de los datos y los recursos de procesamiento, con los CIOs volcándose cada vez más en los servicios de nube pública para absorber esta demanda. Muchas organizaciones, sin embargo, prefieren mantener sus algoritmos, así como datos críticos de negocio, detrás del firewall corporativo y es aquí donde, paradójicamente, los algoritmos podrían tener su mayor impacto, al permitir que la empresa se sumerja dentro y fuera de la nube pública y en sus propios términos.

Para entenderlo es como cuando un “médico se cura a sí mismo”. Mientras que el aumento de la economía del algoritmo agravará los problemas del almacenamiento y procesamiento de datos compuestos, los algoritmos resultarán esenciales cuando se trate de resolver esos problemas, aprovechando el conocimiento sobre grandes datos para administrar mejor los recursos de Big Data de los que provienen.

Observamos como esto ya empieza a ocurrir, sobre todo en forma de herramientas de aprendizaje automático que pueden equilibrar automáticamente las demandas de almacenamiento y calcular cargas de trabajo a través de una mezcla de plataformas públicas y privadas. A este respecto, el equilibrio de estas cargas de trabajo en respuesta a cambios sutiles en los perfiles de la demanda es inimaginable, y tiene que ser realizado por las máquinas. Por lo tanto, y para quién aún no lo haya hecho, es hora de empezar a familiarizarse con los algoritmos y el aprendizaje automático, resulta algo esencial para el proceso de transformación digital en curso. Los algoritmos vienen en camino y llegarán antes de lo que cabe pensar.

Compártelo

Noticias relacionadas

Comentarios

No hay comentarios.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Debes haber iniciado sesión para comentar una noticia.