Tecnología | Noticias | 15 OCT 2018

La explosión de los datos, cuestión de enfoque

Tags: Big Data
Llegan nuevos modelos de almacenamiento como la 'desagregación', que permite a las empresas gestionar su información de forma más eficiente y económica.
red datos
Israel Serrano (Infinidat)

¿Recuerdan aquellos tiempos en que había que comprar un servidor (incluso dos) por cada aplicación a instalar por razones de rendimiento, resiliencia, escala...? Entonces llegó la virtualización y la industria descubrió que era posible hacer lo mismo de manera mucho más eficiente y con un coste menor. De vuelta a la actualidad, estamos asistiendo a una coyuntura similar con el big data, con nuevos modelos de almacenamiento que permiten a las empresas hacer lo mismo pero con una configuración de hardware más racional y menores costes. Uno de esos modelos es el bautizado como desagregación.

La explosión en el volumen de los datos que manejamos cada día es algo de lo que todo el mundo habla. Los datos crecen vertiginosamente y provoca vértigo ver las cifras que circulan. Pero lo demencial es que muchas de estas cifras podrían están por debajo –o muy por debajo– de lo que será la realidad. La razón no hay que buscarla en la propia tecnología de almacenamiento, o de las aplicaciones. La razón se encuentra en el mundo de la seguridad.

Según datos del último Informe sobre Brechas de Datos de Verizon, en 2017 se registraron casi 2.000 brechas de seguridad, el 84% de ellas provenientes del factor humano. Impresionantes hackeos que comenzaron a conocerse, uno tras otro, incluyendo importantes ataques de ransomware que costaron millones de dólares a muchas empresas.

Para estar en condiciones de luchar contra estos ataques cada vez más sofisticados, las organizaciones van a tener que adoptar nuevas herramientas de seguridad, basadas en modelos big data, ya que los ataques llegarán a ser tan sofisticados que se necesitarán muchos más datos para identificarlos. Esto va a tener un impacto decisivo en el ámbito del almacenamiento y gestión de la información. Si pensamos en el número de incidentes de seguridad que será necesario recolectar, analizar, correlacionar, para luchar solo contra uno de estos ciberataques, estamos hablando de pasar de terabytes a petabytes como orden de medida estándar. Y, en este sentido, el diseño y la definición de la infraestructura tecnológica se convertirán en algo crítico.

Por qué las arquitecturas 'tradicionales' ya no son suficientes

Estas y otras soluciones de big data van a convertirse en una parte más de una infraestructura, que comenzará a consumir presupuesto. Así las cosas, si no se construye la infraestructura de manera eficiente, el presupuesto de TI aumentará, y se ahogará la innovación. Vemos, pues, que reducir los costes será esencial para el éxito. Pero las antiguas arquitecturas convergentes, de tipo Servers-Only-No-Storage, están causando una seria inflación de costes.

Si pensamos en la evolución del big data, todas las aplicaciones que hemos ido viendo aparecer utilizan el mismo esquema de arquitectura que el que podríamos considerar como “primer sistema de big data”: Google File System. Si consultamos el White Paper de Google File System, que data de 2003, sus autores dicen que para poder llegar a las nuevas escalas de datos (los sistemas de entonces, obviamente, no llegaban), la única solución que encontraron fue crear un sistema de ficheros distribuido, y señalan ya como problema principal al coste de mantener varias copias de los datos. Pensemos en ello. Es una decisión a nivel de arquitectura de computación que se tomó hace 15 años. ¿Cuántas arquitecturas sobreviven durante 15 años sin cambios?

Bien, pues eso es lo que está pasando ahora; debido a que los grandes volúmenes de datos están creciendo, el coste de mantener múltiples copias por punto está comenzando a pasar factura. Al mismo tiempo, las soluciones de almacenamiento externo para entornos de big data han mejorado enormemente en los últimos años, eliminando la limitación original que llevó a Google a elegir una estructura de datos distribuida.

Desagregación: tendencia al alza

Para resolver este problema, algunos sistemas proponen un nuevo modelo de arquitectura bautizado como "desagregación" (disaggregation). Es una tendencia que lleva en el mercado aproximadamente año y medio, pero es ahora cuando realmente está en auge.

Esta tecnología permite desagregar los datos de la computación, ubicándolos en una cabina dedicada, de forma que cada nodo de computación puede acceder a cientos de discos a la vez. Básicamente, se hace un resource pooling. Es decir, se selecciona un conjunto de recursos (en este caso, unidades de almacenamiento), se colocan en un pool y se accede a ellos desde todos los nodos según se necesiten. Eso además, supone controlar la huella de TI. Imaginemos, por ejemplo, una solución que pase de 10 cabinas a 5 o 6, gracias a la reducción en el número de copias y una mejor protección de datos.

Volviendo a la comparación con lo que significó la virtualización, como decíamos, la industria  descubrió que se podia hacer lo mismo para el negocio (lanzar y mantener nuevas aplicaciones), pero de forma mucho más eficiente (aprovisionamiento instantáneo, menos hardware…) y con un coste inferior (incluso incluyendo el coste de las licencias de software). Ahora está sucediendo lo mismo en el ámbito del big data con la desagregación. Hemos descubierto que podemos aportar lo mismo al negocio (alto rendimiento, computación masivamente paralela), pero con una mejor configuración a nivel de hardware (mayor rendimiento y capacidad de almacenamiento por unidad) y de una manera mucho más económica (incluso tras contabilizar el coste del almacenamiento).

En conclusión: la clave está en el modelo

Es evidente que existe una clara necesidad de hacer cambios en las arquitecturas de almacenamiento y gestión de datos para impulsar los negocios. Y esto se llevará a cabo con éxito dependiendo del enfoque que se tome. Tomando de nuevo el ejemplo de la virtualización, ¿ejecutaría usted hoy aplicaciones en un servidor físico? La respuesta es clara: no, porque es un despilfarro.

Pasar de soluciones convergentes de big data a arquitecturas desagregadas ahora será lo mismo. Si se utilizan tecnologías ineficientes de big data, que requieren almacenar los datos varias veces en cada sitio, el negocio se ralentizará. Va a ser necesario adoptar nuevos enfoques, como la desagregación, para construir una arquitectura inteligente, desde el momento del diseño.

 

El autor de este artículo es Israel Serrano, country manager de Infinidat Iberia

 


Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios