Cuando los datos explotan

Almacenamiento y seguridad

El almacenamiento de datos suele suscitar las conocidas imágenes de filas de ordenadores y unidades de discos, y no genera mucho más interés que las típicas taquillas bajo llave o una caja con artículos usados olvidada en la estantería de un armario . Sin embargo, los profesionales de TI están comprendiendo que la realidad difiere mucho de las ideas actuales sobre el almacenamiento de datos . La información constituye cada vez en mayor medida el flujo vital de una empresa, y las arquitecturas y la tecnología de almacenamiento de datos están progresando rápidamente, aportando a los directores de TI una mayor flexibilidad, control y rapidez en el despliegue de redes de dispositivos de almacenamiento para múltiples plataformas . Al nivel de componentes, el equivalente de la Ley de Moore en el sector del almacenamiento se está manteniendo al ritmo de la necesidad aparentemente insaciable de almacenar datos . Sin embargo, aunque estos avances pueden resolver la enorme complejidad y el crecimiento del almacenamiento de datos, muchos expertos opinan que la gestión segura y fiable del almacenamiento en red no ha alcanzado aún el grado de madurez suficiente y que los estándares se encuentran todavía en una etapa de evolución .

Los culpables principales de la explosión de los datos son con seguridad " las Redes " -Internet, las intranets y las extranets-, que no sólo han inundado de información a la comunidad de TI, sino que han ejercido presión sobre las bases de datos para que utilicen y controlen las ventajas de esas mismas redes .

El consorcio NSIC ( National Storage Industry Consortium ) de Estados Unidos pronostica que los datos almacenados en las redes de todo el mundo llegarán a los 1 . 000 petabytes durante este año . Los data warehouses están alcanzando ya el nivel de multi-terabytes, y continúan creciendo .

No sólo hay cada vez más datos almacenados, sino que son cada vez más importantes . Una encuesta reciente realizada por BRG ( Business Research Group ) , reveló que un 75 por ciento de los directores de TI afirman que la gestión del almacenamiento de datos está adquiriendo una importancia crítica para sus planes estratégicos de desarrollo de sistemas de alta disponibilidad . El alma-cenamiento de datos es el núcleo fundamental de la red .

La nueva red

Para hacer frente a las demandas de almacenamiento cada vez mayores en las redes de proceso distribuido actuales, muchos directores de TI están migrando hacia una arquitectura de almacenamiento basada en el modelo SAN ( Storage Area Network ) . En una SAN, el almacenamiento de datos deja de depender de los servidores de red y de los protocolos de comunicaciones, y es consolidado y gestionado como un recurso independiente . El objetivo es que los dispositivos de almacenamiento de datos comuniquen directamente con cualquier servidor o desktop existente en la red, o incluso con otros dispositivos de almacenamiento .

La SAN ofrece en teoría muchos puntos fuertes . Así, al considerar el almacenamiento como un elemento independiente de la empresa, los directores de TI pueden manipular datos con más libertad, crear conjuntos de almacenamiento que posean más inteligencia, y conectar hardware de almacenamiento localmente o remotamente con mayor flexibilidad . A causa de estos beneficios, muchos analistas prevén que todas las empresas adoptarán con el tiempo la arquitectura SAN . Sin embargo, lo mismo que sucede con cualquier arquitectura de proceso distribuido, gestionar una SAN es una tarea crucial y un desafío .

A pesar de las reservas manifestadas por algunos usuarios, los vendedores están implementando protocolos específicos de redes SAN en productos como la arquitectura ISNA ( Intelligent Storage Network Architecture ) de Sun, la red Enterprise Storage Network de Compaq y la arquitectura Storage Enterprise Architecture de IBM . Los vendedores soportan Fibre Channel, que es el protocolo de comunicaciones de alta velocidad al que se accede para implementar la red SAN, aunque los directores de TI pueden utilizar otros protocolos de red .

Además de los obstáculos tecnológicos y de que SCSI y algunos otros estándares de almacenamiento de datos mantienen aún su utilidad, hay algunas opiniones que podrían oponerse aún a la aceptación de las redes SAN .

El santo grial

El debate sobre las arquitecturas está acompañado de avances extraordinarios en la tecnología del hardware de almacenamiento de datos . El sector del almacenamiento tiene incluso su propia versión de la Ley de Moore, que indica que en el futuro previsible la densidad en bits de las unidades de discos duros se duplicará cada 18 meses, como lo ha hecho desde 1991 .

Sin embargo, el sector podría llegar a un límite final respecto a la capacidad de las unidades de discos . Este límite “superparamagnético” es el punto en el que los bits de datos se hacen tan densos en la superficie de un disco que se convierten en inestables .

Una de las tecnologías, entre otras, que está dirigida a superar este límite es el almacenamiento holográfico, en el que los datos se almacenan " dentro " de capas ópticas, y no sólo en la superficie del disco .

IBM y otros vendedores, universidades y el gobierno de Estados Unidos han estado trabajando en un sistema de almacenamiento holográfico con el fin de llegar a 100 GBb por pulgada cuadrada y unas tasas de transferencia de datos de 30 MB por segundo . Otros objetivos posteriores consistían en alcanzar los 100 GB por pulgada cuadrada y velocidades de 100 MB por segundo, para alcanzar posteriormente los 100 GB por pulgada cuadrada y 1GB por segundo .

Como consecuencia de estas nuevas tecnologías y arquitecturas, el almacenamiento de datos ha pasado de ocupar un lugar de segundo orden en la empresa a convertirse en objeto de un vivo debate . Estamos pasando de la era del proceso intensivo de números y del manejo de textos a la de la manipulación y utilización de la información, y se está observando un cambio en la forma en que las personas utilizan y valoran sus propios sistemas informáticos . Esto está impulsando el cambio en los subsistemas de almacenamiento, en nuestras ideas sobre el almacenamiento y en cómo compartimos información .

Catástrofes informáticas

El viernes, 18 de abril de 1997, John Ouradnick, vicepresidente de operaciones del Community National Bank, tuvo la impresión de que se aproximaba un desastre . Después de un largo invierno de fuertes nevadas, las riadas de primavera estaban aumentando hasta niveles peligrosos en el Red River . Ouradnick y sus colegas se prepararon para lo peor . Realizaron un backup de los datos importantes existentes en los ordenadores del banco, cerraron el edificio y comenzaron a ayudar a sus vecinos a proteger con sacos de arena algunos puntos críticos en los márgenes del río . Pero la situación empeoró .

Aquella noche las cosas se fueron desencadenando sin control . A las 4 de la mañana comenzaron a sonar las sirenas de alarma de la ciudad, y los ciudadanos contemplaron cómo ardían algunos edificios .

Antes de que el agua inundara completamente el banco, Ouradnik y otros empleados entraron de nuevo en el edificio y recuperaron algunas valiosas cintas de backup . Era demasiado tarde para salvar del sótano inundado el sofisticado hardware de tratamiento de imágenes y proceso de cheques .

El “desastre”, un término que se utiliza generalmente de manera casual en el sector informático, se había convertido en más que realidad para el Community Bank . Esta experiencia del Community Bank es un ejemplo clásico de por qué los directores de TI deben tener implementados planes completos y exhaustivos para recuperación en caso de desastres . No obstante, los desastres no son siempre tan dramáticos como la

Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital