Actualidad
Cliente/Servidor
Big Data
Centro de datos

SAS análiza el Big Data para Hadoop

La arquitectura en memoria de SAS es la misma que utiliza Visual Analytics y ofrece una gran velocidad de gestión de datos, permitiendo a las empresas crecer gracias a un mejor conocimiento del Big Data.

big data

SAS está desarrollando un entorno interactivo de programación analítica para el marco de código abierto, Hadoop, basado en la tecnología SAS in-memory. El nuevo software permitirá a las organizaciones extraer información de cualquier volumen y cantidad de datos con mayor rapidez y precisión, impulsar sus resultados, reducir los riesgos, mejorar la comprensión del cliente e incrementar las oportunidades de éxito.

 

La solución SAS In-Memory Statistic for Hadhoop permitirá a múltiples usuarios, simultánea e interactivamente, a gestionar, explorar y analizar datos, construir y comparar modelos y tratar grandes cantidades de datos en Hadoop. El lanzamiento del nuevo software de SAS está previsto para el primer semestre de 2014 y se espera que aumente notablemente la productividad de los data scientists o analistas de datos.

 

“Con SAS In-Memory Statistics para Hadoop, los datos de Hadoop se cargan y mantienen en la memoria para múltiples análisis en una misma sesión y para más de un usuario”, ha explicado Christian Gardiner, director general de SAS España.

 

La arquitectura en memoria de SAS, es la misma que utiliza SAS Visual Analytics y ofrece una gran velocidad de gestión de datos. Según Gardiner, “los data scientists, programadores y estadistas no necesitarán nunca más una gran variedad de herramientas, porque estamos eliminando la necesidad de utilizar diferentes lenguajes de programación analítica.SAS In-Memory Statistics para Hadoop incluye toda la gama de técnicas analíticas y provee al profesional de un medio rápido, poderoso y comprensivo para el análisis colaborativo”.

 

Entre las numerosas técnicas analíticas y de programación incluidas en Hadoop se encuentran: clustering, regresión, generación de modelos lineales, análisis de variantes, árboles de decisión, análisis de textos y recomendación de sistemas.

 

Hadoop distribuye datos entre una amplia variedad de servidores e implementa los procesos en paralelo. También detecta y gestiona los fallos, algo crítico para los sistemas de procesamiento distribuido. Además de reducir el coste del hardware distribuido y de tener una red de seguridad con redundancia de datos, los avances de Hadoop incluyen el procesamiento paralelo de datos, escalabilidad y flexibilidad de almacenamiento.



Contenido Patrocinado

Fernando Rubio Román, CTO de Microsoft España. TECNOLOGÍA
Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital