apache hadoop sqoop

Apache Sqoop se convierte en proyecto prioritario para ‘Big Data’

Desarrollada en Apache Incubator, Sqoop se especializa en permitir la transferencia de información entre Hadoop y los grandes almacenes de datos estructurados.

La Apache Software Foundation (ASF) acaba de anunciar que la herramienta Apache Sqoop pasa a ser ‘mayor de edad’ y se convierte en proyecto de primer nivel dentro de las prioridades de la fundación.

Sqoop es una herramienta que ha estado desarrollándose en Apache Incubator, una sección dedicada en exclusiva a la puesta en escena de nuevas ideas. Básicamente, su cometido es permitir la transferencia eficiente de grandes volúmenes de información entre Apache Hadoop y otras plataformas de datos estructuradas, como es el caso de las bases de datos relacionales.

Sqoop facilita la transferencia de datos entre Hadoop y bases de datos estructuradas

Se trata de un producto de especial relevancia para el mercado actual, toda vez que las empresas se enfrentan a grandes cantidades de información variopinta que deben procesar para responder a los retos y necesidades y, como consecuencia, asegurar la continuidad de los negocios.

Todo el mundo habla de ‘Big Data’ y lo que facilita Apache Sqoop es precisamente que las empresas puedan ser capaces de gestionar esos volúmenes de datos.

“El proyecto Sqoop ha demostrado su madurez graduándose desde Apache Incubator”, declaraba Arvind Prabhakar, vicepresidente de Apache Sqoop, en el comunicado.

Sqoop está construido sobre la infraesturctura de Hadoop y es capaz de transferir los datos de forma paralela para mejorar el rendimiento y el uso del sistema y los recursos de red. Además, permite copiar rápidamente los datos desde plataformas externas a Hadoop para que se puedan analizar más eficientemente.

Ciertamente, la conectividad entre Hadoop y otras bases de datos y entornos de almacenamiento es un componente crítico para que Hadoop pueda evolucionar como una solución empresarial.

Sqoop comenzó a formar parte de Apache Incubator hace menos de un año (junio de 2011) y ofrece conectores para la integración entre Hadoop y otros sistemas tan populares como MySQL, PostgreSQL, Oracle, SQL Server e incluso DB2.

Pablo Fernández
Autor: Pablo Fernández
Director editorial NetMediaEurope Spain & LATAM
Pablo Fernández Pablo Fernández Pablo Fernández Pablo Fernández

Ahora puedes leer los artículos de SiliconWeek en Google Currents: ¡Suscríbete!

Mesa redonda 2.0

Cloud: el modelo de computación diseñado para transformar los negocios

El gesto de subirse a la nube se ha convertido ya en cotidiano. Aunque todavía queda camino por recorrer y experimentar, cloud computing ha dejado de ser una extraña expresión tomada de la jerga estadounidense para consolidarse como el compañero ideal de negocios de todo el mundo. Y también de todos los sectores. En la nube hay sitio para el software, para los servicios, para la seguridad, para el almacenamiento, para la impresión, para la gestión energética, para la colaboración, para la productividad y para mucho más.

Analizamos las entrañas de la nube con la ayuda de cuatro destacados representantes de la industria tecnológica: Beeva, Konica Minolta, Panda y Schneider Electric. Vea nuestra mesa redonda aquí.


Último comentario




0 respuestas a Apache Sqoop se convierte en proyecto prioritario para ‘Big Data’

Deja un comentario

  • Los campos necesarios están marcados *,
    Tu dirección de correo electrónico no será publicada.

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>