Saut au contenu

Master Class de Big Data, Apache Hadoop y Cloudera

Continuando con nuestro ciclo de Master Class, en esta ocasión os presentamos una temática muy demandada en el mercado laboral y que no mucha gente conoce todavía. Seguro que os suena el Big Data, pues Hadoop es una de las opciones viables en costes a la hora de procesar, almacenar y analizar grandes volúmenes de datos.

Big Data Hadoop ClouderaTenemos el placer de contar con la presencia de Sergio Rodríguez de Guzman de la empresa Core Networks, quien nos mostrará Cloudera, el único fabricante de software que proporciona las certificaciones asociadas a BigData y Apache Hadoop reconocidas mundialmente en la industria.

En esta Master Class se dará una visión clara y práctica de qué es el BigData, de cómo se pueden beneficiar las empresas, y de las salidas profesionales asociadas.

Día: 13 de Octubre de 2014.
Hora: De 11:00 a 13:00.
Lugar: Salón de actos.

El acceso es gratuito, y lo único que se pide es un registro previo obligatorio para control de aforo, en la siguiente web:

(Inscripción cerrada)

¿Qué es “Big Data”?

Big Data es el término que define el conjunto de tecnologías y aplicaciones de negocio que intervienen en la creación de datos masivos o grandes bases de datos, normalmente en tiempo real.

Cloudera es el único fabricante de software que proporciona las certificaciones asociadas a BigData y Apache Hadoop reconocidas mundialmente en la industria.

Esta Master Class muestra una visión clara y práctica de qué es el BigData, de cómo se pueden beneficiar las empresas, y de las salidas profesionales asociadas.

Técnicamente, Hadoop consta de dos servicios principales: almacenamiento de datos fiable utilizando el Sistema de Archivos Distribuidos de Hadoop (HDFS) y un procesamiento de datos en paralelo de alto rendimiento que usa una técnica llamada MapReduce.

Hadoop en la empresa

Como Tom White, uno de los principales expertos en Hadoop, afirmó en su libro Hadoop: The Definitive Guide," La buena noticia es que el Big Data ya está aquí. La mala noticia es que estamos teniendo dificultades para almacenarlo y analizarlo". Con Hadoop, las organizaciones están descubriendo y poniendo en práctica nuevos análisis de datos y técnicas de extracción que antes eran inviables por motivos de rendimiento, costes y tecnología. Como resultado, Hadoop se está convirtiendo cada vez más en una opción popular para procesar, almacenar y analizar grandes volúmenes de datos semiestructurados, no estructurados o sin procesar que, a menudo, proviene de fuentes de datos dispares.

¿Pero exactamente cómo y cuándo puede beneficiarse de Hadoop?

El principal punto fuerte de Hadoop es la escalabilidad rentable y probada que ofrece para sacar partido del hardware básico. Ofrece soporte para el procesamiento de todos los tipos de datos (estructurados, semiestructurados o no estructurados) y la capacidad de ampliación abierta de Hadoop permite a los desarrolladores enriquecerlo con capacidades especializadas para una amplia gama de aplicaciones.

Muchas organizaciones están comenzando a considerar a Hadoop como una ampliación de sus entornos para afrontar el volumen, la velocidad y la variedad del Big Data. Como resultado, la adopción de Hadoop aumentará. En una encuesta reciente realizada a usuarios de datos a gran escala, más de la mitad de los encuestados afirmaron que se están planteando introducir Hadoop en su entorno.

Prerrequisitos (Técnicos)

Este seminario está diseñado para desarrolladores con algo de experiencia en programación (preferiblemente Java). No son necesarios los conocimientos previos en Hadoop.

Lo que aprenderá

  • Las tecnologías clave de Hadoop.
  • Cómo funciona HDFS MadReduce.
  • Inicio al desarrollo de aplicaciones Map Reduce.

Os esperamos.

Documentación aportada por el ponente:

Presentación de Big Data, Apache Hadoop, Cloudera y análisis de datos.

Ponente

Sergio Rodríguez de Guzmán

Director de formación de la empresa Core Networks.

Sergio Rodríguez de Guzmán

Sergio Rodríguez es ingeniero de telecomunicaciones e instructor oficial de Cloudera en las áreas de desarrollo y análisis de datos para Europa y América Latina, y de Oracle University, estando en posesión, entre otras, de las certificaciones de desarrollador Hadoop, administrador Hadoop y especialista en HBase, y Desarrollador de MongoDB, siendo colaborador habitual en ponencias y masters sobre Big Data.

Contacto:

Footer

Centro de Formación en Tecnologías de la información y las comunicaciones de Madrid

C/Arcas del Agua, 2 (Sector 3) Getafe

+34 91 683 81 60; C. P. 28905

centrof.madridsur@madrid.org