Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistema
Válido para versiones 2 y 3 de Hadoop
¿Qué contenidos vamos a ver?
- Aprenderás los conceptos básicos de esta tecnología
- Verás como descargar e instalar Hadoop manualmente
- También aprenderás a instalar y configurar Hadoop con ambari
- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop
- Instalarás y configuraras Map Reduce y YARN
- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:
HIVE
SQOOP
SPARK
HUE
ZooKeeper
HBASE
Otros productos que iré subiendo y actualizando
PIG
FLUME
¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!
- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio
- Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicial
En resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral.
El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva
Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡
Espero lo disfrutes¡¡¡¡¡
¿Para quién es este curso?
Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop
También es interesante para aquellas personas que quieran mantenerse al día en conocimientos relacionados con BigData y Hadoop
Aquellas personas que quieran conocer los productos asociados a Hadoop
Emagister S.L. (responsable) tratará tus datos personales con la finalidad de gestionar el envío de solicitudes de información y comunicaciones promocionales de formación con tu consentimiento. Ejerce tus derechos de acceso, supresión, rectificación, limitación, portabilidad y otros, según se indica en nuestra política de privacidad.
Objetivos
Instalar un entorno de Hadoop Big Data
Administrar y configurar los componentes de Hadoop
Instalar un cluster Hadoop con ambari
Aprender a manejar el sistema de ficheros HDFS
Entender los conceptos más importantes de MapReduce y YARN
Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC
.
A quién va dirigido
Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop También es interesante para aquellas personas que quieran mantenerse al día en conocimientos relacionados con BigData y Hadoop Aquellas personas que quieran conocer los productos asociados a Hadoop
Requisitos
Se necesitan ciertos conocimientos de Linux, aunque no de un nivel avanzado También sería deseable que supieras algo de Java, aunque no es obligatorio Necesitas una máquina con al menos 8 Gigas de RAM, aunque para poder tener 3 nodos hadoop funcionando sería conveniente disponer de 12 Gigas
Temario completo de este curso