¿Qué quieres aprender?

Administrador Big Data Cloudera

Administrador Big Data Cloudera

Tajamar

Curso subvencionado presencial

Madrid


Gratis

Duración : 3 Meses

Adquirir las competencias y el expertise de un profesional para la Administración Big Data Cloudera de Apache Hadoop, en UNIX y Linux Conocer los componentes principales de Hadoop, HDFS, MapReduce

¿Quieres hablar con un asesor sobre este curso?

Sedes

Localización

Fecha inicio

Madrid
Marzo 2020

Objetivos

Adquirir las competencias y el expertise de un profesional para la Administración Big Data Cloudera de Apache Hadoop. Alcanzar los conocimientos y habilidades necesarias en UNIX y Linux para ser capaz de interactuar con el sistema operativo y realizar las principales tareas de Administración. Conocer los componentes principales de Hadoop, HDFS, MapReduce y el amplio ecosistema existente alrededor de Hadoop como Hive, Pig, Sqoop, Flume e Impala, para ser capaces de operar y mantener un clúster Hadoop desde la instalación y la configuración, incluyendo el balanceo de carga y tuning

A quién va dirigido

Trabajadores, desempleados y empleados de administración pública.

Requisitos

Nivel académico o de conocimientos generales: Título de FP Grado superior, bachillerato. Cuando el aspirante al curso no posea el nivel académico indicado, demostrará conocimientos suficientes a través de una prueba de acceso. Se requiere inglés a nivel de lectura y conocimientos de sistemas operativos e informática.

Temario completo de este curso

Módulo 1Denominación:FUNDAMENTOS UNIX y LINUXObjetivo:Usar adecuadamente comandos y recursos; Crear, modificar, tramitar permisos y gestionar archivos ydirectorios; Controlar el entorno de trabajo; Realizar la transferencia de archivos a distancia y tareas deproceso y control de trabajos.Duración: 40 horasContenidos teórico prácticos:- Visualización de directorios y archivos- Trabajo con archivos y directorios de Solaris- Uso del editor vi- Uso de comandos en el Shell- Uso de los permisos de archivos básicos- Configuración las listas de control de acceso (ACL)- Búsqueda de archivos y directorios- Control básico de los procesos- Funcionalidad avanzada de shell5- Lectura de secuencias de comandos de shell- Creación de Archivos- Compresión, visualización y descompresión de archivos- Conexiones remotas y transferencias de archivos- Troubleshooting
Módulo 2Denominación:ADMINISTRACIÓN DE SISTEMAS LINUXObjetivo:Instalar y configurar terminales virtuales en entornos Linux, configurar Sistemas Linux para conectar a lared de la empresa o Internet, implementar cualquier tipo de periférico, gestionar usuarios y ficheros,controlar el almacenamiento, administrar la seguridad, supervisar un Sistema Linux y solucionarproblemas.Duración: 40 horasContenidos teórico-prácticos:- Introducción a Linux- Instalación de Linux- Linux Boot Process- Configuración del Sistema- Gestión de paquetes- Automatización de tareas- Logging y acceso al sistema- Configuración del módulo del kernel- Administración de usuarios y grupos- Sistemas de archivos- Administración de Almacenamiento- Configuración de la red- Direccionamiento de red y servicios de nombres- Intercambio de archivos- Servicio de OpenSSH- Autenticación y Directorio de Servicios- Módulos de autenticación conectables (PAM)- Administración de la Seguridad- Web y servicios de correo electrónico- Supervisión del sistema y solución de problemas- Troubleshooting
Módulo 3Denominación:ADMINISTRACIÓN CLOUDERA PARA APACHE HADOOPObjetivo:Conocer los detalles internos de YARN, MapReduce y HDFS; Identificar y aprender a seleccionar lasconfiguraciones adecuadas de hardware e infraestructura para el funcionamiento óptimo del clúster;Configurar, desplegar e integrar el clúster como centro de datos; Automatizar la cargar utilizando canal6de flujo RDBMS y Sqoop; Configurar el FairScheduler; Proporcionar acuerdos de nivel de servicio paramúltiples usuarios de un grupo; Aprender a instalar e implementar la seguridad basada en Kerberos.Mantener y monitorizar el clúster, solucionar problemas que pueden surgir al trabajar con otrasplataformas y frameworks como Hive, Pig, y HBase y en definitiva, ser capaces de configurar eimplementar las mejores prácticas para obtener óptimos resultados con Apache Hadoop.Duración: 70 horasContenidos teórico – prácticos:- Introducción- Historia de Apache Hadoop- Instalación del Clúster Hadoop- El Hadoop Distributed File System (HDFS)- MapReduce y Spark en YARN- Configuración de Hadoop y registros de Daemon- Obtención de datos en HDFS- Planificación de un cluster Hadoop- Instalación y configuración de Hive, Pig e Impala- Clientes Hadoop incluidos en Hue- Configuración avanzada de un cluster- Seguridad Hadoop- Gestión de recursos- Mantenimiento de un cluster- Solución de problemas y monitorización de un cluster
- Conclusió
Ver más