Curso subvencionado para desempleados semipresencial
Barcelona y 1 más
Duración : 6 Semanas
El curso ofrece los conceptos clave y la experiencia que los participantes necesitan para introducir y procesar datos en un clúster Hadoop utilizando las herramientas y técnicas más actuales tales como Spark (incluyendo Spark Streaming y Spark SQL), Flume, Kafka y Sqoop. Este curso proporciona la mejor preparación para los desafíos del mundo real que enfrentan los desarrolladores de Hadoop.
Con Spark, los desarrolladores pueden escribir sofisticadas aplicaciones en paralelo para tomar mejores decisiones, más rápidas y acciones interactivas, aplicadas a una amplia variedad de casos de uso, arquitecturas e industrias.
Asimismo, se adquirirán conocimientos de SQL, Python y Scala, lenguajes necesarios para trabajar con el Framework de Spark.
PUE es Training Partner oficial de Cloudera, autorizado por dicha multinacional para impartir formación oficial en tecnologías Cloudera.
PUE está también acreditado y reconocido para realizar servicios de consultoría y mentoring en la implementación de soluciones Cloudera en el ámbito empresarial con el consiguiente valor añadido en el enfoque práctico y de negocio del conocimiento que se traslada en sus cursos oficiales.
El curso se imparte en modalidad mixta, combinando sesiones presenciales (175h) con formación online (55h) para facilitar un aprendizaje flexible y adaptado a los ritmos y disponibilidad de cada alumno.
Emagister S.L. (responsable) tratará tus datos personales con la finalidad de gestionar el envío de solicitudes de información y comunicaciones promocionales de formación con tu consentimiento. Ejerce tus derechos de acceso, supresión, rectificación, limitación, portabilidad y otros, según se indica en nuestra política de privacidad.
Sedes
Localización
Fecha inicio
Objetivos
Al finalizar la formación, el participante sabrá: Cómo distribuir, almacenar y procesar datos en un clúster Hadoop Cómo escribir, configurar e implementar aplicaciones Apache Spark en un clúster Hadoop Cómo utilizar el shell Spark para el análisis interactivo de datos Cómo procesar y consultar datos estructurados utilizando Spark SQL Cómo utilizar Spark Streaming para procesar un flujo de datos en vivo Cómo utilizar Flume y Kafka para ingerir datos para Spark Streaming
A quién va dirigido
El curso está especialmente ideado para desarrolladores e ingenieros con experiencia en programación. Los ejemplos y ejercicios se presentan en Python y Scala, por ello se requiere el conocimiento de uno de estos lenguajes de programación. También es necesario tener conocimientos básicos de Linux y conocimientos de SQL serán de utilidad. No se requiere conocimiento previo de Hadoop.
Temario completo de este curso
MÓDULO 1: INTRODUCCIÓN A SQL
MÓDULO 2: PROGRAMACIÓN PYTHON
MÓDULO 3: PROGRAMACIÓN SCALA
MÓDULO 4: CLOUDERA DESARROLLADOR PARA SPARK & HADOOP
MÓDULO 5: PRÁCTICAS NO LABORALES (superada satisfactoriamente la formación)