Curso subvencionado para trabajadores online
Duración : 3 Semanas
Este curso permitirá al participante conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial, así como facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data en el entorno empresarial. Además, estimulará competencias necesarias para el nuevo entorno digital como la anticipación en contextos digitales y la flexibilidad para la transformación.
Emagister S.L. (responsable) tratará tus datos personales con la finalidad de gestionar el envío de solicitudes de información y comunicaciones promocionales de formación con tu consentimiento. Ejerce tus derechos de acceso, supresión, rectificación, limitación, portabilidad y otros, según se indica en nuestra política de privacidad.
Objetivos
- Conocer las principales características del procesamiento masivo de datos en su relación con aplicaciones y algoritmos de Inteligencia Artificial. - Facilitar una aproximación a la planificación y desarrollo de programas de inteligencia artificial y Big Data en el entorno empresarial.
A quién va dirigido
Sector comercio y marketing. Trabajadores por cuenta ajena, autónomos, fijos discontinuo en período de no ocupación o ERTE
Temario completo de este curso
Unidad 1. Adquisición y dominio de conceptos básicos y de conocimientos sobre los avances en big data:
- Cómo evoluciona el BI tradicional al Big Data (navegación web, geolocalización, audiencias TV).
- El Big Data como solución al tratamiento masivo de datos: definición e historia desde su invención.
- Hadoop como revolución para el tratamiento paralelo de datos masivo.
- Características del Big Data (4 v´s y más): volumetría, velocidad, variedad (estructurados/no estructurados), veracidad (calidad del dato), valor del dato.
- Nuevos paradigmas del Big Data: procesos en Real Time y Cloud Computing.
Unidad 2. Conocimiento de nociones básicas sobre arquitectura Big Data y principales tecnologías:
- El ecosistema Hadoop: HDFS y MapReduce.
- Principales lenguajes de programación utilizados: Java, Scala, SQL y Python.
- Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE.
- Procesos real time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis.
- Procesamiento y analítica avanzada con Spark.
- Seguridad y gobierno del dato.
Unidad 3. Comprensión de los principales conceptos sobre la ciencia de datos e IA:
- Introducción a la ciencia de datos y la inteligencia artificial.
- Principales lenguajes de programación utilizados: R y Python.
- Algoritmos supervisados: ¿qué son? Algunos ejemplos.
- Algoritmos no-supervisados: ¿qué son? Algunos ejemplos.
- Introducción al Deep Learning y el aprendizaje por refuerzo.
- Procesamiento de información no estructurada: imágenes y textos.
- Visualización de datos: Visualizaciones interactivas y Dashboards.
Unidad 4. Adquisición de una visión trasversal sobre el futuro del Big Data y cómo se aplica actualmente en diferentes áreas:
- Ejemplos en las instituciones públicas: OpenData.
- Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía.
- Data for Good: big data para el bien social.
- Reflexiones finales sobre el impacto del Big Data en los años venideros.