Máster online
Duración : 8 Meses
Emagister S.L. (responsable) tratará tus datos personales con la finalidad de gestionar el envío de solicitudes de información y comunicaciones promocionales de formación con tu consentimiento. Ejerce tus derechos de acceso, supresión, rectificación, limitación, portabilidad y otros, según se indica en nuestra política de privacidad.
Objetivos
Al finalizar el Máster en Data Science, Big Data y Desarrollo de Inteligencia Artificial, el alumno será capaz de: -Programar con soltura en Python aplicado a ciencia de datos, dominando las librerías estándar del sector: Pandas, NumPy, Matplotlib, Seaborn, Scikit-learn, TensorFlow y PyTorch. -Trabajar con bases de datos relacionales y no relacionales, escribiendo consultas SQL avanzadas para extraer, transformar y preparar datos desde múltiples fuentes. -Aplicar estadística descriptiva e inferencial, probabilidad y pruebas de hipótesis para interpretar correctamente los resultados de los modelos y evitar conclusiones espurias. -Diseñar el ciclo completo de un proyecto de Data Science: extracción, limpieza, exploración, feature engineering, modelado, evaluación y despliegue. -Construir, entrenar y evaluar modelos de machine learning supervisado y no supervisado: regresión, clasificación, clustering, sistemas de recomendación, reducción de dimensionalidad. -Desarrollar modelos de deep learning con redes neuronales aplicadas a visión por computador, procesamiento del lenguaje natural y series temporales. -Manejar arquitecturas de Big Data para procesar volúmenes masivos de información usando Apache Spark, ecosistemas Hadoop y plataformas en la nube. -Aplicar inteligencia artificial generativa en flujos de trabajo profesionales: integración de LLMs (ChatGPT, Claude, modelos open source), técnicas de RAG, prompt engineering aplicado a datos y desarrollo de agentes. -Desplegar modelos en producción con prácticas de MLOps: pipelines, monitorización, versionado de modelos, automatización en cloud (AWS, Azure, Google Cloud). -Comunicar resultados de forma efectiva mediante visualización avanzada y storytelling con datos, traduciendo análisis técnicos en decisiones de negocio. -Construir un portfolio de proyectos demostrables que acredite empleabilidad ante empresas que contratan perfiles de Data Scientist, Data Analyst, Machine Learning Engineer o AI Developer.
A quién va dirigido
Este máster está diseñado para perfiles que quieren convertirse en profesionales de los datos en uno de los mercados con mayor crecimiento y demanda de talento de la economía actual. La ciencia de datos y la inteligencia artificial son hoy disciplinas transversales: las empresas buscan estos perfiles tanto en tecnología como en banca, retail, salud, marketing, industria y administración pública. En concreto, este máster encaja con: -Graduados en Ingeniería Informática, Telecomunicaciones, Matemáticas, Estadística, Física o disciplinas STEM que quieren orientar su carrera profesional hacia Data Science e Inteligencia Artificial. -Titulados en FP superior de informática (DAM, DAW, ASIR) que quieren especializarse en un perfil técnico de alta empleabilidad y mejor remunerado. -Profesionales en activo de áreas técnicas (desarrolladores, administradores de bases de datos, analistas BI) que quieren evolucionar hacia roles de data scientist o machine learning engineer. -Titulados en disciplinas cuantitativas no técnicas (Economía, ADE, Finanzas, Ingeniería Industrial) que ya trabajan con datos en su día a día y quieren formalizar y ampliar sus competencias técnicas. -Analistas de datos y perfiles de Business Intelligence que quieren dar el salto del análisis descriptivo al predictivo, incorporando machine learning, deep learning e IA generativa a su flujo de trabajo. -Profesionales en reconversión profesional con base lógica o matemática que ven en la ciencia de datos su próxima etapa profesional. -Equipos de marketing, producto y operaciones que quieren liderar proyectos data-driven dentro de sus organizaciones con criterio técnico real, no solo desde la gestión. -Profesionales que quieren integrar la inteligencia artificial generativa y los LLMs en su flujo de trabajo de análisis de datos antes de que sea un requisito del mercado, no una ventaja diferencial.
Requisitos
El Máster en Data Science, Big Data y Desarrollo de Inteligencia Artificial no exige titulación universitaria previa ni experiencia profesional en el sector tecnológico. Sí se recomienda cumplir con las siguientes condiciones mínimas para aprovechar el programa al máximo: -Conocimientos básicos de informática a nivel de usuario avanzado: manejo fluido del sistema operativo, instalación de software, comprensión general de cómo funciona un ordenador y un entorno de trabajo digital. -Base lógica o matemática mínima: la ciencia de datos se apoya en estadística, probabilidad y álgebra a nivel funcional. No se requiere ser matemático, pero sí estar cómodo razonando con números y operaciones lógicas. -Interés y familiaridad mínima con la programación. No es requisito excluyente: el módulo de nivelación previo al inicio cubre los fundamentos de Python para alumnos sin experiencia previa. -Equipo informático adecuado: ordenador con capacidad para ejecutar entornos de desarrollo, librerías y modelos (mínimo 16 GB de RAM recomendado) y conexión estable a internet. -Compromiso con la carga lectiva: clases en directo en horario fijo más trabajo autónomo semanal sobre laboratorios, proyectos y datasets. -Nivel de inglés técnico de lectura: gran parte de la documentación oficial de librerías, papers, frameworks y plataformas cloud está disponible únicamente en inglés. Cada candidatura se evalúa individualmente mediante una sesión de orientación con el equipo de admisiones, donde se revisa el encaje con el programa, el punto de partida profesional del candidato y los objetivos profesionales que persigue.
Temario completo de este curso
El programa se estructura en bloques progresivos que reproducen el flujo completo de trabajo de un científico de datos profesional, desde los fundamentos de programación hasta el despliegue de modelos de inteligencia artificial en producción.
Módulo 0. Módulo de nivelación (acceso previo al inicio)
Introducción a la programación: lógica computacional y algoritmos básicos.
Fundamentos de Python: sintaxis, tipos de datos, estructuras de control, funciones.
Introducción al control de versiones con Git y GitHub.
Conceptos básicos de matemáticas para Data Science: álgebra lineal, cálculo y probabilidad aplicados.
Bloque 1. Programación en Python para Data Science
Python avanzado: programación orientada a objetos, gestión de errores, módulos y entornos virtuales.
NumPy: arrays multidimensionales, operaciones vectorizadas, álgebra lineal computacional.
Pandas: DataFrames, manipulación, limpieza y transformación de datos.
Buenas prácticas de desarrollo: código limpio, reutilizable, documentación y testing.
Control de versiones con Git aplicado a proyectos de datos.
Bloque 2. Bases de datos y SQL
Modelos de datos: bases relacionales y no relacionales (NoSQL).
SQL: consultas básicas y avanzadas, joins, subconsultas, funciones de ventana.
Bases de datos NoSQL: MongoDB, Redis, casos de uso.
Diseño y modelado de bases de datos para proyectos de analítica.
Integración de datos desde APIs, ficheros y procesos ETL.
Bloque 3. Estadística y matemáticas aplicadas
Estadística descriptiva: medidas de tendencia central, dispersión, distribuciones.
Estadística inferencial: estimación, intervalos de confianza, pruebas de hipótesis.
Probabilidad y distribuciones (normal, binomial, Poisson) aplicadas al análisis de datos.
Test A/B y experimentación en entornos de negocio.
Álgebra lineal y cálculo aplicados a algoritmos de machine learning.
Bloque 4. Visualización de datos y storytelling
Visualización con Matplotlib, Seaborn y Plotly.
Construcción de dashboards con Power BI y Tableau.
Principios de diseño visual: claridad, jerarquía, color, accesibilidad.
Storytelling con datos: cómo traducir análisis técnicos en narrativas de negocio.
Casos prácticos sobre datasets reales.
Bloque 5. Machine Learning
Fundamentos del machine learning: aprendizaje supervisado y no supervisado.
Algoritmos de regresión: lineal, polinómica, regularización (Ridge, Lasso).
Algoritmos de clasificación: regresión logística, árboles de decisión, Random Forest, XGBoost, SVM.
Aprendizaje no supervisado: K-Means, clustering jerárquico, DBSCAN.
Reducción de dimensionalidad: PCA, t-SNE, UMAP.
Sistemas de recomendación: filtrado colaborativo y basado en contenido.
Evaluación de modelos: métricas, validación cruzada, control de overfitting.
Feature engineering: selección y creación de variables predictivas.
Bloque 6. Deep Learning y redes neuronales
Fundamentos de redes neuronales: perceptrón, backpropagation, funciones de activación.
Frameworks de deep learning: TensorFlow, Keras y PyTorch.
Redes neuronales convolucionales (CNN) aplicadas a visión por computador.
Redes recurrentes (RNN, LSTM, GRU) y arquitecturas Transformer.
Procesamiento del lenguaje natural (NLP): tokenización, embeddings, análisis de sentimiento, clasificación de texto.
Series temporales: análisis y predicción.
Bloque 7. Big Data y procesamiento distribuido
Fundamentos de Big Data: 5 V’s, casos de uso y arquitecturas modernas.
Ecosistema Hadoop: HDFS, MapReduce, YARN.
Apache Spark: RDDs, DataFrames, Spark SQL y MLlib.
PySpark: procesamiento distribuido con Python.
Streaming de datos: Kafka y procesamiento en tiempo real.
Data lakes, data warehouses y arquitecturas Lakehouse.
Bloque 8. Inteligencia Artificial Generativa y LLMs aplicados
Fundamentos de IA generativa: arquitecturas Transformer y modelos de lenguaje.
Uso de LLMs comerciales (ChatGPT, Claude, Gemini) y modelos open source (Llama, Mistral).
Prompt engineering avanzado para tareas de análisis y procesamiento de datos.
Retrieval-Augmented Generation (RAG): conexión de LLMs a bases de conocimiento propias.
Frameworks de desarrollo: LangChain y LlamaIndex.
Fine-tuning de modelos para casos de uso específicos.
Desarrollo de agentes inteligentes con acceso a herramientas y APIs.
Bloque 9. Cloud Computing y MLOps
Fundamentos de cloud computing: AWS, Azure y Google Cloud Platform.
Servicios cloud para Data Science: almacenamiento, cómputo, bases de datos gestionadas.
MLOps: ciclo de vida del modelo, versionado, CI/CD aplicado a machine learning.
Despliegue de modelos en producción: APIs REST, contenedores Docker.
Monitorización y mantenimiento de modelos: drift, retraining, observabilidad.
Automatización de pipelines de datos y modelos.
Bloque 10. Ética, gobernanza y normativa de datos
RGPD y LOPDGDD aplicados al trabajo con datos personales.
AI Act europeo y su impacto en proyectos de inteligencia artificial.
Sesgos algorítmicos: detección, mitigación y modelos explicables (XAI).
Gobierno del dato y calidad: data lineage, data catalog, governance frameworks.
Privacidad y seguridad en proyectos de datos.
Bloque 11. Trabajo Fin de Máster + Empleabilidad
Desarrollo de un proyecto integrador end-to-end: desde la captura del dato hasta el despliegue del modelo y la presentación ejecutiva.
Defensa del proyecto ante tribunal con feedback profesional.
Acompañamiento del Career Advisor: revisión de CV y LinkedIn, preparación de entrevistas técnicas, simulacros de pruebas técnicas y casos de negocio.
Acceso a la bolsa de empresas partner y a procesos reales de selección.