El curso de Procesamiento del Lenguaje Natural Moderno en Python está diseñado para cualquiera que quiera crecer o empezar una nueva carrera y obtener una sólida formación en el campo del NLP.
Hoy en día, la industria está cada vez más necesitada de soluciones de NLP. Chatbots y automatización en línea, modelado de lenguaje, extracción de eventos, detección de fraude en contratos enormes son sólo algunos ejemplos de lo que se demanda hoy en día. Aprender NLP es clave para aportar soluciones reales a las necesidades presentes y futuras.
A lo largo de este curso, aprovecharemos la enorme cantidad de datos de voz y texto disponibles en línea y exploraremos las 3 principales y más poderosas aplicaciones del NLP, que te darán el poder de abordar con éxito cualquier desafío del mundo real.
Primero, nos sumergiremos en las Redes Neuronales Convolucionales para crear una aplicación de análisis de sentimiento. Luego, iremos a Transformers, reemplazando las Redes Neuronales Recurrentes para crear un sistema de traducción de idiomas.
El curso es fácil de usar y sobre todo muy eficiente: nuestro curso Procesamiento del Lenguaje Natural Moderno en Python aprovecha las últimas tecnologías - Tensorflow 2.0 y Google Colab - asegurándote que no tendrás ningún problema de compatibilidad con tu ordenador, con la instalación o la versión del software y que estás usando las herramientas más actualizadas y avanzadas.
¡Nos vemos en clase!
Emagister S.L. (responsable) tratará tus datos personales con la finalidad de gestionar el envío de solicitudes de información y comunicaciones promocionales de formación con tu consentimiento. Ejerce tus derechos de acceso, supresión, rectificación, limitación, portabilidad y otros, según se indica en nuestra política de privacidad.
Objetivos
-Construir un Transformer, nuevo modelo creado por Google para cualquier tarea de secuencia a secuencia (por ejemplo, un traductor) -Crear conjuntos de datos para entrenar la IA a partir de esos datos y cómo limpiar y preprocesar esos datos en formato de texto -Entender cómo hacemos que los ordenadores den significado al lenguaje humano -Escribir un proceso de entrenamiento personalizado para métodos de entrenamiento más avanzados en NLP -Crear capas y modelos en Tensorflow 2.0 para tareas específicas de NLP -Usar Google Colab y Tensorflow 2.0 para tus implementaciones de IA -Escoger el mejor modelo para cada tarea de NLP -Comprender por qué y cómo funciona cada uno de los modelos -Comprender todo sobre el mecanismo de atención que se encuentra detrás de los algoritmos de NLP más nuevos y poderosos -Construir una Red Neuronal Convolucional especializada en NLP para tareas de clasificación (por ejemplo, análisis de sentimiento)
Requisitos
Este es un curso de nivel experto, por tanto es requisito indispensable: -Tener un ordenador con conexión a internet y con cualquier sistema operativo instalado y saber utilizarlo a nivel básico de usuario. -Disponer de habilidades de programación en Python adquiridas en los cursos previos de Frogames. -Tener experiencia con TF2.0Tener experiencia con Google Colab.
Temario completo de este curso
Intuición de las Redes Neuronales de Convolución para NLP
Introducción
La teoría de las Redes Neuronales Convolucionales (CNN)
De las imágenes al texto
Redes Neuronales de Convolución para NLP
Aplicación de las Redes Neuronales de Convolución para el análisis de sentimiento
Introducción
Dependencias
Cargar los conjuntos de datos
Limpieza de los tweets
Creación de las entradas (Word Embeddings)
Creación del modelo
La configuración
El entrenamiento
La evaluación
Intuición de los Transformer
Introducción a Transformer
NLP con RNN (Redes Neuronales Recurrentes)
Conceptos generales
La atención (Self-Attention)
Codificación posicional (Positional Encoding)
Últimos detalles de transformer
Aplicación práctica de los Transformer para análisis de texto
Introducción
Las librerías y carga de dependencias
Carga de ficheros
Limpieza de datos con expresiones regulares
El proceso de tokenización
Longitud máxima (Padding y Truncating)
Creación de las entradas
El encoding posicional
La atención a través del producto escalar
Atención con múltiples encabezados (Multi-Head Attention)
¿Por qué el Transformer suele rendir peor sin Multi-Head Attention?
Codificación (Encoder)
Descodificación (Decoder)
Transformer (Arquitectura completa)
Entrenamiento
Evaluación
Bonus por ser estudiante de Frogames
Bonus 1 - CNN Avanzada
Bonus 1 - Tokenización avanzada
Bonus 1 - Las capas personalizadas
Bonus 1 - Creación del nuevo modelo de CNN
Bonus 1 - Entrenamiento
Bonus 1 - Evaluación
Bonus 2 - Cómo representar gráficamente la Atención