¿Qué quieres aprender?

Curso de Procesamiento del Lenguaje Natural Moderno en Python

Curso de Procesamiento del Lenguaje Natural Moderno en Python

Frogames Formación

Curso online


70

El curso de Procesamiento del Lenguaje Natural Moderno en Python está diseñado para cualquiera que quiera crecer o empezar una nueva carrera y obtener una sólida formación en el campo del NLP.

Hoy en día, la industria está cada vez más necesitada de soluciones de NLP. Chatbots y automatización en línea, modelado de lenguaje, extracción de eventos, detección de fraude en contratos enormes son sólo algunos ejemplos de lo que se demanda hoy en día. Aprender NLP es clave para aportar soluciones reales a las necesidades presentes y futuras.

A lo largo de este curso, aprovecharemos la enorme cantidad de datos de voz y texto disponibles en línea y exploraremos las 3 principales y más poderosas aplicaciones del NLP, que te darán el poder de abordar con éxito cualquier desafío del mundo real.

Primero, nos sumergiremos en las Redes Neuronales Convolucionales para crear una aplicación de análisis de sentimiento. Luego, iremos a Transformers, reemplazando las Redes Neuronales Recurrentes para crear un sistema de traducción de idiomas.

El curso es fácil de usar y sobre todo muy eficiente: nuestro curso Procesamiento del Lenguaje Natural Moderno en Python aprovecha las últimas tecnologías - Tensorflow 2.0 y Google Colab - asegurándote que no tendrás ningún problema de compatibilidad con tu ordenador, con la instalación o la versión del software y que estás usando las herramientas más actualizadas y avanzadas.

¡Nos vemos en clase!

¿Quieres hablar con un asesor sobre este curso?

Objetivos

-Construir un Transformer, nuevo modelo creado por Google para cualquier tarea de secuencia a secuencia (por ejemplo, un traductor) -Crear conjuntos de datos para entrenar la IA a partir de esos datos y cómo limpiar y preprocesar esos datos en formato de texto -Entender cómo hacemos que los ordenadores den significado al lenguaje humano -Escribir un proceso de entrenamiento personalizado para métodos de entrenamiento más avanzados en NLP -Crear capas y modelos en Tensorflow 2.0 para tareas específicas de NLP -Usar Google Colab y Tensorflow 2.0 para tus implementaciones de IA -Escoger el mejor modelo para cada tarea de NLP -Comprender por qué y cómo funciona cada uno de los modelos -Comprender todo sobre el mecanismo de atención que se encuentra detrás de los algoritmos de NLP más nuevos y poderosos -Construir una Red Neuronal Convolucional especializada en NLP para tareas de clasificación (por ejemplo, análisis de sentimiento)

Requisitos

Este es un curso de nivel experto, por tanto es requisito indispensable: -Tener un ordenador con conexión a internet y con cualquier sistema operativo instalado y saber utilizarlo a nivel básico de usuario. -Disponer de habilidades de programación en Python adquiridas en los cursos previos de Frogames. -Tener experiencia con TF2.0Tener experiencia con Google Colab.

Temario completo de este curso

Intuición de las Redes Neuronales de Convolución para NLP

  • Introducción

  • La teoría de las Redes Neuronales Convolucionales (CNN)

  • De las imágenes al texto

  • Redes Neuronales de Convolución para NLP

Aplicación de las Redes Neuronales de Convolución para el análisis de sentimiento

  • Introducción

  • Dependencias

  • Cargar los conjuntos de datos

  • Limpieza de los tweets

  • Creación de las entradas (Word Embeddings)

  • Creación del modelo

  • La configuración

  • El entrenamiento

  • La evaluación

Intuición de los Transformer

  • Introducción a Transformer

  • NLP con RNN (Redes Neuronales Recurrentes)

  • Conceptos generales

  • La atención (Self-Attention)

  • Codificación posicional (Positional Encoding)

  • Últimos detalles de transformer

Aplicación práctica de los Transformer para análisis de texto

  • Introducción

  • Las librerías y carga de dependencias

  • Carga de ficheros

  • Limpieza de datos con expresiones regulares

  • El proceso de tokenización

  • Longitud máxima (Padding y Truncating)

  • Creación de las entradas

  • El encoding posicional

  • La atención a través del producto escalar

  • Atención con múltiples encabezados (Multi-Head Attention)

  • ¿Por qué el Transformer suele rendir peor sin Multi-Head Attention?

  • Codificación (Encoder)

  • Descodificación (Decoder)

  • Transformer (Arquitectura completa)

  • Entrenamiento

  • Evaluación

Bonus por ser estudiante de Frogames

  • Bonus 1 - CNN Avanzada

  • Bonus 1 - Tokenización avanzada

  • Bonus 1 - Las capas personalizadas

  • Bonus 1 - Creación del nuevo modelo de CNN

  • Bonus 1 - Entrenamiento

  • Bonus 1 - Evaluación

  • Bonus 2 - Cómo representar gráficamente la Atención

Ver más