Imagen del curso gratis Deep Learning y PyTorch

Curso en línea gratuitoDeep Learning y PyTorch

Duración del curso en línea: 31 horas y 15 minutos

Nuevo

Domina deep learning con PyTorch y entrena modelos reales desde cero. Curso online gratis con ejercicios: NLP, visión por computadora, Transformers y más.

En este curso gratuito, aprenda sobre

  • Diferencias y puente entre Machine Learning clásico y Deep Learning
  • Componentes clave de entrenamiento: datos, modelo, loss/objetivo y optimizador
  • PyTorch básico: tensores, DataLoader, Autograd y requires_grad
  • Pipeline de entrenamiento: forward, loss, backward, zero_grad y step; acumulación de gradientes
  • Modelos de 1 capa: regresión lineal y clasificación Softmax; CrossEntropyLoss incluye logits
  • MLP y necesidad de activaciones para introducir no linealidad
  • Modelos en PyTorch: nn.Module, parámetros, state_dict, guardado/carga y persistencia
  • Aceleración con CUDA: mover tensores/modelo a mismo device y tipos compatibles
  • Generalización: overfitting, bias-varianza; validación, test y K-fold
  • Regularización y optimización: L2/weight decay, dropout, SGD/Adam y variantes
  • NLP secuencial: RNN, LSTM/GRU, modelos autoregresivos y preprocesamiento de texto
  • Embeddings: Word2Vec, muestreo negativo y uso de embeddings preentrenados (congelar o entrenar)
  • Seq2Seq, atención y Transformers; ventajas, posicionales, BERT (MLM y NSP/clasificación)
  • Visión: CNNs, ResNet, ViT; transfer learning, fine-tuning, estilo, detección, segmentación y GANs

Descripción del curso

Aprende a diseñar, entrenar y evaluar redes neuronales modernas con una base sólida en teoría y práctica, usando PyTorch como herramienta principal. Este curso online gratuito está pensado para que entiendas cómo funcionan los modelos por dentro y puedas construir soluciones reales en el área de Inteligencia Artificial y Ciencia de Datos, desde modelos lineales y MLP hasta arquitecturas avanzadas para lenguaje e imágenes.

A lo largo del recorrido desarrollarás una visión completa del pipeline de deep learning: representación de datos con tensores, carga eficiente con DataLoaders, cálculo automático de gradientes con Autograd, definición de modelos personalizados, elección de funciones de pérdida y optimizadores, y aceleración en GPU con CUDA. También aprenderás a entrenar sin errores comunes, a controlar la acumulación de gradientes y a persistir modelos de forma recomendada para reutilizarlos o desplegarlos más adelante.

El curso pone especial foco en dominar el entrenamiento de modelos y la generalización: cómo detectar overfitting, analizar bias y varianza, separar correctamente entrenamiento/validación/test, aplicar K-Fold Cross Validation y utilizar técnicas de regularización como L2 y Dropout. Esta base te permitirá tomar mejores decisiones cuando un modelo no mejora, cuando memoriza los datos o cuando necesitas comparar alternativas de forma justa.

Además, avanzarás hacia deep learning aplicado a secuencias y lenguaje natural: redes recurrentes, modelos autoregresivos, LSTM y GRU, embeddings de palabras, Word2Vec con muestreo negativo y el uso de embeddings preentrenados con estrategias de congelación o fine-tuning. Conectarás estas ideas con arquitecturas encoder-decoder, Seq2Seq y mecanismos de atención, hasta llegar a Transformers, BERT y sus objetivos típicos de preentrenamiento.

En visión por computadora, adquirirás intuición y práctica sobre convoluciones, CNN y su evolución histórica, arquitecturas por bloques como VGG, NiN y GoogLeNet, y redes residuales como ResNet y DenseNet. También conocerás Transformers para visión, así como técnicas esenciales de visualización de features, transfer learning y fine-tuning para adaptar modelos preentrenados a nuevos problemas con pocos datos.

Como complemento, verás conceptos clave para tareas avanzadas de visión: detección de objetos con anchor boxes e IoU, segmentación semántica con máscaras, convoluciones transpuestas y enfoques fully convolutional. El cierre incluye una introducción a modelos generativos con GANs para ampliar tu panorama de lo que se puede construir con deep learning.

Con una combinación de videos y ejercicios tipo test orientados a errores frecuentes y decisiones prácticas, este curso es ideal si buscas fortalecer tu perfil en TI, preparar proyectos de machine learning/deep learning, o avanzar hacia roles en ciencia de datos e ingeniería de IA con una base técnica sólida y aplicable.

Contenido del curso

  • Lección en vídeo: De Machine Learning a Deep Learning | Clase 1 - Parte 1 | Curso de Deep Learning | Edición 2022 47m
  • Ejercicio: ¿Cuáles son las 4 componentes clave para entrenar un modelo de Deep Learning?
  • Lección en vídeo: Intro a PyTorch: Tensores, DataLoaders y Autograd | Clase1 - Parte 2 | Curso Deep Learning 2022 1h20m
  • Ejercicio: ¿Cuál es el propósito principal de activar requires_grad=True en un tensor de PyTorch?
  • Lección en vídeo: Redes de una capa: Regresión Lineal | Clase 2 - Parte 1 | Curso de Deep Learning Edición 2022 1h03m
  • Ejercicio: En el pipeline de entrenamiento con PyTorch, ¿qué acción evita que los gradientes se acumulen entre iteraciones cuando se usa un optimizador como SGD?
  • Lección en vídeo: Redes de una capa: Clasificación con Softmax | Clase 2 - Parte 2 | Curso de Deep Learning 2022 55m
  • Ejercicio: En PyTorch, ¿por qué NO se suele incluir una capa Softmax explícita en el modelo cuando se usa CrossEntropyLoss para clasificación multiclase?
  • Lección en vídeo: Redes Multicapa: MLP | Clase 3 - Parte 1 | Curso de Deep Learning 2022 41m
  • Ejercicio: ¿Por qué se necesitan funciones de activación en un perceptrón multicapa (MLP) al apilar capas lineales?
  • Lección en vídeo: Backpropagation y Autograd | Clase 3 - Parte 2 | Curso de Deep Learning 2022 24m
  • Ejercicio: En PyTorch, ¿qué ocurre con los gradientes de los parámetros cuando llamas a backward() varias veces sin reiniciarlos?
  • Lección en vídeo: Pytorch: Modelos Personalizados, Parámetros y Persistencia | Clase 4 - Parte 1 | Deep Learning 2022 1h08m
  • Ejercicio: Al guardar y cargar un modelo en PyTorch, ¿qué es lo que se recomienda persistir en disco para poder reconstruirlo luego?
  • Lección en vídeo: Pytorch: Aceleración por GPU con CUDA | Clase 4 - Parte 2 | Curso de Deep Learning 2022 46m
  • Ejercicio: En PyTorch, ¿qué condición debe cumplirse para poder sumar dos tensores sin error al usar GPU?
  • Lección en vídeo: Error de Generalización: Overfitting, Bias y Varianza | Clase 5 - Parte 1 | Curso Deep Learning 2022 50m
  • Ejercicio: ¿Qué situación describe mejor un caso de overfitting al evaluar un modelo en PyTorch?
  • Lección en vídeo: Selección de Modelos: K-Fold Cross Validation | Clase 5 - Parte 2 | Curso de Deep Learning 2022 34m
  • Ejercicio: ¿Cuál es el motivo principal para introducir un conjunto de validación además de los conjuntos de entrenamiento y test?
  • Lección en vídeo: Regularización L2 y Dropout | Clase 5 - Parte 3 | Curso de Deep Learning Edicción 2022 51m
  • Lección en vídeo: Algoritmos de Optimización | Clase 6 | Curso de Deep Learning Edición 2022 39m
  • Lección en vídeo: Redes Neuronales Recurrentes | Clase 7 - Parte 1 | Curso de Deep Learning Edición 2022 1h25m
  • Ejercicio: ¿Qué característica define a un modelo autoregresivo/recurrente al predecir texto?
  • Lección en vídeo: LSTM y GRU: RNNs con Compuertas | Clase 7 - Parte 2 | Curso de Deep Learning Edición 2022 1h07m
  • Ejercicio: En el preprocesamiento del texto para entrenar un modelo de caracteres, ¿qué hace la expresión regular aplicada al Quijote?
  • Lección en vídeo: Embeddings de Palabras | Clase 8 - Parte 1 | Curso de Deep Learning Edición 2022 1h25m
  • Lección en vídeo: Entrenando Word2Vec con PyTorch | Clase 8 - Parte 2 | Curso de Deep Learning Edición 2022 54m
  • Ejercicio: ¿Cuál es el objetivo de usar muestreo negativo al entrenar Word2Vec (Skip-gram) en PyTorch?
  • Lección en vídeo: Embeddings Pre-Entrenados | Clase 8 - Parte 3 | Curso de Deep Learning Edición 2022 28m
  • Ejercicio: Al cargar embeddings preentrenados en una capa nn.Embedding de PyTorch, ¿qué opción describe correctamente las dos estrategias posibles respecto a los gradientes?
  • Lección en vídeo: Modelos de Secuencia a Secuencia (Seq2Seq) | Clase 9 | Curso de Deep Learning Edición 2022 1h14m
  • Ejercicio: En un modelo Seq2Seq con arquitectura encoder-decoder implementado en PyTorch, ¿cuál es el rol principal del encoder?
  • Lección en vídeo: Mecanismos de Atención | Clase 10 | Curso de Deep Learning Edición 2022 1h04m
  • Lección en vídeo: Transformers: Solo Debemos Prestar Atención |Clase 11 (Parte 1)| Curso de Deep Learning Edición 2022 58m
  • Ejercicio: En la implementación del Transformer en PyTorch, ¿qué cambio se realiza respecto a la codificación posicional del paper original?
  • Lección en vídeo: Transformers: Implementación en PyTorch | Clase 11 (Parte 2) | Curso de Deep Learning Edición 2022 59m
  • Ejercicio: ¿Cuál es la principal ventaja de los Transformers frente a las redes recurrentes al procesar texto?
  • Lección en vídeo: BERT: Transformers Bidireccionales | Clase 12 | Curso de Deep Learning Edición 2022 1h10m
  • Ejercicio: ¿Cuáles son las dos tareas principales con las que se preentrena BERT para modelado de lenguaje y clasificación?
  • Lección en vídeo: Convoluciones y Redes Convolucionales | Clase 13 | Curso de Deep Learning Edición 2022 1h13m
  • Ejercicio: En una Conv2d de PyTorch, ¿cuál es el orden correcto de dimensiones esperado para un tensor de entrada de imágenes?
  • Lección en vídeo: ImageNet, AlexNet y el Cambio de Paradigma en CV | Clase 14 - Parte 1 | Curso Deep Learning 2022 48m
  • Ejercicio: ¿Cuál fue una razón clave por la que las CNN como LeNet no tuvieron éxito inmediato y por qué AlexNet sí despegó años después?
  • Lección en vídeo: VGG, NiN y GoogLeNet: Redes basadas en Bloques | Clase 14 - Parte 2 | Curso Deep Learning 2022 1h02m
  • Ejercicio: En una red tipo NIN (Network in Network), ¿qué cambio principal se propone respecto al “clasificador” final típico de AlexNet/VGG?
  • Lección en vídeo: ResNet y DenseNet: Redes Residuales | Clase 14 - Parte 3 | Curso de Deep Learning Edición 2022 1h15m
  • Ejercicio: ¿Cuál es la idea clave de un bloque residual (ResNet) para garantizar que agregar capas no empeore el rendimiento teórico?
  • Lección en vídeo: Transformers para Visión | Clase 14 (Apéndice) | Curso de Deep Learning Edición 2022 20m
  • Ejercicio: En un Vision Transformer (ViT) para clasificación, ¿qué parte de la salida del encoder se usa para tomar la decisión final?
  • Lección en vídeo: Visualización de las Features | Clase 15 - Parte 1 | Curso de Deep Learning Edición 2022 40m
  • Ejercicio: ¿Cuál es la idea central del transfer learning en visión por computadora?
  • Lección en vídeo: Fine-Tuning | Clase 15 - Parte 2 | Curso de Deep Learning Edición 2022 15m
  • Ejercicio: En fine-tuning con una ResNet18 preentrenada, ¿qué cambio es el más típico para adaptarla a una clasificación binaria (por ejemplo, hot dog vs no hot dog)?
  • Lección en vídeo: Transferencia de Estilos | Clase 15 - Parte 3 | Curso de Deep Learning Edición 2022 31m
  • Ejercicio: En transferencia de estilos con PyTorch, ¿qué se optimiza durante el entrenamiento cuando se usa una red preentrenada (p. ej., VGG19) con sus pesos congelados?
  • Lección en vídeo: Detección de Objetos | Clase 16 | Curso de Deep Learning Edición 2022 2h11m
  • Ejercicio: En detección de objetos con anclajes (anchor boxes), ¿qué mide el índice de Jaccard (IoU) entre dos cajas?
  • Lección en vídeo: Segmentación Semántica | Clase 17 - Parte 1 | Curso de Deep Learning Edición 2022 26m
  • Ejercicio: En segmentación semántica con PyTorch, ¿qué representa la máscara (label) que acompaña a cada imagen?
  • Lección en vídeo: Convoluciones Transpuestas | Clase 17 - Parte 2 | Curso de Deep Learning Edición 2022 26m
  • Ejercicio: ¿Cuál es el propósito principal de la convolución transpuesta (ConvTranspose2d) en redes de visión por computadora?
  • Lección en vídeo: Fully Convolutional Networks | Clase 17 - Parte 3 | Curso de Deep Learning Edición 2022 23m
  • Lección en vídeo: GANs: Redes Generativas Adversarias | Clase 18 | Curso de Deep Learning Edición 2022 48m

Este curso gratuito incluye:

31 horas y 15 minutos de curso de vídeo online

Certificado digital de finalización del curso (Gratis)

Ejercicios para entrenar tus conocimientos

100% gratis, desde el contenido hasta el certificado

¿Listo para empezar?Descarga la app y empieza hoy mismo.

Instale la aplicación

ahora para acceder al curso
Icono que representa cursos de tecnología y negocios

Más de 5000 cursos gratuitos

¡Programación, inglés, marketing digital y mucho más! Aprende lo que quieras, gratis

Icono de calendario con una diana que representa la planificación de estudios

Plan de estudios con IA

La Inteligencia Artificial de nuestra app puede crear un horario de estudio para el curso que elijas

Icono profesional que representa carrera y negocios

De cero al éxito profesional

Mejora tu currículum con nuestro certificado gratuito y luego usa nuestra Inteligencia Artificial para encontrar el trabajo de tus sueños

También puedes utilizar el código QR o los enlaces que aparecen a continuación.

Código QR - Descargar Cursa - Cursos Online

Más cursos gratuitos en Inteligencia artificial y Ciencia de los datos

¡Libro electrónico y audiolibros gratis! ¡Aprende escuchando o leyendo!

¡Descarga la App ahora para tener acceso a + 5000 cursos, ejercicios, certificados y mucho contenido gratis sin pagar nada!

  • Cursos online 100% gratuitos de principio a fin

    Miles de cursos online en vídeo, ebooks y audiolibros.

  • Más de 60 mil ejercicios gratuitos

    Para poner a prueba tus conocimientos durante los cursos en línea

  • Certificado Digital gratuito válido con Código QR

    Generado directamente desde la galería de fotos de tu celular y enviado a tu correo electrónico

Aplicación Cursa en la pantalla del libro electrónico, la pantalla del curso en video y la pantalla de ejercicios del curso, además del certificado de finalización del curso.