Curso gratuito de deep learning com redes neurais, CNNs, RNNs e PLN, cobrindo fundamentos, treinamento, otimização, compressão e visualização.
Neste curso gratuito, aprenda sobre
Fundamentos de Redes Neurais Artificiais
Introdução ao Deep Learning e Visão Geral de Tarefas
Redes Convolucionais (CNN): Conceitos e Componentes
Treinamento de CNNs: Perda, Regularização, Transfer Learning e Validação
Funções de Perda e Aprendizado de Similaridade
Otimização e Ajuste de Parâmetros
Arquiteturas Clássicas e Eficientes de CNNs
Redes Neurais Recorrentes (RNN) e Treinamento em Sequências
Modelagem de Sequências e Processamento de Linguagem Natural (PLN)
Compressão e Otimização de Modelos para Produção
Interpretação e Visualização de Modelos
Descrição do curso
Deep Learning Completo: Redes Neurais, CNNs, RNNs e PLN é um curso online gratuito da área de Tecnologia, Informática e Programação, voltado para quem quer entender e aplicar técnicas modernas de Inteligência Artificial e Ciência de Dados. A proposta é conduzir você do raciocínio fundamental por trás das redes neurais até arquiteturas mais avançadas usadas em visão computacional e processamento de linguagem.
Ao longo do aprendizado, você desenvolve base sólida sobre como modelos aprendem a partir de dados, como configurar camadas e ativações, e como interpretar o papel de funções de perda e estratégias de otimização para melhorar desempenho e estabilidade no treinamento. O curso também aprofunda o uso de redes convolucionais, explorando como elas capturam padrões em imagens e como diferentes escolhas de arquitetura impactam resultados.
Na parte de sequências, você entra no universo das redes recorrentes e da modelagem temporal, conectando esses conceitos a aplicações de PLN. Isso ajuda a compreender como representar, treinar e ajustar modelos para lidar com texto e dependências entre tokens, além de boas práticas para evoluir experimentos.
Para fechar, o curso aborda temas essenciais para sair do protótipo e chegar mais perto do uso real, como técnicas de compressão para reduzir custo computacional e métodos de visualização para investigar o que o modelo está aprendendo. Uma trilha completa para quem busca clareza conceitual e visão prática do ecossistema de deep learning.
Conteúdo do curso
Aula em vídeo: Redes Neurais Artificiais (Parte 01)09m
Exercício: Qual é a principal vantagem de combinar vários neurônios (perceptrons) em vez de usar apenas um classificador linear?
Aula em vídeo: Redes Neurais Artificiais (Parte 02)17m
Exercício: Qual foi a principal solução apresentada para superar a limitação do Perceptron em problemas não linearmente separáveis (como o XOR)?
Aula em vídeo: Redes Neurais Artificiais (Parte 03)08m
Exercício: Qual é o principal objetivo do dropout durante o treinamento de redes neurais?
Aula em vídeo: Redes Neurais Artificiais (Parte 04)08m
Exercício: Qual é o principal efeito de uma inicialização de pesos considerada apropriada em uma rede neural durante o treinamento?
Aula em vídeo: Redes Neurais Artificiais (Parte 05)06m
Exercício: Qual é o principal objetivo da Batch Normalization durante o treinamento de redes neurais profundas?
Aula em vídeo: Redes Neurais Artificiais (Parte 06)10m
Exercício: Qual é o papel da taxa de aprendizagem no treinamento de uma rede neural?
Aula em vídeo: Deep Learning Descomplicado: Fundamentos (Parte 01)14m
Exercício: Quais fatores mais impulsionaram a evolução e a popularização do Deep Learning nos últimos anos?
Aula em vídeo: Deep Learning Descomplicado: Fundamentos (Parte 02)19m
Exercício: Em tarefas de visão computacional mais refinadas, qual é a principal diferença entre detecção com bounding box e segmentação?
Aula em vídeo: Deep Learning Descomplicado: Fundamentos (Parte 03)13m
Exercício: Qual é a principal diferença entre a abordagem tradicional de Aprendizado de Máquina e a abordagem de Deep Learning?
Aula em vídeo: Deep Learning Descomplicado: Fundamentos (Parte 04)10m
Exercício: Qual desafio ocorre quando um modelo treinado para classificar apenas laranjas e bananas recebe uma maçã para classificar?
Aula em vídeo: Redes Neurais Convolucionais - CNN (Parte 01)13m
Exercício: Qual ideia central inspirou o desenvolvimento das redes convolucionais (CNNs) para visão computacional?
Aula em vídeo: Redes Neurais Convolucionais - CNN (Parte 02)22m
Exercício: Em uma CNN, quais são os três componentes básicos que costumam ser combinados para formar a arquitetura?
Aula em vídeo: Redes Neurais Convolucionais - CNN (Parte 03)14m
Exercício: Em uma CNN, qual é o principal papel da camada de ativação (ex.: ReLU) após a convolução?
Aula em vídeo: Treinamento de Redes Neurais Artificiais - CNN (Parte 01)08m
Exercício: No treinamento de uma CNN, qual é o papel da função de perda (ex.: entropia cruzada com softmax)?
Aula em vídeo: Treinamento de Redes Neurais Artificiais - CNN (Parte 02)17m
Exercício: Em aprendizagem por transferência com CNNs, qual estratégia é mais indicada quando você tem poucos dados e o novo problema é semelhante ao problema original do modelo pré-treinado?
Aula em vídeo: Treinamento de Redes Neurais Artificiais - CNN (Parte 03)13m
Exercício: Qual técnica de regularização interrompe o treinamento quando o desempenho em validação começa a piorar, evitando overfitting?
Aula em vídeo: Treinamento de Redes Neurais Artificiais - CNN (Parte 04)22m
Exercício: Ao ajustar hiperparâmetros de um modelo de Deep Learning, qual conjunto de dados deve orientar as decisões para evitar viés no resultado final?
Aula em vídeo: Treinamento de Redes Neurais Artificiais - CNN (Parte 05)11m
Exercício: Na arquitetura CNN descrita, qual é o principal efeito das camadas de pooling com stride 2 ao longo da rede?
Aula em vídeo: Funções de Perda (Parte 01)13m
Exercício: Qual afirmação descreve corretamente a função de perda Huber em comparação com MAE e MSE?
Aula em vídeo: Funções de Perda (Parte 02)06m
Exercício: Na loss Triplet, qual é o objetivo principal ao treinar com âncora, exemplo positivo e exemplo negativo?
Aula em vídeo: Otimização dos Modelos (Parte 01)12m
Exercício: No ajuste de parâmetros em um classificador linear, qual é o papel da taxa de aprendizagem no gradiente descendente?
Aula em vídeo: Otimização dos Modelos (Parte 02)19m
Exercício: Em Deep Learning, qual técnica ajusta os pesos do modelo para minimizar a função de perda usando o gradiente?
Aula em vídeo: Otimização dos Modelos (Parte 03)12m
Exercício: Qual é o principal efeito de usar uma taxa de aprendizado (learning rate) muito grande durante a otimização por gradiente?
Aula em vídeo: Arquiteturas de Redes Convolucionais - CNN (Parte 01)19m
Exercício: Na arquitetura AlexNet, qual afirmação descreve corretamente a primeira camada convolucional e o efeito no volume de saída?
Aula em vídeo: Arquiteturas de Redes Convolucionais - CNN (Parte 02)13m
Exercício: Qual foi a principal mudança introduzida pela VGG para tornar a escolha de hiperparâmetros mais “linear” na arquitetura?
Aula em vídeo: Arquiteturas de Redes Convolucionais - CNN (Parte 03)15m
Exercício: Qual foi a principal estratégia do módulo Inception para aumentar a capacidade de extração de características sem aumentar excessivamente o custo computacional?
Aula em vídeo: Arquiteturas de Redes Convolucionais - CNN (Parte 04)16m
Exercício: Qual foi a principal ideia introduzida pela ResNet para viabilizar o treinamento de redes muito profundas?
Aula em vídeo: Arquiteturas de Redes Convolucionais - CNN (Parte 05)12m
Exercício: Qual é a principal estratégia usada pela MobileNet para reduzir custo computacional mantendo boa performance em CNNs?
Aula em vídeo: Redes Neurais Recorrentes - RNN (Parte 01)08m
Exercício: Qual é a principal vantagem das redes neurais recorrentes ao lidar com dados temporais ou sequenciais?
Aula em vídeo: Redes Neurais Recorrentes - RNN (Parte 02)14m
Exercício: Qual é o principal papel da realimentação (recorrência) em uma rede neural recorrente ao processar sequências?
Aula em vídeo: Redes Neurais Recorrentes - RNN (Parte 03)09m
Exercício: Qual é o principal objetivo do Backpropagation Through Time (BPTT) truncado ao treinar RNNs em sequências longas?
Aula em vídeo: Redes Neurais Recorrentes - RNN (Parte 04)12m
Exercício: Em redes neurais recorrentes (RNNs), qual técnica é usada para evitar a explosão do gradiente durante o treinamento?
Aula em vídeo: Redes Neurais Recorrentes - RNN (Parte 05)02m
Exercício: Qual é a principal vantagem de arquiteturas recorrentes avançadas (como LSTM) ao modelar sequências temporais?
Aula em vídeo: Modelagem de Sequência e Processamento de Linguagem Natural - PLN (Parte 01)09m
Exercício: Em uma arquitetura tradicional para geração de legenda (caption) a partir de imagens, qual combinação de módulos é mais comum?
Aula em vídeo: Modelagem de Sequência e Processamento de Linguagem Natural - PLN (Parte 02)12m
Exercício: Em modelos Encoder-Decoder para tarefas sequenciais, qual é a principal função do mecanismo de atenção?
Aula em vídeo: Modelagem de Sequência e Processamento de Linguagem Natural - PLN (Parte 03)13m
Exercício: Qual é a principal vantagem de usar representações vetoriais (embeddings) em vez de one-hot/Bag-of-Words para modelar texto?
Aula em vídeo: Modelagem de Sequência e Processamento de Linguagem Natural - PLN (Parte 04)12m
Aula em vídeo: Compressão de Modelos (Parte 01)13m
Exercício: Qual é o objetivo principal da quantização em compressão de modelos de Deep Learning?
Aula em vídeo: Compressão de Modelos (Parte 02)07m
Exercício: Qual é o principal objetivo da técnica de poda (pruning) em redes neurais profundas?
Aula em vídeo: Compressão de Modelos (Parte 03)14m
Exercício: Qual é a principal ideia do uso de convolução separável em profundidade (depthwise separable convolution) para otimizar CNNs?
Aula em vídeo: Visualização de Modelos (Parte 01)14m
Exercício: Qual estratégia é indicada para visualizar a proximidade entre imagens usando a representação aprendida por uma CNN, em vez de comparar pixels diretamente?
Aula em vídeo: Visualização de Modelos (Parte 02)07m
Exercício: Ao comparar PCA e t-SNE para visualizar dados de alta dimensionalidade, qual afirmação está correta?
Aula em vídeo: Visualização de Modelos (Parte 03)13m
Exercício: Qual técnica de visualização identifica os pixels de entrada mais relacionados à saída de uma classe ao calcular o gradiente em relação aos pixels (e não aos pesos)?