18.10. Rétropropagation et formation sur les réseaux neuronaux : régularisation (L1, L2, abandon)

Une formation efficace des réseaux de neurones est l'un des piliers fondamentaux du machine learning, en particulier dans les contextes de deep learning. La rétropropagation est l'algorithme de base derrière la formation des réseaux de neurones, et la régularisation est une technique essentielle pour améliorer les performances et la généralisation des modèles. Dans ce texte, nous explorerons la rétropropagation, le rôle de la régularisation et des techniques spécifiques telles que L1, L2 et Dropout.

Rétropropagation : le cœur de l'apprentissage des réseaux neuronaux

La rétropropagation, ou propagation inverse, est une méthode utilisée pour calculer le gradient de la fonction de coût par rapport à tous les poids du réseau neuronal. Ce gradient est ensuite utilisé pour mettre à jour les poids dans un processus d'optimisation, généralement via un algorithme tel que la descente de gradient. L'idée est de minimiser la fonction de coût en ajustant les pondérations afin que la production prédite par le réseau se rapproche le plus possible de la production souhaitée.

Le processus de rétropropagation commence par la passe directe, où l'entrée passe à travers le réseau pour générer une sortie. Ensuite, l’erreur est calculée en comparant la sortie prévue avec la sortie réelle. Cette erreur se propage ensuite à travers le réseau, de la dernière couche à la première, en calculant le gradient de la fonction de coût par rapport à chaque poids en cours de route. Ce dégradé vous indique comment les poids doivent être ajustés pour réduire l'erreur.

Défis de formation : surapprentissage et nécessité de régularisation

L'un des plus grands défis lors de l'entraînement des réseaux de neurones est le surajustement, qui se produit lorsqu'un modèle apprend des modèles spécifiques à partir des données d'entraînement mais ne se généralise pas bien aux données invisibles. Cela se produit généralement lorsque le réseau est trop complexe par rapport à la quantité et à la variabilité des données d'entraînement. Pour lutter contre le surapprentissage, nous utilisons des techniques de régularisation.

Régularisation L1 et L2

La régularisation L1 et L2 sont deux techniques courantes qui aident à prévenir le surapprentissage en ajoutant un terme de pénalité à la fonction de coût pendant l'entraînement.

La régularisation L1, également connue sous le nom de Lasso, ajoute la somme des valeurs absolues des poids multipliée par un paramètre de régularisation lambda à la fonction de coût. Cela peut conduire à une réduction effective des pondérations à zéro, ce qui se traduit par un modèle plus simple et potentiellement une sélection de fonctionnalités.

D'autre part, la régularisation L2, également connue sous le nom de Ridge, ajoute la somme des carrés des poids multipliée par lambda à la fonction de coût. La régularisation L2 a tendance à répartir la pénalité sur toutes les pondérations, ce qui peut conduire à des modèles plus stables et moins sujets au surajustement.

La valeur de lambda dans les deux techniques détermine la force de la régularisation. Une valeur trop élevée peut conduire à un modèle trop simplifié (sous-ajustement), tandis qu'une valeur trop faible peut avoir peu d'effet sur la prévention du surajustement.

Abandon : une approche différente de la régularisation

Le dropout est une technique de régularisation puissante et populaire pour entraîner des réseaux de neurones profonds. Au lieu d'ajouter un terme de pénalité à la fonction de coût, Dropout fonctionne en « désactivant » de manière aléatoire un sous-ensemble de neurones pendant l'entraînement. Cela signifie qu'à chaque passage vers l'avant, un ensemble aléatoire de neurones est ignoré et leurs poids ne sont pas mis à jour lors de la rétropropagation.

Cette approche aide le réseau à devenir moins sensible à des pondérations spécifiques, favorisant la redondance et obligeant le réseau à apprendre des représentations plus robustes. L’abandon peut être considéré comme un moyen de former un ensemble de réseaux neuronaux plus petits au sein d’un réseau plus vaste, chacun ayant une vision légèrement différente des données. Lors de l'inférence (c'est-à-dire lors de la réalisation de prédictions avec le modèle entraîné), tous les neurones sont utilisés, mais leurs poids sont ajustés pour prendre en compte le taux d'abandon utilisé pendant l'entraînement.

Mise en œuvre et réglage fin

La mise en œuvre de ces techniques de régularisation est généralement simple dans les frameworks de machine learning tels que TensorFlow ou PyTorch. Cependant, le réglage fin des paramètres de régularisation, tels que la valeur lambda pour L1 et L2 ou le taux d'abandon, est crucial et nécessite souvent des expérimentations et une validation croisée.

En résumé, la rétropropagation est le moteur qui pilote l'apprentissage dans les réseaux de neurones, et la régularisation est la clé pour garantir que les modèles apprennent des modèles généralisables et sont robustes aux données invisibles. Le choix entre L1, L2 et Dropout, ou une combinaison des deux, dépendra des caractéristiques spécifiques du problème, de l'ensemble de données et de l'architecture du réseau neuronal en question.

Une compréhension approfondie de ces concepts et techniques est essentielle pourToute personne souhaitant créer des modèles efficaces d’apprentissage automatique et d’apprentissage profond à l’aide de Python ou de tout autre langage de programmation. La formation pratique et l'expérimentation continue de ces techniques sont essentielles au développement des compétences nécessaires à la création et à l'optimisation de réseaux neuronaux.

Répondez maintenant à l’exercice sur le contenu :

Laquelle des affirmations suivantes concernant la régularisation dans les réseaux de neurones est correcte ?

Tu as raison! Félicitations, passez maintenant à la page suivante

Vous avez raté! Essayer à nouveau.

Image de l'article Rétropropagation et formation sur les réseaux neuronaux : normalisation par lots

Page suivante de lebook gratuit :

57Rétropropagation et formation sur les réseaux neuronaux : normalisation par lots

0 minutes

Obtenez votre certificat pour ce cours gratuitement ! en téléchargeant lapplication Cursa et en lisant lebook qui sy trouve. Disponible sur Google Play ou App Store !

Get it on Google Play Get it on App Store

+ 6,5 millions
d'étudiants

Certificat gratuit et
valide avec QR Code

48 mille exercices
gratuits

Note de 4,8/5 dans les
magasins d'applications

Cours gratuits en
vidéo, audio et texte