Principes de l'apprentissage supervisé : régularisation

Principes de l'apprentissage supervisé : régularisation

L'apprentissage supervisé est une approche dans le domaine de l'apprentissage automatique dans laquelle un modèle est formé sur un ensemble de données contenant des entrées et des sorties correspondantes. L’objectif est que le modèle apprenne à mapper les entrées aux sorties afin de pouvoir faire des prédictions précises sur des données invisibles. Cependant, un problème courant dans la formation des modèles d'apprentissage automatique est le surajustement, où le modèle devient trop bien adapté aux données de formation et perd la capacité de se généraliser à de nouvelles données. C'est là que la régularisation devient une technique cruciale.

Qu'est-ce que la régularisation ?

La régularisation est une technique utilisée pour éviter le surajustement en ajoutant une pénalité à la complexité du modèle. Il existe plusieurs formes de régularisation, mais les plus courantes dans le cadre de l'apprentissage supervisé avec Python sont la régularisation L1 (Lasso), la régularisation L2 (Ridge) et Elastic Net, qui combine L1 et L2.

Régularisation L1 (Lasso)

La régularisation L1 ajoute la somme de la valeur absolue des coefficients de pondération en guise de pénalité au coût du modèle. Cela peut conduire à des coefficients de pondération exactement nuls, ce qui signifie que la régularisation L1 peut être utilisée comme une forme de sélection automatique de caractéristiques, en ne conservant que les attributs les plus significatifs dans le modèle final.

Régularisation L2 (Crête)

Contrairement à L1, la régularisation L2 ajoute la somme des carrés des coefficients de poids à la fonction de coût. Cela pénalise les poids élevés, mais aboutit rarement à des poids exactement nuls. La régularisation L2 est utile lorsque nous pensons que de nombreux attributs contribuent au résultat, mais que nous souhaitons que les coefficients soient petits pour favoriser la généralisation du modèle.

Filet élastique

Elastic Net combine les pénalités L1 et L2. Cela peut être particulièrement utile lorsqu’il existe plusieurs caractéristiques corrélées. La régularisation Elastic Net peut conserver un groupe de caractéristiques similaires, tandis que Lasso peut en choisir une seule et ignorer les autres.

Implémentation de la régularisation en Python

En Python, des bibliothèques comme scikit-learn rendent extrêmement simple la mise en œuvre de ces techniques de régularisation. Des modèles comme LogisticRegression ou Ridge ont déjà des paramètres intégrés qui vous permettent d'ajuster la force de la régularisation.

Choisir le paramètre de régularisation

Le choix du paramètre de régularisation, souvent noté alpha ou lambda, est crucial. Ce paramètre contrôle l'équilibre entre l'ajustement du modèle aux données d'entraînement et la complexité du modèle. Une valeur trop faible peut conduire à un surapprentissage, tandis qu'une valeur trop élevée peut conduire à un sous-apprentissage. Le choix optimal de alpha se fait généralement par validation croisée.

Avantages de la régularisation

La régularisation peut améliorer les performances des modèles de machine learning de plusieurs manières :

  • Empêche le surajustement, permettant ainsi au modèle de mieux se généraliser aux nouvelles données.
  • Peut aider à la sélection des fonctionnalités, en particulier avec la régularisation L1.
  • Promeut des modèles plus simples et plus interprétables.
  • C'est utile lorsqu'il y a plus de caractéristiques que d'observations.
  • Aide à gérer la multicolinéarité (caractéristiques hautement corrélées).

Les défis de la régularisation

Bien que la régularisation soit un outil puissant, elle présente également des défis :

  • Le choix du paramètre de régularisation peut être difficile et nécessite une validation croisée.
  • Dans certains cas, il peut être difficile d'interpréter l'impact des pénalités sur les performances du modèle.
  • La régularisation peut ne pas être suffisante si le modèle est trop simple ou si les données d'entraînement sont trop bruitées.

Conclusion

La régularisation est une technique essentielle du machine learning pour créer des modèles robustes et généralisables. En pénalisant la complexité du modèle, cela permet d'éviter le surajustement et favorise la sélection de fonctionnalités. La mise en œuvre étant facilitée par des bibliothèques comme scikit-learn, la régularisation est une pratique standard lors du développement de modèles d'apprentissage supervisé avec Python. Choix judicieux du paramètre de régularisationet comprendre comment cela affecte le modèle est crucial pour le succès de cette technique.

Répondez maintenant à l’exercice sur le contenu :

Laquelle des affirmations suivantes concernant la régularisation est correcte d’après le texte donné ?

Tu as raison! Félicitations, passez maintenant à la page suivante

Vous avez raté! Essayer à nouveau.

Image de l'article Principes d'apprentissage supervisé : sélection du modèle

Page suivante de lebook gratuit :

30Principes d'apprentissage supervisé : sélection du modèle

0 minutes

Obtenez votre certificat pour ce cours gratuitement ! en téléchargeant lapplication Cursa et en lisant lebook qui sy trouve. Disponible sur Google Play ou App Store !

Get it on Google Play Get it on App Store

+ 6,5 millions
d'étudiants

Certificat gratuit et
valide avec QR Code

48 mille exercices
gratuits

Note de 4,8/5 dans les
magasins d'applications

Cours gratuits en
vidéo, audio et texte