7.10. Principes d'apprentissage supervisé : optimisation des hyperparamètres

L'apprentissage supervisé est l'une des approches les plus courantes et les plus puissantes en matière d'apprentissage automatique (ML). Dans ce paradigme, l’objectif est de construire un modèle capable d’apprendre à partir d’exemples étiquetés afin de faire des prédictions ou des décisions sur des données inédites. Pour obtenir des performances optimales, il est essentiel de comprendre et d’appliquer efficacement l’optimisation des hyperparamètres, qui sont des paramètres externes au modèle et non appris lors de l’entraînement. Nous aborderons ensuite les aspects fondamentaux de l'optimisation des hyperparamètres dans l'apprentissage supervisé.

Comprendre les hyperparamètres

Les hyperparamètres sont les paramètres d'un algorithme d'apprentissage qui sont définis avant le début de la formation et qui influencent le processus d'apprentissage et la structure du modèle final. Contrairement aux paramètres du modèle, qui sont appris à partir des données, les hyperparamètres doivent être réglés manuellement ou via des algorithmes d'optimisation. Des exemples d'hyperparamètres incluent le taux d'apprentissage, le nombre de couches dans un réseau neuronal, le nombre de voisins dans le k-NN et le paramètre de régularisation dans les modèles linéaires.

Importance de l'optimisation des hyperparamètres

Le choix des hyperparamètres peut avoir un impact considérable sur les performances du modèle. Des hyperparamètres inadéquats peuvent entraîner des problèmes tels qu'un surajustement, lorsque le modèle s'adapte trop aux données d'entraînement et perd sa capacité de généralisation, ou un sous-ajustement, lorsque le modèle est trop simple pour capturer la complexité des données. Par conséquent, l'optimisation des hyperparamètres est une étape critique pour garantir que le modèle atteigne son potentiel maximum.

Méthodes d'optimisation des hyperparamètres

Il existe plusieurs techniques d'optimisation des hyperparamètres, qui peuvent être classées en méthodes manuelles, automatiques et semi-automatiques.

  • Recherche manuelle : le réglage manuel des hyperparamètres est souvent la première approche utilisée, mais il s'agit d'un processus lent et inefficace qui repose fortement sur l'intuition et l'expérience du praticien.
  • Grid Search : Cette méthode consiste à définir un ensemble de valeurs possibles pour chaque hyperparamètre et à évaluer toutes les combinaisons possibles. Bien qu'il s'agisse d'une méthode systématique, elle peut prendre beaucoup de temps, surtout lorsque le nombre d'hyperparamètres et leurs valeurs possibles sont importants.
  • Recherche aléatoire : au lieu de tester toutes les combinaisons, la recherche aléatoire sélectionne de manière aléatoire les configurations d'hyperparamètres dans une distribution spécifiée. Cette méthode peut être plus efficace que la recherche par grille, en particulier lorsque certains hyperparamètres sont plus importants que d'autres.
  • Optimisation bayésienne : cette méthode utilise des modèles probabilistes pour trouver la meilleure combinaison d'hyperparamètres, en tenant compte des résultats précédents pour ajuster la recherche plus intelligemment. L'optimisation bayésienne peut être plus efficace que la grille et la recherche aléatoire, en particulier dans les espaces hyperparamétriques de grande dimension.

Validation croisée

Pour évaluer l'efficacité de différentes configurations d'hyperparamètres, il est courant d'utiliser des techniques de validation croisée. La validation croisée consiste à diviser l'ensemble de données en plusieurs parties, à entraîner le modèle sur certaines de ces parties et à valider les performances sur d'autres. Cela permet de garantir que l'optimisation des hyperparamètres ne consiste pas simplement à adapter le modèle aux données d'entraînement, mais à améliorer sa capacité de généralisation.

Considérations pratiques

Lors de l'optimisation des hyperparamètres, il est important de prendre en compte le coût de calcul. Certains modèles, notamment les réseaux de neurones profonds, peuvent prendre beaucoup de temps à s’entraîner. Par conséquent, les méthodes d’optimisation qui nécessitent de nombreuses évaluations de modèles peuvent ne pas être réalisables dans tous les cas. De plus, l'optimisation des hyperparamètres doit être effectuée avec soin pour éviter le « surajustement des hyperparamètres », où les hyperparamètres sont surajustés à l'ensemble de validation, perdant ainsi leur capacité de généralisation.

Automatisation de l'optimisation des hyperparamètres

Avec l'avancement des bibliothèques ML et l'augmentation de la puissance de calcul, des outils automatisés d'optimisation des hyperparamètres ont vu le jour, tels que Hyperopt, Optuna et Scikit-Optimize. Ces outils mettent en œuvre des algorithmes d'optimisation avancés et permettent aux praticiens du ML de se concentrer davantage sur la modélisation et moins sur le réglage fin des modèles.

Conclusion

L'optimisation des hyperparamètres est un élément crucial de l'apprentissage supervisé et peut influencer considérablement les performances des modèles de ML. Comprendre les différentes méthodes d'optimisation et savoir les appliquerl'efficacité est une compétence précieuse pour tout data scientist ou ingénieur en apprentissage automatique. Le choix de la méthode d'optimisation dépend du problème spécifique, du modèle choisi, du budget de calcul disponible et du temps. Avec la pratique, les praticiens développent une intuition quant aux hyperparamètres les plus critiques et à la manière de les régler pour obtenir les meilleurs résultats.

Répondez maintenant à l’exercice sur le contenu :

Laquelle des affirmations suivantes est vraie concernant l’optimisation des hyperparamètres dans le contexte de l’apprentissage supervisé en apprentissage automatique (ML) ?

Tu as raison! Félicitations, passez maintenant à la page suivante

Vous avez raté! Essayer à nouveau.

Image de l'article Principes d'apprentissage supervisé : ingénierie des fonctionnalités

Page suivante de lebook gratuit :

32Principes d'apprentissage supervisé : ingénierie des fonctionnalités

0 minutes

Obtenez votre certificat pour ce cours gratuitement ! en téléchargeant lapplication Cursa et en lisant lebook qui sy trouve. Disponible sur Google Play ou App Store !

Get it on Google Play Get it on App Store

+ 6,5 millions
d'étudiants

Certificat gratuit et
valide avec QR Code

48 mille exercices
gratuits

Note de 4,8/5 dans les
magasins d'applications

Cours gratuits en
vidéo, audio et texte