XGBoost : un exemple sur les fleurs

Capri23auto / Pixabay

XGBoost (Extreme Gradient Boosting) est une librairie devenue très célèbre sur Kaggle car elle permet rapidement de trouver quels paramètres influent sur un phénomène. Voici un exemple simple sur la détermination de espèces d’iris en fonction de la morphologie de la fleur.

Quelques commentaires sur les étapes du calcul:

Cellule Commentaire
5 Chargement des données sur 150 fleurs qui sont déjà disponibles dans sklearn
28 Séparation entre un dataset d’entraînement de 120 fleurs et de test de 30 fleurs. Les variables sont renommées car les représentation des arbres de décision ne fonctionnement pas avec des labels contentant des espaces
33 Les correspondances entre les labels de légende et les variables en centimètres sont affichées dans le tableau
37 Entrainement de XGBoost et affichage du score
38 Essai sur les données de test (il faut lire test et non train)
36 Variables influant le plus sur la détermination de l’espèce (parmi les trois possibles)
38 Exemple d’arbre

voir également https://xgboost.readthedocs.io/en/latest/

Merci à Joan pour l’information

Télécharger cet article au format PDF ou ePub

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.