DecisionTreeClassifier vs ExtraTreeClassifier

J'essaie de comprendre quelle méthode d'arbre de décision du paquet scikit-learn répondra mieux à mes besoins pour effectuer une tâche de classification.

Cependant, j'ai trouvé qu'il y a deux modèles d'arbre de décision disponibles:

  • standard DecisionTreeClassifier basé sur l'algorithme CART optimisé du paquetage scikit.tree.
  • méthode d'ensemble ExtraTreeClassifier du paquetage scikit.ensemble.

Quelqu'un peut-il préciser les avantages et les inconvénients de l'utilisation de chacun de ces modèles?

0

1 Réponses

ExtraTreeClassifier is an extremely randomized version of DecisionTreeClassifier meant to be used internally as part of the ExtraTreesClassifier ensemble.

Averaging ensembles such as a RandomForestClassifier and ExtraTreesClassifier are meant to tackle the variance problems (lack of robustness with respect to small changes in the training set) of individual DecisionTreeClassifier instances.

Si votre objectif principal est de maximiser la précision des prédictions, vous devriez presque toujours utiliser un ensemble d'arbres de décision tels que ExtraTreesClassifier (ou bien boosting ensemble ) au lieu de former des arbres de décision individuels.

Jetez un oeil à l'original Papier Extra Trees pour plus de détails .

0
ajouté