Apprentissage ensembliste

Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En statistique et en apprentissage automatique, l'apprentissage ensembliste utilise plusieurs algorithmes d'apprentissage pour obtenir de meilleures prédictions.

Par exemple, l'ensemble de méthodes bagging, boosting et les forêts aléatoires est un exemple d'apprentissage ensembliste[1]. Un ensemble combine k {\displaystyle k} méthodes, M 1 {\displaystyle M_{1}} , M 2 {\displaystyle M_{2}} , ..., M k {\displaystyle M_{k}} .

Notes et références

  1. (en) Jiawei Han, Micheline Kamber et Jian Pei, Data Mining Concepts and Techniques, p. 378-391
v · m
Apprentissage automatique et exploration de données
Paradigmes d'apprentissage
  • Apprentissage par renforcement, par transfert ou incrémental
Problèmes
Apprentissage supervisé
Classement
Régression
Prédiction structurée
Réseau de neurones artificiels
Apprentissage non supervisé et auto-supervisé
Clustering
Réduction de dimensions
IA générative et Modèle génératif
Métaheuristique d'optimisation
Théorie
Logiciels
  • icône décorative Portail des probabilités et de la statistique