Poste de recherche

Boosting basé sur la précision

Résumé

AdaBoost est une méthode de classification d'ensemble très populaire pour laquelle de nombreuses variantes ont été publiées. Cet article propose un raffinement générique de toutes ces variantes d'AdaBoost. Au lieu d'attribuer des poids basés sur l'erreur totale des classificateurs de base (comme dans AdaBoost), notre méthode utilise des taux d'erreur spécifiques à chaque classe. Sur l'instance x, elle attribue un poids plus élevé à un classificateur prédisant l'étiquette y sur x, si ce classificateur est moins susceptible de faire une erreur lorsqu'il prédit la classe y. Comme AdaBoost, notre méthode est garantie pour booster les apprenants faibles en apprenants forts. Une étude empirique sur AdaBoost et l'une de ses versions multi-classes, SAMME, démontre la supériorité de notre méthode sur des ensembles de données de plus de 1000 instances ainsi que sur des ensembles de données de plus de trois classes.

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !