Poste de recherche
AdaBoost est une méthode de classification d'ensemble très populaire pour laquelle de nombreuses variantes ont été publiées. Cet article propose un raffinement générique de toutes ces variantes d'AdaBoost. Au lieu d'attribuer des poids basés sur l'erreur totale des classificateurs de base (comme dans AdaBoost), notre méthode utilise des taux d'erreur spécifiques à chaque classe. Sur l'instance x, elle attribue un poids plus élevé à un classificateur prédisant l'étiquette y sur x, si ce classificateur est moins susceptible de faire une erreur lorsqu'il prédit la classe y. Comme AdaBoost, notre méthode est garantie pour booster les apprenants faibles en apprenants forts. Une étude empirique sur AdaBoost et l'une de ses versions multi-classes, SAMME, démontre la supériorité de notre méthode sur des ensembles de données de plus de 1000 instances ainsi que sur des ensembles de données de plus de trois classes.
15 février 2022
Poste de recherche
Lisez ce document de recherche, co-écrit par Osmar Zaiane, boursier Amii et président du CIFAR AI au Canada : UCTransNet : Repenser les connexions de saut dans U-Net d'une perspective de canal avec Transformer.
27 septembre 2021
Poste de recherche
17 septembre 2021
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.