Poste de recherche
L'apprentissage des préférences des utilisateurs, représentées par exemple par des réseaux de préférences conditionnelles (CP-nets), est devenu une question centrale dans la recherche en IA. Des études récentes examinent l'apprentissage des CP-nets à partir d'exemples choisis aléatoirement ou à partir de requêtes d'appartenance et d'équivalence. Pour évaluer l'optimalité des algorithmes d'apprentissage et pour mieux comprendre la structure combinatoire des classes de CP-nets, il est utile de calculer certains paramètres de complexité de l'information de la théorie de l'apprentissage. Cet article se concentre sur le cas fréquemment étudié de l'apprentissage exact à partir d'exemples dits de permutation, qui expriment des préférences entre des objets qui ne diffèrent que par un seul attribut. Il présente des limites ou des valeurs exactes de certains paramètres de complexité de l'information bien étudiés, à savoir la dimension VC, la dimension d'enseignement et la dimension d'enseignement récursif, pour des classes de CP-nets acycliques. Nous fournissons également des algorithmes qui apprennent exactement des CP-nets arborescents et acycliques généraux à partir de requêtes d'adhésion. En utilisant nos résultats sur les paramètres de complexité, nous prouvons que nos algorithmes, ainsi qu'un autre algorithme d'apprentissage par requête pour les CP-nets acycliques présenté dans la littérature, sont quasi-optimaux.
15 février 2022
Poste de recherche
Lisez ce document de recherche, co-écrit par Osmar Zaiane, boursier Amii et président du CIFAR AI au Canada : UCTransNet : Repenser les connexions de saut dans U-Net d'une perspective de canal avec Transformer.
27 septembre 2021
Poste de recherche
17 septembre 2021
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.