Poste de recherche
Nous étudions la formation et la performance de réseaux adversariens génératifs utilisant la divergence moyenne maximale (MMD) comme critique, appelés GANs MMD. Notre principale contribution théorique consiste à clarifier la situation du biais dans les fonctions de perte des GAN soulevée par des travaux récents : nous montrons que les estimateurs de gradient utilisés dans le processus d'optimisation des GAN MMD et des GAN de Wasserstein ne sont pas biaisés, mais que l'apprentissage d'un discriminateur basé sur des échantillons conduit à des gradients biaisés pour les paramètres du générateur. Nous abordons également la question du choix du noyau pour la critique MMD, et nous caractérisons le noyau correspondant à la distance d'énergie utilisé pour la critique du GAN de Cramér. Étant une métrique de probabilité intégrale, la MMD bénéficie des stratégies d'entraînement récemment développées pour les GANs de Wasserstein. Dans les expériences, le GAN MMD est capable d'utiliser un réseau critique plus petit que le GAN de Wasserstein, ce qui donne un algorithme d'apprentissage plus simple et plus rapide avec des performances équivalentes. Nous proposons également une mesure améliorée de la convergence du GAN, la distance d'induction du noyau, et montrons comment l'utiliser pour adapter dynamiquement les taux d'apprentissage pendant la formation du GAN.
15 février 2022
Poste de recherche
Lisez ce document de recherche, co-écrit par Osmar Zaiane, boursier Amii et président du CIFAR AI au Canada : UCTransNet : Repenser les connexions de saut dans U-Net d'une perspective de canal avec Transformer.
27 septembre 2021
Poste de recherche
17 septembre 2021
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.