Poste de recherche
L'optimisation stochastique est au cœur de l'apprentissage automatique, et sa pierre angulaire est la descente de gradient stochastique (SGD), une méthode introduite il y a plus de 60 ans. Ces huit dernières années ont vu un nouveau développement passionnant : la réduction de la variance pour les méthodes d'optimisation stochastique. Ces méthodes de réduction de la variance (RV) excellent dans les contextes où plus d'un passage par les données d'entraînement est autorisé, atteignant une convergence plus rapide que la SGD en théorie et en pratique. Ces accélérations soulignent le regain d'intérêt pour les méthodes VR et l'augmentation rapide du nombre de travaux sur ce sujet. Cette revue couvre les principes clés et les principaux développements des méthodes VR pour l'optimisation avec des ensembles de données finis et s'adresse à des lecteurs non experts. Nous nous concentrons principalement sur le cadre convexe et laissons des indications aux lecteurs intéressés par les extensions pour la minimisation des fonctions non convexes.
15 février 2022
Poste de recherche
Lisez ce document de recherche, co-écrit par Osmar Zaiane, boursier Amii et président du CIFAR AI au Canada : UCTransNet : Repenser les connexions de saut dans U-Net d'une perspective de canal avec Transformer.
27 septembre 2021
Poste de recherche
17 septembre 2021
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.