Poste de recherche
En 1963, Polyak a proposé une condition simple qui est suffisante pour montrer un taux de convergence linéaire global pour la descente de gradient. Cette condition est un cas particulier de l'inégalité de Łojasiewicz proposée la même année, et elle ne nécessite pas de convexité forte (ou même de convexité). Dans ce travail, nous montrons que cette inégalité Polyak-Łojasiewicz (PL), beaucoup plus ancienne, est en fait plus faible que les principales conditions qui ont été explorées pour montrer des taux de convergence linéaires sans convexité forte au cours des 25 dernières années. Nous utilisons également l'inégalité PL pour donner de nouvelles analyses de la descente de coordonnées et du gradient stochastique pour de nombreuses fonctions non fortement convexes (et certaines non convexes). Nous proposons en outre une généralisation qui s'applique aux méthodes de gradient proximal pour l'optimisation non lisse, conduisant à des preuves simples de convergence linéaire pour les machines à vecteurs de support et les moindres carrés régularisés L1 sans hypothèses supplémentaires.
15 février 2022
Poste de recherche
Lisez ce document de recherche, co-écrit par Osmar Zaiane, boursier Amii et président du CIFAR AI au Canada : UCTransNet : Repenser les connexions de saut dans U-Net d'une perspective de canal avec Transformer.
27 septembre 2021
Poste de recherche
17 septembre 2021
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.