Institut de l'intelligence artificielle de l'Alberta

Amii à l'ICLR 2023 | Amii

Publié

28 avril 2023

C'est aujourd'hui le premier jour de la onzième conférence internationale sur la représentation de l'apprentissage (ICLR), qui se tiendra à Kigali, au Rwanda, du 1er au 5 mai 2023.

L'ICLR est l'une des principales conférences sur l'apprentissage par représentation, une branche de l'apprentissage automatique qui se concentre sur la transformation et l'extraction de données dans le but d'identifier des caractéristiques ou des modèles utiles. La conférence attire des experts du monde entier pour présenter des travaux de pointe dont les applications s'étendent à des domaines tels que la vision par ordinateur, la biologie informatique, les jeux, la robotique et bien d'autres encore.

Les boursiers d'Amii, les chaires d'IA de CIFAR Canada et les étudiants présentent des dizaines d'affiches, d'articles et d'ateliers à la conférence de cette année. Leurs travaux couvrent un large éventail de sujets liés à l'apprentissage par représentation et à l'apprentissage profond : de nouvelles stratégies d'incitation pour permettre un raisonnement complexe dans de grands modèles de langage à la résolution de problèmes liés à l'apprentissage faiblement supervisé, en passant par l'amélioration de l'efficacité de l'échantillonnage lors de la relecture d'une expérience.

Pour la conférence de cette année, nous avons mis au défi certains de nos étudiants affiliés d'expliquer leurs articles en une minute. Découvrez les vidéos ci-dessous, ainsi qu'un aperçu de la contribution des chercheurs d'Amii à la conférence ICLR 2023.


(Les entrées marquées d'un * indiquent qu'une personne a été supervisée par un boursier Amii et/ou une chaire d'IA du CIFAR Canada)


Présentations d'affiches en personne

Représentation des variables latentes pour l'apprentissage par renforcement

Tongzheng Ren - Chenjun Xiao* - Tianjun Zhang - Na Li - Zhaoran Wang - sujay sanghavi - Dale Schuurmans - Bo Dai


Échantillonneurs équilibrés à toute échelle pour l'espace discret

Haoran Sun - Bo Dai - Charles Sutton - Dale Schuurmans - Hanjun Dai


Représentation par décomposition spectrale pour l'apprentissage par renforcement

Tongzheng Ren - Tianjun Zhang - Lisa Lee - Joseph E Gonzalez - Dale Schuurmans - Bo Dai


La mémoire de relecture en tant que PDM empirique : Combinaison de l'estimation conservatrice et de la répétition de l'expérience

Hongming Zhang - Chenjun Xiao*- Han Wang - Jun Jin - bo xu - Martin Müeller


L'incitation de la plus petite à la plus grande permet un raisonnement complexe dans les grands modèles de langage

Denny Zhou - Nathanael Schaerli - Le Hou - Jason Wei - Nathan Scales - Xuezhi Wang - Dale Schuurmans - Claire Cui - Olivier Bousquet - Quoc V Le - Ed H. Chi


L'autoconsistance améliore le raisonnement en chaîne de pensée dans les modèles linguistiques

Xuezhi Wang - Jason Wei -Dale Schuurmans- Quoc V Le - Ed H. Chi - SHARAN NARANG - Aakanksha Chowdhery - Denny Zhou


TEMPERA : Edition d'invites en temps réel via l'apprentissage par renforcement

Tianjun Zhang - Xuezhi Wang - Denny Zhou - Dale Schuurmans - Joseph E Gonzalez


Modèles de diffusion discrète à temps continu basés sur le score

Haoran Sun - Lijun Yu - Bo Dai - Dale Schuurmans - Hanjun Dai


Apprentissage mutuel d'étiquettes partielles avec un bruit d'étiquettes concurrentiel

Yan Yan - Yuhong Guo


L'exploration optimiste avec des caractéristiques apprises résout de manière certaine les processus de décision de Markov avec la dynamique neuronale

Sirui Zheng - Lingxiao Wang - Shuang Qiu - Zuyue Fu - Zhuoran Yang - Csaba Szepesvari - Zhaoran Wang


Le Softmax In-Sample pour l'apprentissage par renforcement hors ligne

Chenjun Xiao* - Han Wang - Yangchen Pan - Adam White - Martha White

Comment préparer votre chef de projet à la mise au point ?

Yi Ren - Shangmin Guo - Wonho Bae - Danica Sutherland


Un algorithme EM dur de taille égale pour la génération de dialogues diversifiés

Yuqiao Wen* - Yongchang Hao - Yanshuai Cao - Lili Mou

Apprentissage efficace de représentations invariantes sous conditions

Roman Pogodin - Namrata Deka - Yazhe Li - Danica Sutherland - Victor Veitch - Arthur Gretton


Le bruit n'est pas la cause principale de l'écart entre Sgd et Adam sur Transformers, mais la descente des signes pourrait l'être

Frederik Kunstner - Jacques Chen - Jonathan Lavington - Mark Schmidt


La dichotomie du contrôle : Séparer ce que l'on peut contrôler de ce que l'on ne peut pas contrôler

Sherry Yang - Dale Schuurmans - Pieter Abbeel - Ofir Nachum


Contrôle épisodique neuronal avec abstraction d'état

Zhuo Li - Derui Zhu - Yujing Hu - Xiaofei Xie - Lei Ma - YAN ZHENG - Yan Song - Yingfeng Chen - Jianjun Zhao


Critique d'acteur avide : Une nouvelle méthode d'entropie croisée conditionnelle pour l'amélioration des politiques

Samuel Neumann* - Sungsu Lim - Ajin Joseph - Yangchen Pan - Adam White - Martha White

Erreur de Bellman projetée généralisée pour l'estimation de la valeur hors politique dans l'apprentissage par renforcement

Andrew Patterson* - Adam White - Martha White


Quel algorithme d'apprentissage est utilisé pour l'apprentissage en contexte ? Investigations avec des modèles linéaires

Ekin Akyürek - Dale Schuurmans - Jacob Andreas - Tengyu Ma - Denny Zhou


Opérateurs d'avidité pour l'optimisation des politiques : Étude des divergences KL avant et arrière

Alan Chan* - Hugo Silva - Sungsu Lim - Tadashi Kozuno* - - A. Rupam Mahmood - Martha White


Adaptation non supervisée d'un domaine à étiquette partielle avec alignement classe-prototype

Yan Yan - Yuhong Guo


Présentations orales

La dichotomie du contrôle : Séparer ce que l'on peut contrôler de ce que l'on ne peut pas contrôler

Sherry Yang - Dale Schuurmans - Pieter Abbeel - Ofir Nachum


Apprentissage efficace de représentations invariantes sous conditions

Roman Pogodin - Namrata Deka - Yazhe Li - Danica Sutherland - Victor Veitch - Arthur Gretton


Contrôle épisodique neuronal avec abstraction d'état

Zhuo Li - Derui Zhu - Yujing Hu - Xiaofei Xie - Lei Ma- Yan Zheng - Yan Song - Yingfeng Chen - Jianjun Zhao


Quel algorithme d'apprentissage est utilisé pour l'apprentissage en contexte ? Investigations avec des modèles linéaires

Ekin Akyürek - Dale Schuurmans- Jacob Andreas - Tengyu Ma - Denny Zhou

Auteurs

Partager