Nouvelles
Maintenant que les 2020 Tea Time Talks sont sur Youtube, vous pouvez toujours avoir le temps de prendre le thé avec Amii et le laboratoire RLAI! Animées par le Dr Richard S. Sutton, conseiller scientifique en chef d'Amii, ces conférences de 20 minutes sur des sujets techniques sont données par des étudiants, des professeurs et des invités. Les conférences sont une manière détendue et informelle d'entendre les leaders de l'IA discuter des futures lignes de recherche qu'ils pourraient explorer, avec des sujets allant des idées qui commencent à prendre racine aux projets entièrement terminés.
La onzième semaine de l'émission Tea Time Talks :
De nombreux algorithmes d'apprentissage supervisé sont conçus pour fonctionner avec un échantillonnage i.i.d.. Lorsque ces algorithmes sont appliqués à des problèmes d'échantillonnage non stationnaire, ils peuvent mal se comporter - ce qui n'est pas surprenant si l'on prend le temps de comprendre les conditions dans lesquelles le comportement d'un algorithme est (ou n'est pas) garanti. L'analyse des systèmes dynamiques nous offre quelques outils pour étendre ces garanties à certains types d'échantillonnage non stationnaire. Cet exposé illustre ces idées dans un cadre simple : l'optimisation de modèles de régression linéaire avec SGD+momentum sous une non-stationnarité périodique simple.
Les politiques avides à étapes multiples ont été largement utilisées dans l'apprentissage par renforcement (AR) basé sur un modèle, tant lorsqu'un modèle de l'environnement est disponible (par exemple, dans le jeu de Go) que lorsqu'il est appris. Dans cet exposé, Manan présente un article qu'il a cosigné et qui explore les avantages des politiques avides à plusieurs étapes dans l'apprentissage par renforcement sans modèle, lorsqu'elles sont employées à l'aide d'algorithmes de programmation dynamique à plusieurs étapes : l'itération de politique $\kappa$ ($\kappa$-PI) et l'itération de valeur $\kappa$ ($\kappa$-VI). Ces méthodes calculent de manière itérative la politique ($\kappa$-PI) et la fonction de valeur ($\kappa$-VI) suivantes en résolvant un problème de décision de substitution avec une récompense formée et un facteur d'actualisation plus petit. Les auteurs dérivent des algorithmes RL sans modèle basés sur $\kappa$-PI et $\kappa$-VI dans lesquels le problème de substitution peut être résolu par n'importe quelle méthode RL à action discrète ou continue, telle que DQN et TRPO ; ils identifient l'importance d'un hyper-paramètre qui contrôle la mesure dans laquelle le problème de substitution est résolu et suggèrent une manière de définir ce paramètre. Évalués sur une gamme de tâches de référence Atari et MuJoCo, leurs résultats indiquent que pour la bonne gamme de $\kappa$, leurs algorithmes surpassent DQN et TRPO. Cela montre que leurs algorithmes avides à plusieurs étapes sont suffisamment généraux pour être appliqués à n'importe quel algorithme RL existant et peuvent améliorer ses performances de manière significative.
Robin partage les points forts et les enseignements tirés d'une année d'entretiens avec des chercheurs en RL sur le podcast TalkRL. En outre, il se penche sur un agent Pommerman qu'il a conçu.
En 1990, Scott E. Fahlman et Christian Lebiere ont proposé une architecture de réseau neuronal constructive - la corrélation en cascade - comme alternative à la formation de réseaux neuronaux profonds à architectures fixes par rétropropagation. Malgré des résultats prometteurs et plusieurs articles de suivi, la cascade-corrélation n'est pas populaire dans la communauté de l'apprentissage profond. Dans cet exposé, Juan explore les raisons pour lesquelles la corrélation en cascade n'est plus populaire, tout en présentant plusieurs résultats empiriques qui démontrent la performance de la corrélation en cascade dans plusieurs contextes et dans différents domaines. Il discute des inconvénients de la corrélation en cascade qui ont été trouvés dans la littérature, mais aussi de plusieurs extensions qui ont été proposées pour répondre à chacun d'entre eux. Il conclut en expliquant pourquoi il vaut la peine de s'intéresser à la corrélation en cascade.
Les Tea Time Talks sont désormais terminés pour l'année, mais restez à l'écoute car nous mettrons en ligne les derniers entretiens la semaine prochaine. En attendant, vous pouvez revoir ou rattraper les conférences précédentes sur notre liste de lecture Youtube.
8 avril 2024
Nouvelles
Les boursiers d'Amii partagent des conseils sur la manière de tirer le meilleur parti de votre expérience de la conférence.
26 mars 2024
Nouvelles
Dans l'épisode de ce mois-ci, Alona explique comment ChatGPT a changé la perception qu'a le public de ce que les modèles de langage d'IA peuvent faire, rendant instantanément obsolètes la plupart des références antérieures, et parle de l'excitation et de l'intensité du travail dans un domaine qui évolue rapidement comme l'IA.
18 mars 2024
Nouvelles
Google.org annonce de nouvelles subventions de recherche pour soutenir la recherche critique sur l'IA au Canada, axée sur des domaines tels que la durabilité et le développement responsable de l'IA. Les subventions accordées à Amii, à l'Institut canadien de recherches avancées (CIFAR) et au Centre international d'expertise de Montréal sur l'IA (CEIMIA) s'élèvent à un total de 2,7 millions de dollars.
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.