Nouvelles

Les discussions de l'heure du thé 2020 : Semaine 9

Maintenant que les 2020 Tea Time Talks sont sur Youtube, vous pouvez toujours avoir le temps de prendre le thé avec Amii et le laboratoire RLAI! Animées par le Dr Richard S. Sutton, conseiller scientifique en chef d'Amii, ces conférences de 20 minutes sur des sujets techniques sont données par des étudiants, des professeurs et des invités. Les conférences sont une manière détendue et informelle d'entendre les leaders de l'IA discuter des futures lignes de recherche qu'ils pourraient explorer, avec des sujets allant des idées qui commencent à prendre racine aux projets entièrement terminés.

La neuvième semaine de l'émission Tea Time Talks :

Qingfeng Lan : Apprentissage prédictif de représentation pour la modélisation du langage.

Pour effectuer efficacement la tâche de prédiction du mot suivant, les réseaux de mémoire à long terme (LSTM) conservent la trace de nombreux types d'informations. Certaines informations sont directement liées à l'identité du mot suivant, mais d'autres sont plus secondaires - par exemple, les caractéristiques du discours ou les caractéristiques des mots en aval. Les corrélats des informations secondaires apparaissent dans les représentations LSTM même s'ils ne font pas partie d'une tâche de prédiction explicitement supervisée. En revanche, l'apprentissage par renforcement (RL) a connu du succès dans les techniques qui supervisent explicitement les représentations pour prédire les informations secondaires. Dans cet exposé, Qingfeng propose l'apprentissage par représentation prédictive (PRL), qui contraint explicitement les LSTM à encoder des prédictions spécifiques, telles que celles qui pourraient devoir être apprises implicitement. Il montre que le PRL améliore considérablement deux méthodes de modélisation du langage, converge plus rapidement et donne de meilleurs résultats lorsque les données sont limitées. La fusion de la PRL avec les LSTM montre que l'encodage explicite d'une tâche prédictive simple peut faciliter la recherche d'un modèle de langage plus efficace.

Banafsheh Rafiee : Bancs d'essai de conditionnement classique pour la construction d'états

Dans cet exposé, Banafsheh présente des bancs d'essai de conditionnement classique pour étudier le problème de la construction d'état. Ces bancs d'essai sont modelés sur des tâches de psychologie où un animal est exposé à une séquence de stimuli et doit construire une compréhension de son état afin de prédire ce qui va se passer ensuite. Les bancs d'essai sont proposés pour étudier la prédiction multi-étapes en ligne. Banafsheh fournit des résultats sur le premier banc d'essai, caractérisant une multitude d'approches, y compris les approches modernes courantes ainsi que des méthodes plus simples inspirées de modèles d'apprentissage animal.


Les Tea Time Talks sont désormais terminés pour l'année, mais restez à l'écoute car nous mettrons en ligne les autres conférences dans les semaines à venir. En attendant, vous pouvez revoir ou rattraper les conférences précédentes sur notre liste de lecture Youtube.

Derniers articles d'actualité

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !