Poste de recherche
Les méthodes de gradient de politique reposent sur le théorème du gradient de politique, qui implique un terme représentant la somme complète des récompenses dans le futur : le rendement. Pour cette raison, on attend généralement la fin d'un épisode avant d'effectuer des mises à jour, ou on apprend une estimation de ce rendement - ce qu'on appelle une critique. Dans ce travail, nous mettons l'accent sur la première approche, en détaillant une mise à jour incrémentale du gradient de politique qui n'attend pas la fin de l'épisode et ne repose pas sur l'apprentissage d'estimations du retour. Nous fournissons des variantes avec et sans politique de notre algorithme, à la fois pour le rendement actualisé et la récompense moyenne. Sur le plan théorique, nous établissons un lien entre les traces que nos méthodes utilisent et les distributions stationnaires des paramètres d'actualisation et de récompense moyenne. Nous concluons par une évaluation expérimentale de nos méthodes sur des domaines à la fois simples à comprendre et complexes.
1er février 2023
Poste de recherche
Lisez ce document de recherche, co-écrit par Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada : Vers un système de santé apprenant basé sur l'intelligence artificielle pour la prédiction de la mortalité au niveau de la population à l'aide d'électrocardiogrammes
31 janvier 2023
Poste de recherche
20 janvier 2023
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.