Poste de recherche
Les tâches d'apprentissage par renforcement sont généralement spécifiées comme des processus de décision de Markov. Ce formalisme a connu un grand succès, bien que les spécifications couplent souvent la dynamique de l'environnement et l'objectif d'apprentissage. Ce manque de modularité peut compliquer la généralisation de la spécification de la tâche, ainsi qu'obscurcir les connexions entre les différents paramètres de la tâche, tels que l'épisodique et le continu. Dans ce travail, nous introduisons le formalisme de tâche RL, qui fournit une unification par le biais de constructions simples, y compris une généralisation de l'actualisation basée sur la transition. A travers une série d'exemples, nous démontrons la généralité et l'utilité de ce formalisme. Enfin, nous étendons les constructions d'apprentissage standard, notamment les opérateurs de Bellman, et nous étendons certains résultats théoriques fondamentaux, notamment les limites d'erreurs d'approximation. Dans l'ensemble, nous fournissons un formalisme bien compris et solide sur lequel on peut construire des résultats théoriques et simplifier l'utilisation et le développement d'algorithmes.
1er février 2023
Poste de recherche
Lisez ce document de recherche, co-écrit par Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada : Vers un système de santé apprenant basé sur l'intelligence artificielle pour la prédiction de la mortalité au niveau de la population à l'aide d'électrocardiogrammes
31 janvier 2023
Poste de recherche
20 janvier 2023
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.