Poste de recherche

Optimisation pour le futur dans les MDP non stationnaires

La plupart des méthodes d'apprentissage par renforcement reposent sur l'hypothèse clé selon laquelle la dynamique de transition et les fonctions de récompense sont fixes, c'est-à-dire que le processus de décision de Markov (PDM) sous-jacent est stationnaire. Cependant, dans de nombreuses applications pratiques du monde réel, cette hypothèse est clairement violée.

Dans cet article, les auteurs discutent de la façon dont les méthodes actuelles peuvent avoir des limites inhérentes pour les MDP non stationnaires, et donc la recherche d'une politique qui est bonne pour le futur, MDP inconnu, exige de repenser le paradigme d'optimisation. Pour résoudre ce problème, ils développent une méthode qui s'appuie sur les idées du raisonnement contre-factuel et de l'ajustement des courbes pour rechercher de manière proactive une bonne politique future, sans jamais modéliser la non-stationnarité sous-jacente. L'efficacité de la méthode proposée est démontrée sur des problèmes motivés par des applications du monde réel.

Cet article a été publié lors de la 37e conférence internationale sur l'apprentissage automatique(ICML).

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !