Poste de recherche

PMI-Masking : Masquage de principe des portées corrélées

Résumé

Le masquage des tokens de manière uniforme et aléatoire constitue un défaut courant dans le pré-entraînement des modèles de langage masqué (MLM) tels que BERT. Nous montrons qu'un tel masquage uniforme permet à un MLM de minimiser son objectif d'apprentissage en s'accrochant à des signaux locaux peu profonds, ce qui entraîne une inefficacité du pré-entraînement et des performances sous-optimales en aval. Pour remédier à ce problème, nous proposons le masquage PMI, une stratégie de masquage basée sur le concept d'information mutuelle ponctuelle (PMI), qui masque conjointement un n-gramme token s'il présente une collocation élevée dans le corpus. Le masquage PMI motive, unifie et améliore des approches antérieures plus heuristiques qui tentent de remédier à l'inconvénient du masquage uniforme aléatoire des tokens, comme le masquage de mots entiers, le masquage d'entités/phrases et le masquage d'intervalles aléatoires. Plus précisément, nous montrons expérimentalement que PMI-Masking atteint la performance des approches de masquage précédentes en deux fois moins de temps d'apprentissage, et améliore constamment la performance à la fin de l'apprentissage.

Derniers documents de recherche

Connectez-vous avec la communauté

Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.

Explorer la formation et l'enseignement supérieur

Vous êtes curieux de connaître les possibilités d'études auprès de l'un de nos chercheurs ? Vous voulez plus d'informations sur les possibilités de formation ?

Exploiter le potentiel de l'intelligence artificielle

Faites-nous part de vos objectifs et de vos défis concernant l'adoption de l'IA dans votre entreprise. Notre équipe Investissements & Partenariats vous contactera sous peu !