Poste de recherche
Les approches conventionnelles pour le transfert de style de formalité empruntent des modèles à la traduction automatique neuronale, qui nécessite généralement des données parallèles massives pour l'apprentissage. Cependant, l'ensemble de données pour le transfert de style de formalité est considérablement plus petit que les corpus de traduction. De plus, nous observons que les phrases informelles et formelles se ressemblent beaucoup, ce qui est différent de la tâche de traduction où deux langues ont des vocabulaires et des grammaires différents. Dans cet article, nous présentons une nouvelle approche, Sequence-to-Sequence with Shared Latent Space (S2S-SLS), pour le transfert de style de formalité, dans laquelle nous proposons deux pertes auxiliaires et adoptons un entraînement conjoint du transfert bidirectionnel et de l'auto-encodage. Les résultats expérimentaux montrent que S2S-SLS (avec les architectures RNN ou Transformer) surpasse systématiquement les lignes de base dans divers contextes, en particulier lorsque nous disposons de données limitées.
26 février 2023
Poste de recherche
23 janvier 2023
Poste de recherche
8 août 2022
Poste de recherche
Lisez ce document de recherche co-rédigé par Angel Chang, titulaire de la chaire d'IA de l'ICAR Canada : Apprentissage des traces emphatiques attendues pour le RL profond
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.