Poste de recherche
Résumé : Comment réaliser une inférence efficace tout en conservant une qualité de traduction élevée ? Les modèles neuronaux de traduction automatique existants, tels que Transformer, atteignent des performances élevées, mais ils décodent les mots un par un, ce qui est inefficace. Les récents modèles de traduction non autorégressifs accélèrent l'inférence, mais leur qualité reste inférieure. Dans ce travail, nous proposons DSLP, un modèle de traduction automatique très efficace et très performant. L'idée principale est d'entraîner un transformateur non autorégressif avec une supervision profonde et d'alimenter des prédictions supplémentaires en couches. Nous avons mené des expériences approfondies sur quatre tâches de traduction (les deux directions de WMT'14 EN-DE et WMT'16 EN-RO). Les résultats montrent que notre approche améliore systématiquement les scores BLEU par rapport aux modèles de base respectifs. Plus précisément, notre meilleure variante surpasse le modèle autorégressif sur trois tâches de traduction, tout en étant 14,8 fois plus efficace dans l'inférence.
26 février 2023
Poste de recherche
1er février 2023
Poste de recherche
Lisez ce document de recherche, co-écrit par Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada : Vers un système de santé apprenant basé sur l'intelligence artificielle pour la prédiction de la mortalité au niveau de la population à l'aide d'électrocardiogrammes
31 janvier 2023
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.