Poste de recherche
Les représentations générées par de nombreux modèles du langage (encastrements de mots, réseaux neuronaux récurrents et transformateurs) sont en corrélation avec l'activité cérébrale enregistrée pendant la lecture. Cependant, ces résultats de décodage sont généralement basés sur la réaction du cerveau à des stimuli linguistiques syntaxiques et sémantiques. Dans cette étude, nous avons posé la question suivante : comment un modèle de langage LSTM (mémoire à long terme), formé (en général) sur un langage sémantiquement et syntaxiquement intact, représente-t-il un échantillon de langage avec des informations sémantiques ou syntaxiques dégradées ? La représentation LSTM ressemble-t-elle toujours à la réaction du cerveau ? Nous avons constaté que, même pour certains types de langage non sensé, il existe une relation statistiquement significative entre l'activité du cerveau et les représentations d'un LSTM. Cela indique que, au moins dans certains cas, les LSTM et le cerveau humain traitent les données non sensées de manière similaire.
26 février 2023
Poste de recherche
23 janvier 2023
Poste de recherche
8 août 2022
Poste de recherche
Lisez ce document de recherche co-rédigé par Angel Chang, titulaire de la chaire d'IA de l'ICAR Canada : Apprentissage des traces emphatiques attendues pour le RL profond
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.