Poste de recherche
Résumé :
La diffusion de la désinformation sur les plateformes de médias sociaux est nuisible à la société. Ce préjudice peut se manifester par une dégradation progressive du discours public ; mais il peut aussi prendre la forme d'événements dramatiques soudains, comme la récente insurrection au Capitole. Les plateformes elles-mêmes sont les mieux placées pour empêcher la propagation de la désinformation, car elles ont le meilleur accès aux données pertinentes et l'expertise pour les utiliser. Cependant, l'atténuation de la désinformation est coûteuse, non seulement pour la mise en œuvre d'algorithmes de détection ou l'emploi d'efforts manuels, mais aussi parce que la limitation de ces contenus hautement viraux a un impact sur l'engagement des utilisateurs et donc sur les recettes publicitaires potentielles. Puisque les coûts des contenus nuisibles sont supportés par d'autres entités, la plateforme n'aura donc aucune incitation à exercer le niveau d'effort socialement optimal. Ce problème est similaire à celui de la réglementation environnementale, dans laquelle les coûts des événements indésirables ne sont pas directement supportés par une entreprise, l'effort d'atténuation d'une entreprise n'est pas observable et le lien de causalité entre une conséquence dommageable et une défaillance spécifique est difficile à prouver. Dans le cas de la réglementation environnementale, une solution consiste à effectuer un contrôle coûteux pour s'assurer que l'entreprise prend des précautions adéquates conformément à une règle spécifique. Cependant, une règle fixe de classification de la désinformation perd de son efficacité avec le temps, car les mauvais acteurs peuvent apprendre à la contourner de manière séquentielle et stratégique. En codant notre domaine comme un processus de décision de Markov, nous démontrons qu'aucune pénalité basée sur une règle statique, quelle que soit son importance, ne peut inciter à un effort adéquat. Les pénalités basées sur une règle adaptative peuvent inciter à un effort optimal, mais de manière contre-intuitive, seulement si le régulateur sur-réagit suffisamment aux événements nuisibles en exigeant un niveau d'effort supérieur à l'optimal. Nous prescrivons la conception de mécanismes qui permettent de déterminer les coûts de l'effort de précaution des plateformes en matière de contrôle de la désinformation.
1er février 2023
Poste de recherche
Lisez ce document de recherche, co-écrit par Russ Greiner, boursier et titulaire de la chaire d'IA de l'ICRA au Canada : Vers un système de santé apprenant basé sur l'intelligence artificielle pour la prédiction de la mortalité au niveau de la population à l'aide d'électrocardiogrammes
31 janvier 2023
Poste de recherche
20 janvier 2023
Poste de recherche
Vous cherchez à renforcer les capacités en matière d'IA ? Vous avez besoin d'un conférencier pour votre événement ?
Participez à l'écosystème croissant de l'IA en Alberta ! Les demandes de conférenciers, de parrainage et de lettres de soutien sont les bienvenues.