La course à l'IA pour développer des applications de plus en plus puissantes a soulevé une question importante : dans quelle mesure ces modèles doivent-ils être ouverts ? Et que risquons-nous en gardant les modèles fondamentaux sous clé ?
Dans le dernier épisode d'Approximately Correct, nous recevons Joelle Pineau, qui soutient que l'ouverture est essentielle pour l'avenir du développement de l'IA. Joelle Pineau est professeur à l'École d'informatique de l'Université McGill et membre de Mila. Elle est également l'ancienne vice-présidente de la recherche sur l'IA chez Meta, où elle a dirigé la recherche fondamentale sur l'IA (FAIR) et la publication de son modèle de langage à code source ouvert, le Large Language Model (LML). Llama, un modèle de langage à code source ouvert.
Plus récemment, elle a rejoint la startup Cohere en tant que première responsable de l'IA, et a été nommée membre du groupe de travail sur la stratégie d'IA du gouvernement canadien. Groupe de travail sur la stratégie en matière d'IA du gouvernement canadien (aux côtés de Amii Fellow et Michael Bowling, président du CIFAR AI au Canada).
Chargement...
Pour M. Pineau, les modèles à source ouverte sont plus qu'un objectif à atteindre. Ils sont nécessaires pour construire des modèles fondamentaux plus sûrs et plus efficaces. Les modèles à poids ouvert, comme ce que FAIR réalise avec son LLM Llama, permettent à la communauté des chercheurs de trouver des failles, d'atténuer les risques et de faire progresser l'intelligence artificielle d'une manière qui n'est pas possible si les rouages internes des modèles sont gardés secrets.
"Nous nous appuyons tous sur les contributions des uns et des autres. Aucun d'entre nous n'est une île", dit-elle.
"Plus nous pouvons partager non seulement les résultats mais aussi le processus de notre travail, plus nous pouvons donner aux autres les moyens de contribuer.
Au-delà du renforcement des modèles, M. Pineau met en garde contre un autre danger des modèles fondamentaux à source fermée : la monoculture algorithmique.
Si le domaine devient dépendant d'un petit nombre de modèles fondamentaux, construits et maintenus par quelques organisations, cela limite la diversité et l'utilité de l'IA. Cela conduit à un monde où tous les modèles ont les mêmes faiblesses, vulnérabilités et limitations. L'IA résiliente et sûre nécessite une approche ouverte.
"Si tous les agents sont très semblables les uns aux autres, cela signifie qu'ils seront tous vulnérables aux mêmes virus et aux mêmes moyens de les manipuler", explique-t-elle.
Découvrez l'épisode complet pour en savoir plus sur l'approche fascinante de Mme Pineau en matière de recherche sur l'IA et sur les raisons pour lesquelles elle pense que le véritable avenir de l'IA est ouvert.
Approximativement correct : Un podcast sur l'IA d'Amii est animé par Alona Fyshe et Scott Lilwall. Il est produit par Lynda Vang, et la production vidéo est assurée par Chris Onciul. Abonnez-vous au podcast sur Apple Podcasts ou sur Spotify.

Une conférence sur l'IA pas comme les autres
Apprendre des grands esprits de l'IA à Upper Bound
Faites partie des milliers de professionnels de l'IA, de chercheurs, de chefs d'entreprise, d'entrepreneurs, d'investisseurs et d'étudiants qui se rendront à Edmonton ce printemps. Explorez de nouvelles idées, remettez en question le statu quo et contribuez à façonner un avenir positif pour l'IA.