L'apprentissage automatique offre un énorme potentiel dans le domaine du contrôle industriel, en contribuant à accroître l'efficacité et la réactivité dans des environnements tels que les usines, les centrales électriques et d'autres services publics. Mais lorsque l'intelligence artificielle gère une infrastructure critique, par exemple une station d'épuration, la sécurité n'est pas facultative. C'est la priorité absolue.
Dans le dernier épisode de Approximativement correctRevan MacQueen, ingénieur ML chez RL Core et ancien élève d'Amii, explique comment concevoir des systèmes d'IA auxquels les opérateurs peuvent faire confiance.
Chargement...
RL Core, fondée par Martha White et Adam White, boursiers Amii, est spécialisée dans l'application de l'apprentissage par renforcement (RL) pour optimiser les processus dans des industries telles que le traitement de l'eau, où la sécurité est primordiale. (Pour en savoir plus sur le projet notre précédent épisode avec Martha.)
"Lorsque nous parlons d'applications qui sont dans le monde réel, impliquant des pièces physiques qui bougent, il est vraiment important d'avoir un humain plus généralement impliqué. Je pense qu'avoir des agents réactifs, robustes et sûrs est une priorité absolue", a déclaré M. MacQueen aux animateurs Alona Fyshe et Scott Lilwall.
La sécurité commence avec des humains dans la boucle
L'une des clés d'un fonctionnement sûr de l'IA, explique M. MacQueen, est un partenariat étroit avec les personnes qui connaissent le mieux le système. Avant qu'un agent d'IA ne soit mis en service, RL Core travaille avec les opérateurs de l'usine pour définir les limites strictes du système, c'est-à-dire les concentrations de produits chimiques, la vitesse des pompes ou les niveaux de stress des équipements qui pourraient présenter des risques pour les personnes et les équipements. Ces seuils ne sont pas négociables et l'IA est programmée pour les respecter.
M. MacQueen insiste sur le fait qu'il ne s'agit pas de remplacer les opérateurs, mais de construire les systèmes en s'appuyant sur des experts humains et en leur donnant un droit de regard.
"Les opérateurs contrôlent toujours la station d'épuration. C'est un élément important de l'approche que nous adoptons en matière de sécurité et de confiance - il faut que des êtres humains soient dans la boucle avec ce type de systèmes", a-t-il déclaré.
Il explique qu'une fois que les humains ont défini les zones de sécurité, l'IA apprend à affiner les processus à l'intérieur de ces limites afin d'améliorer les performances.
M. MacQueen indique qu'il a constaté des gains d'efficacité de 10 à 20 % dans certains projets, ce qui permet d'économiser des milliers de dollars en coûts de matériaux et d'énergie chaque année, tout en réduisant l'usure de l'équipement.
Tout aussi important, cela signifie que les opérateurs de traitement de l'eau peuvent se concentrer sur la planification à long terme et la supervision du système, plutôt que sur les tâches fastidieuses de réglage fin des opérations de l'usine.
"Vous avez besoin d'opérateurs. L'humain dans la boucle n'est pas en voie de disparition, simplement à cause de toutes les choses qui peuvent se produire dans ces usines et que l'agent ne peut pas traiter tout seul", dit-il.
"C'est un aspect important de l'approche que nous adoptons en matière de sécurité et de confiance : il faut que des êtres humains soient impliqués dans ce type de systèmes.
Revan MacQueen
Ingénieur ML, RL Core
Les systèmes critiques sont synonymes de sécurité critique
L'apprentissage par renforcement est très prometteur dans des applications telles que le contrôle industriel et l'optimisation des systèmes qui assurent le fonctionnement de notre monde. Lorsqu'il s'agit de systèmes aussi critiques, il est vital de pouvoir se fier à la sécurité des approches d'apprentissage automatique.
Plus tôt cette année, Amii s'est associé au CIFAR, au Conseil national de recherches, à Mila et à l'Institut Vecteur dans le cadre de l'Institut canadien de sécurité en intelligence artificielle (ICSIA).. L'ICSI travaille avec des experts du gouvernement, des entreprises, des universités et des organismes de recherche pour veiller à ce que l'IA soit au service de la société de manière responsable.
"Il est passionnant de voir des applications du monde réel, comme celles menées par RL Core, qui placent la sécurité au centre de leurs préoccupations et stimulent l'innovation, l'adoption et la confiance dans l'IA", déclare Alyssa Lefaivre Škopacdirectrice de la confiance et de la sécurité de l'IA chez Amii.
"Cette solution démontre que la sécurité n'est pas un obstacle au progrès, mais qu'elle permet à l'IA d'avoir un impact positif sur nos vies. Lorsque nous prenons en compte les implications en matière de sécurité dès le départ, nous pouvons être confiants dans le développement, le déploiement et l'adoption de ces nouvelles solutions à grande échelle."
L'avenir de l'IA industrielle sûre
En plus de la discussion sur les limites strictes et l'humain dans la boucle, M. MacQueen se penche davantage sur les défis liés à la création d'agents d'IA capables d'interagir avec le monde en toute sécurité. Dans l'épisode complet, il explique pourquoi les défis du monde réel sont parfois plus faciles à relever que les défis simulés, et comment ces méthodes pourraient être appliquées à des problèmes de contrôle industriel allant bien au-delà du traitement de l'eau.
Découvrez l'épisode complet et abonnez-vous à Approximately Correct sur YouTube, Spotify et Apple Podcasts.
Vous voulez en savoir plus sur Revan ? Regardez sa vidéo sur la recherche en une minute Vidéo sur la recherche en une minuteoù il explique son travail sur l'apprentissage automatique de l'auto-jeu dans les jeux multijoueurs.

Une conférence sur l'IA pas comme les autres
Apprendre des grands esprits de l'IA à Upper Bound
Faites partie des milliers de professionnels de l'IA, de chercheurs, de chefs d'entreprise, d'entrepreneurs, d'investisseurs et d'étudiants qui se rendront à Edmonton ce printemps. Explorez de nouvelles idées, remettez en question le statu quo et contribuez à façonner un avenir positif pour l'IA.