Programme de recherche de l’ICSIA au CIFAR
Rendre l’IA fiable et équitable
Introduction
Le fait d’intégrer activement les valeurs humaines et l’équité aux systèmes d’IA garantit que celle-ci reste au service du bien commun et qu’elle ne perpétue pas des préjudices sociaux comme les biais et la discrimination.
Idées intelligentes avec Yoshua Bengio
Comment concevoir des systèmes d’IA sans danger pour les gens? Yoshua Bengio, titulaire d’une chaire en IA Canada-CIFAR (Mila, Université de Montréal, LoiZéro), explique les différentes manières dont l’IA pourrait nuire à la société et pourquoi, malgré tout, il reste optimiste quant à l’avenir.
Pleins feux
Bâtir une IA plus sûre grâce à un raisonnement plus fiable
Comment faire confiance à une IA qui en sait plus que nous? Le volume de données traitées par les systèmes d’IA est tel que les utilisatrices et utilisateurs n’ont aucun moyen d’en vérifier les résultats. Pour remédier à ce problème, une solution envisagée réside dans le « débat entre modèles », un principe qui oblige les systèmes à citer leurs sources. Or, les modèles actuels ne peuvent pas argumenter de façon fiable : ils déforment les faits et sortent les sources de leur contexte. Pour être considérée comme fiable, l’IA doit apprendre à formuler et à justifier des raisonnements qui puissent être acceptés sans réserve.
Dans le cadre de leur projet Catalyseur pour la sécurité de l’IA financé en 2025 par le CIFAR, Gillian Hadfield (Université Johns Hopkins, Université de Toronto [professeure auxiliaire], Institut Vecteur) et son équipe s’attaquent à cette question en mettant au point un cadre de débat en IA.
« Notre but est d’apprendre aux modèles de langage à formuler des justifications acceptables et à les étayer par des preuves valables tirées de sources d’information accessibles, explique Maria Ryskina, titulaire d’une bourse postdoctorale du CIFAR sur la sécurité de l’IA. Ces modèles inspireront davantage confiance, car leur supervision pourra être effectuée de manière fiable même par des profanes. »
La relation de confiance entre l’humain et l’IA
Tirant parti de connaissances issues du droit, de l’économie, de l’évolution culturelle et de la science politique, le cadre de débat est un projet visant à amener les systèmes d’IA à raisonner de manière normative, en prenant des décisions fondées sur les règles qui structurent les comportements — un peu comme les humains agissent selon les normes et les lois de la société. Ce projet vise à rendre les systèmes d’IA plus fiables, plus résilients et mieux arrimés aux structures sociales humaines.
L’équipe entend produire d’importants livrables techniques : nouvelles architectures d’agents d’IA, ensemble de données inédit portant sur un raisonnement normatif rigoureux, cadre de débat permettant de tester et d’appliquer des normes communes et invariables lors des interactions entre agents d’IA.
À terme, le but est d’améliorer la sécurité des systèmes d’IA en les dotant d’une meilleure connaissance des règles tacites et des concessions complexes qui régissent la société humaine dans toute sa diversité.
« La prolifération incontrôlée de l’intelligence artificielle a déjà des répercussions majeures dans la vie des gens. Je suis fière de prendre part à une initiative qui façonne l’avenir de l’IA de manière plus constructive — tant du point de vue du développement que de l’usage », ajoute Maria Ryskina.
« La forte interdisciplinarité de cette collaboration permet de repenser l’IA non seulement comme une question technique, mais aussi comme une question sociétale, politique et économique. Apprendre de spécialistes d’autres domaines autant que du sien est essentiel pour réaliser des progrès concrets dans la recherche actuelle en IA. »
titulaire d’une bourse postdoctorale du CIFAR sur la sécurité de l’IA
Projets financés
Réseau de solutions — Réduire les biais dialectaux
- Laleh Seyyed-Kalantari (Université York)
- Blessing Ogbuokiri (Université Brock)
Projet Catalyseur pour la sécurité de l’IA — Échantillonnage d’explications latentes à partir de GML au profit d’un raisonnement sûr et interprétable
- Yoshua Bengio (titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal, LoiZéro)
Projet Catalyseur pour la sécurité de l’IA — La robustesse antagoniste de la sécurité des GML
- Gauthier Gidel (titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal)
Projet Catalyseur pour la sécurité de l’IA — Faire progresser l’alignement de l’IA par le débat et le raisonnement normatif partagé
- Gillian Hadfield (Université Johns Hopkins, Université de Toronto)
- Maria Ryskina (titulaire d’une bourse postdoctorale du CIFAR sur la sécurité de l’IA, Université de Toronto)
Projet Catalyseur pour la sécurité de l’IA — Formalisation des contraintes pour l’évaluation et l’atténuation du risque agentique
- Sheila McIlraith (titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto)
L’informaticienne de renom Deborah Raji (Mozilla) aborde les dimensions sociotechniques de la sécurité de l’IA à l’occasion de la première réunion annuelle du programme de recherche de l’ICSIA en octobre 2025.