Programme de recherche de l’ICSIA au CIFAR

Rétrospective de l’année 2025 : bâtir une IA plus sûre au service des Canadiennes et Canadiens

Introduction

En novembre 2024, le gouvernement fédéral a fondé l’Institut canadien pour la sécurité de l’IA (ICSIA), une initiative qui reflète le rôle crucial que joue la confiance du public dans la réussite de l’innovation. Relevant du ministère de l’Innovation, des Sciences et du Développement économique (ISDE) du Canada, l’ICSIA est une initiative fédérale dont l’organe scientifique indépendant est le Programme de recherche de l’ICSIA au CIFAR. Sa mission consiste à mobiliser les spécialistes en sécurité de l’IA de tous les coins du pays et de toutes les disciplines, afin de relever les défis d’ordre technique et sociétal soulevés par les systèmes d’IA avancés.

Le rapport Rétrospective de l’année 2025 : bâtir une IA plus sûre au service des Canadiennes et Canadiens dresse le bilan des progrès réalisés en 2025. En renforçant la capacité de recherche nationale et en favorisant l’établissement d’une masse critique de talents spécialisés, le CIFAR permet au Canada de se positionner en tant que chef de file mondial du développement de systèmes d’IA sûrs et dignes de confiance.

Message de la direction

Nicolas Papernot

Nicolas Papernot

Titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto

Catherine Régis

Catherine Régis

Titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal

Après une première année exceptionnelle, la codirectrice et le codirecteur du Programme de recherche de l’ICSIA au CIFAR Catherine Régis et Nicolas Papernot font le bilan des principales avancées de la recherche en matière de sécurité de l’IA et expliquent comment le programme continuera à renforcer les capacités en vue d’une IA sûre et fidèle aux valeurs canadiennes.

Le programme de recherche de l’ICSIA au CIFAR en chiffres

Au cours de sa première année d’existence, le programme de recherche de l’ICSIA au CIFAR a eu des retombées importantes sur la recherche en sécurité de l’IA, sur la formation et sur la mobilisation des connaissances et des idées grâce aux réalisations suivantes :

Création d’une communauté de recherche nationale sur la sécurité de l’IA

Financement d’un réseau de quelque 55 spécialistes de toutes les disciplines, dont :

chercheuses et chercheurs principaux et 6 membres du Conseil de recherches de l’ICSIA
postdoctorantes et postdoctorants en sécurité de l’IA au CIFAR
scientifiques, ingénieures et ingénieurs en sécurité de l’IA affiliés à l’Amii, à Mila ou à l’Institut Vecteur

Réalisation de projets de recherche à fort impact

2,4 M$ investis dans le lancement de 12 nouveaux projets de recherche, dont :

projets Catalyseur
Réseaux de solutions

Production de résultats

partenariats de recherche d’envergure nationale et internationale (en cours)
tables rondes sur la sécurité de l’IA regroupant responsables politiques et spécialistes
+
produits de connaissances ou résultats de recherche attendus en 2026

Relever les défis d’aujourd’hui en matière de sécurité de l’IA

Protéger la Société

Pour protéger notre avenir collectif contre les risques d’envergure que posent les systèmes d’IA avancés, il faut atténuer des préjudices systémiques comme la désinformation massive et les bouleversements économiques.

Rendre l’IA Fiable et Équitable

Le fait d’intégrer activement les valeurs humaines et l’équité aux systèmes d’IA garantit que celle-ci reste au service du bien commun et qu’elle ne perpétue pas des préjudices sociaux comme les biais et la discrimination.

Assurer la Sécurité des Systèmes d’IA Critiques

Concevoir des outils rigoureux permettant d’évaluer la sécurité, l’exactitude et la fiabilité de l’IA avancée est indispensable pour protéger les systèmes critiques et favoriser l’innovation responsable au sein de l’industrie.

Scroll to Top