Programme de recherche de l’ICSIA au CIFAR

À propos

Message de la direction

L’année 2025 a marqué un tournant mondial important pour la sécurité de l’IA. À la suite des préoccupations urgentes soulevées par d’éminents spécialistes tels que Yoshua Bengio, titulaire d’une chaire en IA Canada-CIFAR, et Geoffrey Hinton, membre émérite du CIFAR — et à la suite de la parution du Rapport international sur la sécurité de l’IA —, le monde a reconnu la nécessité de concilier rapidité d’innovation et gestion rigoureuse des risques.

Catherine Régis

Catherine Régis

Codirectrice, Programme de recherche de l’ICSIA au CIFAR

Titulaire de chaire en IA Canada-CIFAR, Mila, Université de Montréal

Nicolas Papernot

Nicolas Papernot

Codirecteur, Programme de recherche de l’ICSIA au CIFAR

Titulaire de chaire en IA Canada-CIFAR, Institut Vecteur, Université de Toronto

Le Canada était particulièrement bien préparé à relever ce défi. Chargé d’élaborer et de mettre en œuvre la toute première stratégie nationale sur l’IA au monde en 2017, le CIFAR a joué un rôle décisif dans la constitution d’un large vivier de talents et dans l’excellence en recherche qui fait aujourd’hui la réputation de notre pays. C’est sur ces bases solides qu’a été établi le Programme de recherche de l’ICSIA au CIFAR. Cette initiative nous permet de renforcer la capacité de recherche nationale et de favoriser l’établissement d’une masse critique de talents spécialisés pour permettre au Canada de se positionner en tant que chef de file mondial du développement de systèmes d’IA sûrs et dignes de confiance. Nous avons mis à profit ces acquis pour mobiliser rapidement le milieu scientifique canadien et passer de la théorie à des résultats tangibles en un an seulement.

En tant que codirectrice et codirecteur provenant de deux domaines distincts — le droit et l’informatique –, nous abordons la sécurité de l’IA comme un défi de nature sociotechnique. Notre programme fait le pont entre les dimensions techniques et sociales afin de garantir que les systèmes d’IA sont à la fois robustes et socialement responsables. Pour faire face à la profonde complexité des défis soulevés par la sécurité de l’IA, il est essentiel de soutenir des collaborations multidisciplinaires entre le milieu de la recherche, le gouvernement et d’autres parties prenantes.

Au cours de notre première année d’activités, nous avons financé 12 projets et soutenu 28 chercheurs et chercheuses de différentes disciplines. Notre programme fait avancer la recherche et l’innovation en permettant l’élaboration de nouvelles techniques et pratiques pour assurer la sûreté et la fiabilité de systèmes d’IA dont le déploiement respecte nos valeurs sociétales. En bref, il consiste à garantir que l’IA est digne de confiance. Et les résultats sont déjà au rendez-vous :

Défense de la démocratie

élaborer des systèmes propres à contrer l’ingérence étrangère et la désinformation.

Protection de la jeunesse

concevoir des mécanismes de détection et de blocage des contenus qui encouragent les comportements autodestructeurs.

Sécurité du système judiciaire

lancer un Réseau de solutions pour protéger les tribunaux canadiens contre les preuves synthétiques produites par l’IA.

Pour la suite, nous prévoyons de lancer le « Portail phare », une plateforme offrant aux petites et moyennes entreprises des lignes directrices vérifiées et approuvées en vue d’un déploiement sécuritaire de l’IA. Nous mettrons également en place des interfaces approuvées par les autorités judiciaires pour la validation des preuves numériques présentées devant les tribunaux, en plus d’une panoplie d’autres outils.

Rien de cela ne serait possible sans le dévouement et l’engagement du milieu canadien de la recherche sur la sécurité de l’IA, du gouvernement fédéral et du ministère de l’Innovation, des Sciences et du Développement économique. Nous tenons à les remercier pour les efforts et les fonds qu’ils investissent sans relâche dans la recherche et les talents en sécurité de l’IA. Nous remercions également les personnes et les organismes qui nous offrent leur soutien et leur collaboration, les instituts d’IA nationaux (l’Amii, Mila et l’Institut Vecteur), le Centre de recherches pour le développement international (CRDI), l’UK AI Security Institute et bien d’autres encore.

Ensemble, nous bâtissons une IA plus sûre au service des Canadiennes et Canadiens.

(De gauche à droite) Elissa Strome (CIFAR), Joel Martin (Conseil national de recherches Canada), Stephen Toope (CIFAR), Yoshua Bengio (Mila, LoiZéro), François-Philippe Champagne (Gouvernement du Canada), Valérie Pisano (Mila), Tony Gaffney (Institut Vecteur) et Cam Linke (Amii) lors de l’inauguration de l’Institut canadien de la sécurité de l’intelligence artificielle en novembre 2024.

(De gauche à droite) Elissa Strome (CIFAR), Joel Martin (Conseil national de recherches Canada), Stephen Toope (CIFAR), Yoshua Bengio (Mila, LoiZéro), François-Philippe Champagne (Gouvernement du Canada), Valérie Pisano (Mila), Tony Gaffney (Institut Vecteur) et Cam Linke (Amii) lors de l’inauguration de l’Institut canadien de la sécurité de l’intelligence artificielle en novembre 2024.

Scroll to Top
Ce site est enregistré sur wpml.org en tant que site de développement. Passez à un site de production en utilisant la clé remove this banner.