La rentrée des séminaires de l’IMC2 a débuté en force avec une présentation sur une tendance incontournable en cybersécurité : les attaques adversariales en intelligence artificielle.
Un grand merci à notre conférencier invité, Adel Abusitta, ainsi qu’à toutes les personnes participantes, présentes en direct de HEC Montréal et de l’Université du Québec en Outaouais, pour leurs interventions pertinentes.

Résumé du séminaire
Avec l’utilisation croissante de l’IA dans divers domaines — notamment l’Internet des objets (IdO), la santé et le transport — il a été démontré que les systèmes d’IA, en particulier ceux basés sur l’apprentissage profond, sont vulnérables aux attaques adversariales qui sont capables de les tromper.
Bien que de nombreuses méthodes de défense aient été proposées pour atténuer cette menace, ces mêmes méthodes peuvent elles aussi être attaquées lorsqu’elles sont connues des adversaires. Dans de tels cas, les attaquants peuvent concevoir des exemples adversariaux qui contournent les défenses et compromettent avec succès les solutions d’IA.
Ainsi, le principal défi consiste non seulement à concevoir des méthodes capables de défendre contre les attaques adversariales en intelligence artificielle et en apprentissage automatique, mais également à s’assurer que ces mécanismes de défense soient eux-mêmes robustes et sécurisés.
Dans cette présentation, nous proposerons un aperçu des approches existantes pour atténuer les attaques adversariales et mettrons en lumière leurs limites. Nous présenterons également nos méthodes de pointe pour défendre contre les attaques adversariales en IA grâce à des mécanismes de défense sécurisés.