Les Grands modèles de langage au service de la cybersécurité
Une présentation très enrichissante lors de notre séminaire de recherche IMC2 à HEC Montréal le lundi 2 décembre !
François Charest nous a captivés avec un exposé sur l’utilisation des grands modèles de langage (LLM) pour la détection d’anomalies dans les lignes de commande. Grâce à une mise en contexte éclairante, basée sur des travaux menés en collaboration avec l’Université McGill, il a su illustrer les enjeux industriels et les opportunités que ces méthodes apportent.
Ce séminaire marquait le dernier rendez-vous des Lundis de la Cyber de l’année. Rendez-vous en 2025 pour continuer à explorer ensemble des thématiques au cœur de la cybersécurité et de la cyberrésilience !
Résumé:
Dans ce séminaire à l’intersection de la recherche et des applications industrielles, François Charest a souligné l’importance de l’utilisation de l’Intelligence artificielle (IA) pour la sécurité des organisations et passé en revue une variété d’applications conventionnelles de l’IA à la sécurité. De nouvelles opportunités qu’apporte l’IA générative pour les équipes de cybersécurité défensive ont été discutées, et des exemples concrets d’applications de Grands modèles de langage pour la détection d’anomalies dans les lignes de commandes dans le contexte du Threat Hunting ont été présentées.