Kursplan

Introduktion till AI-hotmodellering

  • Vad gör AI-system sårbara?
  • AI-angreppsytan vs traditionella system
  • Nyckelangrepsvektorer: data, modell, output och gränssnittslager

Fiendliga angrepp på AI-modeller

  • Förståelse av fiendliga exempel och perturbasjonstekniker
  • White-box vs black-box angrepp
  • FGSM, PGD och DeepFool-metoder
  • Visualisering och skapande av fiendliga exempel

Modellinverserings- och integritetsläckor

  • Avledda träningsdata från modelloutput
  • Medlemsinförselangsattacker
  • Integritetsrisker i klassificerings- och generativa modeller

Dataförgiftning och bakdörssprutningar

  • Hur förgiftade data påverkar modellbeteende
  • Utlösningsbaserade bakdörren och Trojanerangrepp
  • Detektions- och rensningsstrategier

Robusthet och försvarstekniker

  • Fiendlig utbildning och dataförbättring
  • Gradientmaskering och inmatningsförbearbetning
  • Modellutjämning och regulariseringsmetoder

Integritetsskyddande AI-försvar

  • Introduktion till differentiell integritet
  • Bullerinjektion och integritetsbudgetar
  • Federated learning och säker aggregering

AI-säkerhet i praktiken

  • Hotmedvetna modellutvärdering och distribution
  • Användning av ART (Adversarial Robustness Toolbox) i praktiska sammanhang
  • Branschfallstudier: verkliga bråkdäck och motverkningsmetoder

Sammanfattning och nästa steg

Krav

  • Förståelse av maskininlärningsarbetsflöden och modellutbildning
  • Erfarenhet av Python och vanliga ML-ramverk som PyTorch eller TensorFlow
  • Grundläggande kunskaper i säkerhet eller hotmodellering är användbart

Målgrupp

  • Maskininlärningsingenjörer
  • Cybersäkerhetsanalytiker
  • AI-forskare och modellvalideringslag
 14 timmar

Antal deltagare


Pris per deltagare

Kommande Kurser

Relaterade Kategorier