Tack för att du skickade din fråga! En av våra teammedlemmar kontaktar dig snart.
Tack för att du skickade din bokning! En av våra teammedlemmar kontaktar dig snart.
Kursplan
Introduktion till AI-hotmodellering
- Vad gör AI-system sårbara?
- AI-angreppsytan vs traditionella system
- Nyckelangrepsvektorer: data, modell, output och gränssnittslager
Fiendliga angrepp på AI-modeller
- Förståelse av fiendliga exempel och perturbasjonstekniker
- White-box vs black-box angrepp
- FGSM, PGD och DeepFool-metoder
- Visualisering och skapande av fiendliga exempel
Modellinverserings- och integritetsläckor
- Avledda träningsdata från modelloutput
- Medlemsinförselangsattacker
- Integritetsrisker i klassificerings- och generativa modeller
Dataförgiftning och bakdörssprutningar
- Hur förgiftade data påverkar modellbeteende
- Utlösningsbaserade bakdörren och Trojanerangrepp
- Detektions- och rensningsstrategier
Robusthet och försvarstekniker
- Fiendlig utbildning och dataförbättring
- Gradientmaskering och inmatningsförbearbetning
- Modellutjämning och regulariseringsmetoder
Integritetsskyddande AI-försvar
- Introduktion till differentiell integritet
- Bullerinjektion och integritetsbudgetar
- Federated learning och säker aggregering
AI-säkerhet i praktiken
- Hotmedvetna modellutvärdering och distribution
- Användning av ART (Adversarial Robustness Toolbox) i praktiska sammanhang
- Branschfallstudier: verkliga bråkdäck och motverkningsmetoder
Sammanfattning och nästa steg
Krav
- Förståelse av maskininlärningsarbetsflöden och modellutbildning
- Erfarenhet av Python och vanliga ML-ramverk som PyTorch eller TensorFlow
- Grundläggande kunskaper i säkerhet eller hotmodellering är användbart
Målgrupp
- Maskininlärningsingenjörer
- Cybersäkerhetsanalytiker
- AI-forskare och modellvalideringslag
14 timmar