Kursplan

Introduktion till AI Red Teaming

  • Förståelse för AI hotlandskapet
  • Roller för rödteam i AI-säkerhet
  • Etiska och juridiska överväganden

Adversarial Machine Learning

  • Typer av attacker: undvikande, förgiftning, extraktion, inferens
  • Generering av adversarial examples (t.ex. FGSM, PGD)
  • Målriktade vs oavsiktliga attacker och framgångsmetriker

Testning av Modellrobusthet

  • Utvärdering av robusthet under störningar
  • Utforskning av modellblindheter och misslyckandesätt
  • Stress testning av klassificering, vision och NLP-modeller

Red Teaming av AI Pipelines

  • Attackytan för AI-pipelines: data, modell, distribuering
  • Utnyttjande av osäkra modell-API:er och slutpunkter
  • Omvänd ingenjörskonst av modellbeteende och utgångar

Simulering och Verktyg

  • Användning av Adversarial Robustness Toolbox (ART)
  • Red teaming med verktyg som TextAttack och IBM ART
  • Sandboxing, övervakning och observabilitetsverktyg

AI Red Team Strategi och Försvar Collaboration

  • Utveckling av rödteamövningar och mål
  • Kommunicering av resultat till blåteam
  • Integriering av red teaming i AI riskhantering

Sammanfattning och Nästa Steg

Krav

  • Förståelse för maskininlärnings- och djupinlärningsarkitekturer
  • Erfarenhet av Python och ML-ramverk (t.ex., TensorFlow, PyTorch)
  • Kännedom om cybersecurity-koncept eller offensiva säkerhetsmetoder

Målgrupp

  • Säkerhetsforskare
  • Offensiva säkerhetsteam
  • AI-assurans och red team-professionella
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier