Kursplan

Introduktion till Red Teaming i AI

  • Förstå AI-hotlandskapet
  • Rollerna för red teams inom AI-säkerhet
  • Etiska och juridiska överväganden

Antagonistisk maskininlärning

  • Typer av angrepp: undvikande, förgiftande, extrahering, inferens
  • Generera antagonister exempel (t.ex., FGSM, PGD)
  • Målade vs omdirigeringsfria angrepp och framgångsmått

Testa modellens robusthet

  • Utvärdera robusthet under störningar
  • Utforska modellens blindfläckar och misslyckandemönster
  • Stress-testa klassificerings-, visions- och NLP-modeller

Red Teaming av AI-pipelines

  • Angreppsytan för AI-pipelines: data, modell, distribution
  • Utnyttja osäkra modell-API:er och slutpunkter
  • Omvända ingenjörsmetoder för att analysera modellbeteende och utdata

Simulering och verktyg

  • Användning av Adversarial Robustness Toolbox (ART)
  • Red teaming med verktyg som TextAttack och IBM ART
  • Sandlådor, övervaknings- och observabilitetsverktyg

AI Red Team-strategi och försvarsamarbete

  • Utveckla red team-övningar och mål
  • Kommunicera resultat till blue teams
  • Integrera red teaming i AI-riskhantering

Sammanfattning och nästa steg

Krav

  • En förståelse för maskininlärnings- och djupinlärningsarkitekturer
  • Erfarenhet av Python och ML-frameworks (t.ex., TensorFlow, PyTorch)
  • Kännedom om cybersäkerhetskoncept eller offensiv säkerhetstekniker

Målgrupp

  • Säkerhetsforskare
  • Offensiv säkerhetsteam
  • AI-trygghetsexperter och red team-professionals
 14 timmar

Antal deltagare


Pris per deltagare

Vittnesmål (1)

Kommande Kurser

Relaterade Kategorier