Kursplan

Introduktion till AI Red Teaming

  • Förstå AI-säkerhetslandskapet
  • Rollerna för red teams i AI-säkerhet
  • Etiska och juridiska överväganden

Motståndare Machine Learning

  • Typer av attacker: undvika, förgifta, extrahera, inferera
  • Skapa motståndarexempel (t.ex., FGSM, PGD)
  • Målstyrda och icke-målstyrda attacker och framgångsmetriker

Testning av Modellens Robusthet

  • Bedömning av robusthet under störningar
  • Utforskning av modellers blindfläckar och misslyckandessätt
  • Stressa klassificering, syn och NLP-modeller

Red Teaming AI-Pipelines

  • Attackyta för AI-pipelines: data, modell, distribution
  • Utnyttjande av osäkra modell-APIer och slutpunkter
  • Omvänd ingenjörskonst av modellbeteende och utgångar

Simulation och Verktyg

  • Användning av Adversarial Robustness Toolbox (ART)
  • Red teaming med verktyg som TextAttack och IBM ART
  • Sandboxing, övervakning och observabilitetsverktyg

AI Red Team Strategi och Försvar Collaboration

  • Utveckling av red team-övningar och mål
  • Kommunicera resultat till blue teams
  • Integrera red teaming i AI-risksförvaltning

Sammanfattning och Nästa Steg

Krav

  • Förståelse för maskininlärning och djupinlärningsarkitekturer
  • Erfarenhet av Python och ML-ramverk (t.ex., TensorFlow, PyTorch)
  • Kännedom om cybersäkerhetsbegrepp eller offensiva säkerhetstekniker

Målgrupp

  • Säkerhetsforskare
  • Offensiva säkerhetsteam
  • AI-säkerhets- och red team-professionella
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier