Tack för att du skickade din fråga! En av våra teammedlemmar kontaktar dig snart.
Tack för att du skickade din bokning! En av våra teammedlemmar kontaktar dig snart.
Kursplan
Introduktion till Red Teaming i AI
- Förstå AI-hotlandskapet
- Rollerna för red teams inom AI-säkerhet
- Etiska och juridiska överväganden
Antagonistisk maskininlärning
- Typer av angrepp: undvikande, förgiftande, extrahering, inferens
- Generera antagonister exempel (t.ex., FGSM, PGD)
- Målade vs omdirigeringsfria angrepp och framgångsmått
Testa modellens robusthet
- Utvärdera robusthet under störningar
- Utforska modellens blindfläckar och misslyckandemönster
- Stress-testa klassificerings-, visions- och NLP-modeller
Red Teaming av AI-pipelines
- Angreppsytan för AI-pipelines: data, modell, distribution
- Utnyttja osäkra modell-API:er och slutpunkter
- Omvända ingenjörsmetoder för att analysera modellbeteende och utdata
Simulering och verktyg
- Användning av Adversarial Robustness Toolbox (ART)
- Red teaming med verktyg som TextAttack och IBM ART
- Sandlådor, övervaknings- och observabilitetsverktyg
AI Red Team-strategi och försvarsamarbete
- Utveckla red team-övningar och mål
- Kommunicera resultat till blue teams
- Integrera red teaming i AI-riskhantering
Sammanfattning och nästa steg
Krav
- En förståelse för maskininlärnings- och djupinlärningsarkitekturer
- Erfarenhet av Python och ML-frameworks (t.ex., TensorFlow, PyTorch)
- Kännedom om cybersäkerhetskoncept eller offensiv säkerhetstekniker
Målgrupp
- Säkerhetsforskare
- Offensiv säkerhetsteam
- AI-trygghetsexperter och red team-professionals
14 timmar
Vittnesmål (1)
Den professionella kunskapen och hur han presenterade den för oss
Miroslav Nachev - PUBLIC COURSE
Kurs - Cybersecurity in AI Systems
Maskintolkat