Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduktion till AI Red Teaming
- Förståelse för AI hotlandskapet
- Roller för rödteam i AI-säkerhet
- Etiska och juridiska överväganden
Adversarial Machine Learning
- Typer av attacker: undvikande, förgiftning, extraktion, inferens
- Generering av adversarial examples (t.ex. FGSM, PGD)
- Målriktade vs oavsiktliga attacker och framgångsmetriker
Testning av Modellrobusthet
- Utvärdering av robusthet under störningar
- Utforskning av modellblindheter och misslyckandesätt
- Stress testning av klassificering, vision och NLP-modeller
Red Teaming av AI Pipelines
- Attackytan för AI-pipelines: data, modell, distribuering
- Utnyttjande av osäkra modell-API:er och slutpunkter
- Omvänd ingenjörskonst av modellbeteende och utgångar
Simulering och Verktyg
- Användning av Adversarial Robustness Toolbox (ART)
- Red teaming med verktyg som TextAttack och IBM ART
- Sandboxing, övervakning och observabilitetsverktyg
AI Red Team Strategi och Försvar Collaboration
- Utveckling av rödteamövningar och mål
- Kommunicering av resultat till blåteam
- Integriering av red teaming i AI riskhantering
Sammanfattning och Nästa Steg
Krav
- Förståelse för maskininlärnings- och djupinlärningsarkitekturer
- Erfarenhet av Python och ML-ramverk (t.ex., TensorFlow, PyTorch)
- Kännedom om cybersecurity-koncept eller offensiva säkerhetsmetoder
Målgrupp
- Säkerhetsforskare
- Offensiva säkerhetsteam
- AI-assurans och red team-professionella
14 timmar