Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduktion till AI Red Teaming
- Förstå AI-säkerhetslandskapet
- Rollerna för red teams i AI-säkerhet
- Etiska och juridiska överväganden
Motståndare Machine Learning
- Typer av attacker: undvika, förgifta, extrahera, inferera
- Skapa motståndarexempel (t.ex., FGSM, PGD)
- Målstyrda och icke-målstyrda attacker och framgångsmetriker
Testning av Modellens Robusthet
- Bedömning av robusthet under störningar
- Utforskning av modellers blindfläckar och misslyckandessätt
- Stressa klassificering, syn och NLP-modeller
Red Teaming AI-Pipelines
- Attackyta för AI-pipelines: data, modell, distribution
- Utnyttjande av osäkra modell-APIer och slutpunkter
- Omvänd ingenjörskonst av modellbeteende och utgångar
Simulation och Verktyg
- Användning av Adversarial Robustness Toolbox (ART)
- Red teaming med verktyg som TextAttack och IBM ART
- Sandboxing, övervakning och observabilitetsverktyg
AI Red Team Strategi och Försvar Collaboration
- Utveckling av red team-övningar och mål
- Kommunicera resultat till blue teams
- Integrera red teaming i AI-risksförvaltning
Sammanfattning och Nästa Steg
Krav
- Förståelse för maskininlärning och djupinlärningsarkitekturer
- Erfarenhet av Python och ML-ramverk (t.ex., TensorFlow, PyTorch)
- Kännedom om cybersäkerhetsbegrepp eller offensiva säkerhetstekniker
Målgrupp
- Säkerhetsforskare
- Offensiva säkerhetsteam
- AI-säkerhets- och red team-professionella
14 timmar