Red Teaming AI Systems: Offensive Security for ML Models Träningskurs
Kursplan
Introduktion till AI Red Teaming
- Förståelse för AI hotlandskapet
- Roller för rödteam i AI-säkerhet
- Etiska och juridiska överväganden
Adversarial Machine Learning
- Typer av attacker: undvikande, förgiftning, extraktion, inferens
- Generering av adversarial examples (t.ex. FGSM, PGD)
- Målriktade vs oavsiktliga attacker och framgångsmetriker
Testning av Modellrobusthet
- Utvärdering av robusthet under störningar
- Utforskning av modellblindheter och misslyckandesätt
- Stress testning av klassificering, vision och NLP-modeller
Red Teaming av AI Pipelines
- Attackytan för AI-pipelines: data, modell, distribuering
- Utnyttjande av osäkra modell-API:er och slutpunkter
- Omvänd ingenjörskonst av modellbeteende och utgångar
Simulering och Verktyg
- Användning av Adversarial Robustness Toolbox (ART)
- Red teaming med verktyg som TextAttack och IBM ART
- Sandboxing, övervakning och observabilitetsverktyg
AI Red Team Strategi och Försvar Collaboration
- Utveckling av rödteamövningar och mål
- Kommunicering av resultat till blåteam
- Integriering av red teaming i AI riskhantering
Sammanfattning och Nästa Steg
Krav
- Förståelse för maskininlärnings- och djupinlärningsarkitekturer
- Erfarenhet av Python och ML-ramverk (t.ex., TensorFlow, PyTorch)
- Kännedom om cybersecurity-koncept eller offensiva säkerhetsmetoder
Målgrupp
- Säkerhetsforskare
- Offensiva säkerhetsteam
- AI-assurans och red team-professionella
Open Training Courses require 5+ participants.
Red Teaming AI Systems: Offensive Security for ML Models Träningskurs - Booking
Red Teaming AI Systems: Offensive Security for ML Models Träningskurs - Enquiry
Red Teaming AI Systems: Offensive Security for ML Models - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses
Relaterade Kurser
AI Governance, Compliance, and Security for Enterprise Leaders
14 timmarDenna instruktörsledda, liveutbildning på plats eller online är avsedd för företagsledare på mellannivå som vill förstå hur man styr och säkrar AI-system ansvarsfullt och i överensstämmelse med uppkommande globala ramverk såsom EU:s AI-förordning, GDPR, ISO/IEC 42001 och USA:s presidentorder om AI.
Efter avslutad utbildning kommer deltagarna att kunna:
- Förstå de juridiska, etiska och regleringsmässiga riskerna med att använda AI över olika avdelningar.
- Tolka och tillämpa huvudramverk för AI-styrning (EU AI-förordning, NIST AI RMF, ISO/IEC 42001).
- Uppställa säkerhets-, revisions- och övervakningspolicyer för AI-distribution i företaget.
- Utveckla inköps- och användningsriktlinjer för tredje parts- och in-house AI-system.
AI Risk Management and Security in the Public Sector
7 timmarArtificial Intelligence (AI) introducerar nya dimensioner av operativa risker, styrelseutmaningar och cybersecurity-exponering för regeringens myndigheter och departement.
Denna instruktörsledda, live-training (online eller på plats) riktar sig till IT- och riskprofessionella inom den offentliga sektorn med begränsad tidigare erfarenhet av AI som vill förstå hur man utvärderar, övervakar och säkrar AI-system inom en regering eller reglerande kontext.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Tolka nyckelriskkoncept relaterade till AI-system, inklusive bias, oförutsägbarhet och modellförskjutning.
- Använda AI-specifika styrnings- och revisionsramverk som NIST AI RMF och ISO/IEC 42001.
- Känna igen cybersecurity-hot som riktar sig mot AI-modeller och datapipelines.
- Upprätta tvärdepartementella riskhanteringsplaner och policysamstämning för AI-utplacering.
Utbildningsformat
- Interaktiv föreläsning och diskussion av offentliga sektoranvändningsfall.
- Övningar med AI-styrningsramverk och policykartläggning.
- Scenariobaserat hotmodellering och riskbedömning.
Alternativ för anpassning av kursen
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
Building Secure and Responsible LLM Applications
14 timmarDenna instruktörsledda, liveutbildning i Sverige (online eller på plats) riktar sig till AI-utvecklare, arkitekter och produktchefer på mellan- och avancerad nivå som vill identifiera och minimera risker förknippade med LLM-drivna applikationer, inklusive promptinjektion, dataläckage och ofiltrerad utgång, samtidigt som säkerhetskontroller som inmatningsvalidering, människa-i-loopen övervakning och utgångsgränser införlivas.
Efter avslutad utbildning kommer deltagarna att kunna:
- Förstå de grundläggande sårbarheterna i LLM-baserade system.
- Använda säkra designprinciper för LLM-apparkitektur.
- Använda verktyg som Guardrails AI och LangChain för validering, filtrering och säkerhet.
- Integrera teknik som sandlådor, red-teaming och människa-i-loopen-granskning i produktionsgraderade pipeline.
Introduction to AI Security and Risk Management
14 timmarDenna instruktörsledda, live-training i Sverige (online eller på plats) riktar sig till IT-säkerhets-, risk- och complianceprofessionella på nybörjarnivå som vill förstå grundläggande AI-säkerhetskoncept, hotvektorer och globala ramverk som NIST AI RMF och ISO/IEC 42001.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå de unika säkerhetsrisker som införs av AI-system.
- Identifiera hotvektorer såsom motståndarattacker, datamissbruk och modellinversion.
- Tillämpa grundläggande styrningsmodeller som NIST AI Risk Management Framework.
- Anpassa AI-användning efter nya standarder, komplianceregler och etiska principer.
Privacy-Preserving Machine Learning
14 timmarDenna instruktörsledda, liveutbildning på plats Sverige (online eller på plats) riktar sig till avancerade yrkesverksamma som vill implementera och utvärdera tekniker som federated learning, secure multiparty computation, homomorphic encryption och differential privacy i praktiska maskininlärningspipelines.
Efter denna utbildning kommer deltagarna att kunna:
- Förstå och jämföra nyckeltekniker för skydd av integritet inom ML.
- Implementera federated learning-system med hjälp av öppen källkod ramverk.
- Använda differential privacy för säker datadelning och modellträning.
- Använda kryptering och säkra beräkningsmetoder för att skydda modellinmatningar och utdata.
Securing Edge AI and Embedded Intelligence
14 timmarDenna instruktörledda, levande träning (online eller på plats) riktar sig till ingenjörer och säkerhetsexperter på mellan nivå som vill säkra AI-modeller som är distribuerade vid kanten mot hot som manipulering, dataläckor, motiverande inmatningar och fysiska attacker.
Vid slutet av denna träning kommer deltagarna att kunna:
- Identifiera och bedöma säkerhetsrisker i kantbaserade AI-distributioner.
- Tillämpa motståndskraft mot manipulering och krypterade inferensmetoder.
- Härda modeller som distribueras vid kanten och säkra datapipelines.
- Implementera hotminskande strategier specifika för inbyggda och begränsade system.