Privacy-Preserving Machine Learning Träningskurs
Privacy-Preserving Machine Learning är ett fält som fokuserar på att skydda känslig data samtidigt som det fortfarande tillåter avancerade AI-förmågor i decentraliserade eller begränsade miljöer.
Denna instruktörsledda, liveutbildning (online eller på plats) riktas till professionella på avancerat nivå som önskar implementera och utvärdera tekniker som federated learning, säker flerpartsberegning, homomorf kryptering och differentiell integritet i verkliga maskininlärningspipeline.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå och jämföra nyckeltekniker för integritetsskydd i ML.
- Implementera federated learning-system med öppen källkod.
- Använda differentiell integritet för säker datadelning och modellträningsdata.
- Använda kryptering och säkerhetsberäkningsmetoder för att skydda modulinmatningar och utmatningar.
Kursformat
- Interaktiv föreläsning och diskussion.
- Många övningar och praktiska övningar.
- Praktisk implementering i en live-labbmiljö.
Kursanpassningsalternativ
- För att begära en anpassad utbildning för denna kurs, kontakta oss för att ordna.
Kursplan
Introduktion till Privacy-Preserving ML
- Motivationer och risker i miljöer med känsliga data
- Översikt över integritetsskyddande ML-tekniker
- Hotmodeller och regelverk (t.ex., GDPR, HIPAA)
Federated Learning
- Koncept och arkitektur för federated learning
- Klient-server-synkronisering och -aggregering
- Implementering med PySyft och Flower
Differentiell Integritet
- Matematik bakom differentiell integritet
- Tillämpning av DP i datfrågor och modellträningsdata
- Användning av Opacus och TensorFlow Privacy
Secure Multiparty Computation (SMPC)
- SMPC-protokoll och användningsfall
- Krypteringsbaserade vs hemlighetsdela-metoder
- Säkerhetsberäkningsarbetsflöden med CrypTen eller PySyft
Homomorf Kryptering
- Fullständig vs delvis homomorf kryptering
- Krypterad inferens för känsliga arbetsbelastningar
- Praktik med TenSEAL och Microsoft SEAL
Tillämpningar och branschfallstudier
- Integritet i hälsa: federated learning för medicinsk AI
- Säker samarbete inom finansiella sektorer: riskmodeller och komplians
- Användningsfall inom försvar och statliga organ
Sammanfattning och nästa steg
Krav
- En förståelse för maskininlärningsprinciper
- Erfarenhet av Python och ML-bibliotek (t.ex., PyTorch, TensorFlow)
- Familiaritet med dataskydd eller cybersäkerhetskoncept är till hjälp
Målgrupp
- AI-forskare
- Dataskydds- och integritetsekonomier
- Säkerhetsingenjörer som arbetar i reglerade branscher
Öppna Utbildningskurser kräver 5+ deltagare.
Privacy-Preserving Machine Learning Träningskurs - Bokning
Privacy-Preserving Machine Learning Träningskurs - Fråga
Privacy-Preserving Machine Learning - Konsultfråga
Konsultfråga
Kommande Kurser
Relaterade Kurser
Inledning till AI-lit, risk och Security Management (AI TRiSM)
21 timmarDenna instruktörsledda, levande utbildning (online eller på plats) vänder sig till IT-professionella på nybörjar- till mellanivå som vill förstå och implementera AI TRiSM i sina organisationer.
I slutet av denna utbildning kommer deltagarna att kunna:
- Fatta de centrala begreppen och vikten av AI-tillförlitlighet, risk- och säkerhetshantering.
- Identifiera och minska risker som är förknippade med AI-system.
- Implementera säkerhetsbästa praxis för AI.
- Förstå regleringskompatibilitet och etiska överväganden för AI.
- Utveckla strategier för effektiv AI-styrning och hantering.
Cybersäkerhet i AI-system
14 timmarDenna instruktörsledda, live-utbildning på plats (online eller på plats) riktar sig till mellanavancerade AI- och cybersäkerhetsprofessionella som vill förstå och åtgärda säkerhetsrisker specifika för AI-modeller och system, särskilt inom starkt reglerade branscher såsom finans, datastyrelse och konsulting.
Vid utbildningens slut kommer deltagarna att kunna:
- Förstå typerna av motståndarattacker som riktar in sig på AI-system och metoder för att försvara sig mot dem.
- Implementera modellförstärkningstekniker för att säkra maskininlärningspipelines.
- Säkerställa datasäkerhet och integritet i maskininlärningsmodeller.
- Navigera i de regelverkskrav som är relaterade till AI-säkerhet.
Introduktion till AI-säkerhet och riskhantering
14 timmarDenna instruktörledd, live-träning i Sverige (online eller på plats) riktas till nybörjande IT-säkerhet, risk- och efterlevnadsprofessionals som önskar förstå grundläggande AI-säkerhetskoncept, hotvektorer och globala ramverk såsom NIST AI RMF och ISO/IEC 42001.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå de unika säkerhetsrisker som introduceras av AI-system.
- Identifiera hotvektorer såsom fiendtliga angrepp, dataförgiftning och modellinversion.
- Använd grundläggande styrningsmodeller som NIST AI Risk Management Framework.
- Anpassa användningen av AI till uppkommande standarder, efterlevnadsriktlinjer och etiska principer.
Skydda AI-modeller: Hot, Angrepp och Försvar
14 timmarDetta instruktörsledda, liveutbildning i Sverige (online eller på plats) är riktat till mellannivåmaskininlärnings- och cybersäkerhetsexperter som önskar förstå och motverka framtida hot mot AI-modeller genom att använda både konceptuella ramverk och praktiska försvarsmetoder som robust utbildning och differentiell integritet.
Efter denna utbildning kommer deltagarna att kunna:
- Identifiera och klassificera AI-specifika hot som fiendtliga angrepp, inverseringsangrepp och förgiftning.
- Använd verktyg som Adversarial Robustness Toolbox (ART) för att simulera angrepp och testa modeller.
- Tillämpa praktiska försvarsmetoder inklusive fiendtlig utbildning, bullerinjektion och integritetsbevarande tekniker.
- Utforma hotmedvetna modellutvärderingsstrategier i produktionsmiljöer.
Building Secure and Responsible LLM Applications
14 timmarDenna instruktörsledda, liveutbildning i Sverige (online eller på plats) riktar sig till AI-utvecklare, arkitekter och produktchefer på mellan- och avancerad nivå som vill identifiera och minimera risker förknippade med LLM-drivna applikationer, inklusive promptinjektion, dataläckage och ofiltrerad utgång, samtidigt som säkerhetskontroller som inmatningsvalidering, människa-i-loopen övervakning och utgångsgränser införlivas.
Efter avslutad utbildning kommer deltagarna att kunna:
- Förstå de grundläggande sårbarheterna i LLM-baserade system.
- Använda säkra designprinciper för LLM-apparkitektur.
- Använda verktyg som Guardrails AI och LangChain för validering, filtrering och säkerhet.
- Integrera teknik som sandlådor, red-teaming och människa-i-loopen-granskning i produktionsgraderade pipeline.
AI-governans, komplians och säkerhet för företagsledare
14 timmarDenna instruktörledda, liveutbildning i Sverige (online eller på plats) riktar sig till mellannivåföretagsledare som vill förstå hur man ansvarigt och enligt de framkommande globala ramverken, såsom EU:s AI-akt, GDPR, ISO/IEC 42001 och den amerikanska presidentens direktiv om AI, styr och skyddar AI-system.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå de rättsliga, etiska och regleringsmässiga riskerna med att använda AI i olika avdelningar.
- Tolka och tillämpa stora AI-governansramverk (EU:s AI-akt, NIST AI RMF, ISO/IEC 42001).
- Etablera säkerhets-, granskning- och övervakningsprinciper för implementering av AI i företaget.
- Utveckla inköps- och användningsriktlinjer för tredjepartssystem och in-house AI-system.
Red Teaming AI-systemer: Offensiv säkerhet för ML-modeller
14 timmarDenna handledningsskapad, liveutbildning i Sverige (online eller på plats) riktas till säkerhetsexperter och ML-specialister med avancerat nivå som vill simulera angrepp på AI-system, upptäcka sårbarheter och förbättra robustheten hos distribuerade AI-modeller.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Simulera reella hot mot maskininlärningsmodeller.
- Generera antagonister exempel för att testa modellens robusthet.
- Bedöma angreppsytan av AI-API:er och pipelines.
- Utforma red team-strategier för AI-distributionsmiljöer.
Säkra Edge AI och inbyggd intelligens
14 timmarDetta instruktörledda, liveutbildning i Sverige (online eller platsbaserat) riktas till mellannivåingetörs- och säkerhetsprofiler som vill säkra AI-modeller som distribuerats vid kanten mot hot som manipulering, datautlossning, fiendtliga inmatningar och fysiska angrepp.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Identifiera och bedöma säkerhetsrisker i Edge AI-distributioner.
- Använda manipuleringsresistenta och krypterade inferensmetoder.
- Härda modeller som distribuerats vid kanten och säkra dataflöden.
- Implementera hotbegränsningsstrategier specifika för inbyggda och begränsade system.
AI Risk Management och Säkerhet i den Offentliga Sektorn
7 timmarArtificiell intelligens (AI) introducerar nya dimensioner av operativa risker, styrningsutmaningar och cybersäkerhetsutsättningar för myndigheter och departement.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till IT- och riskprofessionella inom den offentliga sektorn med begränsad tidigare erfarenhet av AI som vill förstå hur man utvärderar, övervakar och säkrar AI-system inom en regerings- eller regleringskontext.
Vid slutet av denna träning kommer deltagarna att kunna:
- Tydliggöra nyckelriskkoncept relaterade till AI-system, inklusive bias, oförutsägbarhet och modellförskjutning.
- Tillämpa AI-specifika styrnings- och revisionsramar som NIST AI RMF och ISO/IEC 42001.
- Identifiera cybersäkerhetshot som riktar sig mot AI-modeller och datapipelines.
- Upprätta tvärdepartementella riskhanteringsplaner och policyöverensstämmelse för AI-implementering.
Kursformat
- Interaktiv föreläsning och diskussion av användningsfall i den offentliga sektorn.
- Övningar i AI-styrningsramar och policykartläggning.
- Scenariebaserad hotmodellering och riskutvärdering.
Anpassningsalternativ för kursen
- För att begära en anpassad träning för denna kurs, kontakta oss för att ordna.
OWASP GenAI Security
14 timmarUtifrån den senaste vägledningen från OWASP GenAI Security Project kommer deltagarna att lära sig identifiera, bedöma och mildra AI-specifika hot genom praktiska övningar och verkliga scenarier.
Säker och säker agensbaserad AI: styrning, identitet och rödtruppstestning
21 timmarKursen täcker styrning, identitets hantering och motståndstestning för agensbaserade AI-system, med fokus på företagssäkra distributionsmönster och praktiska rödtruppstekniker.
Detta instruktörsledd, liveutbildning (online eller platsbaserad) är riktad till avancerade praktiker som vill designa, säkra och utvärdera agensbaserade AI-system i produktionsmiljöer.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Definiera styrningsmodeller och policyer för säkra agensbaserade AI-distributioner.
- Designa icke-mänskliga identitets- och autentiseringsflöden för agenter med minsta behörighet.
- Implementera åtkomstkontroller, revisionsleder och övervakning anpassade till autonoma agenter.
- Planera och genomföra rödtruppsexerciser för att upptäcka missbruk, eskalationsvägar och dataexfiltreringsrisker.
- Minska vanliga hot mot agensbaserade system genom policy, tekniska kontroller och övervakning.
Kursformat
- Interaktiva föreläsningar och hotmodellverkshopar.
- Praktiska laborationer: identitetsprovisionering, policytillämpning och motståndssimulering.
- Rödtrupp-/blåtruppsexerciser och slututvärdering av kursen.
Kursanpassningsalternativ
- För att begära en anpassad utbildning för denna kurs, kontakta oss för att ordna.
Säkerhet och integritet i TinyML-applikationer
21 timmarTinyML är ett tillvägagångssätt för att distribuera maskininlärningsmodeller på lågbekräftar, resursbegränsade enheter som opererar vid nätverkets kant.
Denna instruktörsledda, liveutbildning (online eller på plats) riktas till avancerade professionella som vill säkerställa TinyML-pipeliner och implementera integritetsskyddande tekniker i edge AI-applikationer.
Vid slutet av denna kurs kommer deltagarna att kunna:
- Identifiera säkerhetsrisker som är unika för maskininlärningsinference på enheter.
- Implementera integritetsskyddande mekanismer för edge AI-distributioner.
- Förstärka TinyML-modeller och inbyggda system mot fiendtliga hot.
- Tillämpa bästa praxis för säker datahantering i resursbegränsade miljöer.
Kursformat
- Engagerande föreläsningar som stöds av expertledna diskussioner.
- Praktiska övningar med fokus på reala hotscenarier.
- Hållas implementering med hjälp av inbyggda säkerhetstekniker och TinyML-verktyg.
Kursanpassningsalternativ
- Organisationer kan begära en anpassad version av denna utbildning för att anpassa den till sina specifika säkerhets- och efterlevnadskrav.
ISACA Avancerad i AI-säkerhetsstyrning (AAISM)
21 timmarAAISM är ett avancerat ramverk för att utvärdera, styra och hantera säkerhetsrisker inom artificiella intelligenssystem.
Detta instruktörsledda, liveutbildning (online eller på plats) är riktat till avancerade professionella som vill implementera effektiva säkerhetskontroller och styrningspraktiker för företags AI-miljöer.
Vid programmet slut kommer deltagarna att vara förberedda på att:
- Utvärdera AI-säkerhetsrisker med hjälp av industriigenkända metodiker.
- Implementera styrningsmodeller för ansvarsfullt AI-distributionsarbete.
- Anpassa AI-säkerhetspolicyer till organisationens mål och regelverkskrav.
- Förbättra uthållighet och ansvarstagande inom AI-drivna operationer.
Kursformat
- Faciliterade föreläsningar med expertanalys.
- Praktiska workshops och aktiviteter baserade på bedömning.
- Tillämpade övningar med realistiska AI-styrningsscenarioer.
Kursanpassningsalternativ
- För anpassad utbildning som är justerad efter din organisations AI-strategi, kontakta oss för att anpassa kursen.