Säkra Edge AI och inbyggd intelligens Träningskurs
Säkra Edge AI och inbyggd intelligens är praktiken att skydda maskininlärningsmodeller och data i begränsade, ofta fysiskt exponerade miljöer som drönare, sensorer, smarta kameror och autonoma system.
Detta instruktörledda, liveutbildning (online eller platsbaserat) riktas till mellannivåingetörs- och säkerhetsprofiler som vill säkra AI-modeller som distribuerats vid kanten mot hot som manipulering, datautlossning, fiendtliga inmatningar och fysiska angrepp.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Identifiera och bedöma säkerhetsrisker i Edge AI-distributioner.
- Använda manipuleringsresistenta och krypterade inferensmetoder.
- Härda modeller som distribuerats vid kanten och säkra dataflöden.
- Implementera hotbegränsningsstrategier specifika för inbyggda och begränsade system.
Kursens format
- Interaktiv föreläsning och diskussion.
- Många övningar och praktik.
- Hands-on implementation i en live-lab-miljö.
Kursanpassningsalternativ
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna det.
Kursplan
Introduktion till Edge AI och inbyggda system
- Vad är Edge AI? Användningsfall och begränsningar
- Edge-hårdvaraplattformar och programvarustackar
- Säkerhetsutmaningar i inbyggda och decentraliserade miljöer
Hotlandskap för Edge AI
- Fysisk åtkomst och manipulationsrisker
- Fiendtliga exempel och modellmanipulation
- Datautlossning och modellinverteringshot
Säkra modellen
- Modellhärdsnings- och kvantiseringstrategier
- Vattensättning och fingeravtrycksmärkning av modeller
- Defensiv distillation och beskäring
Krypterad inferens och säker körning
- Betrodda köra miljöer (TEEs) för AI
- Säkra enclave-områden och konfidentiell databehandling
- Krypterad inferens med homomorf kryptering eller SMPC
Manipulationsdetektering och enhetssnabbstyrning
- Säker start och firmware-integritetskontroller
- Sensorvalidering och anomalidetektering
- Remote attestation och enhetshälsöövervakning
Säkerhetsintegration från kant till moln
- Säkra datatransmission och nyckelhantering
- Slutpunkt-till-slutpunkt-kryptering och datalevnadcirkelsskydd
- Moln-AI-orchestration med kant-säkerhetsbegränsningar
Bästa praxis och riskminimeringsstrategi
- Hotmodellering för Edge AI-system
- Säkerhetsdesignprinciper för inbyggd intelligens
- Incidenthantering och firmwareuppdateringsadministration
Sammanfattning och nästa steg
Krav
- En förståelse för inbyggda system eller Edge AI-distributionsmiljöer
- Erfarenhet av Python och ML-ramar (t.ex., TensorFlow Lite, PyTorch Mobile)
- Grundläggande bekantskap med cybersäkerhet eller IoT-hotmodeller
Målgrupp
- Inbyggda AI-utvecklare
- IoT-säkerhetsspecialister
- Ingenjörer som distribuerar ML-modeller på edge- eller begränsade enheter
Öppna Utbildningskurser kräver 5+ deltagare.
Säkra Edge AI och inbyggd intelligens Träningskurs - Bokning
Säkra Edge AI och inbyggd intelligens Träningskurs - Fråga
Säkra Edge AI och inbyggd intelligens - Konsultfråga
Konsultfråga
Kommande Kurser
Relaterade Kurser
Inledning till AI-lit, risk och Security Management (AI TRiSM)
21 timmarDenna instruktörsledda, levande utbildning (online eller på plats) vänder sig till IT-professionella på nybörjar- till mellanivå som vill förstå och implementera AI TRiSM i sina organisationer.
I slutet av denna utbildning kommer deltagarna att kunna:
- Fatta de centrala begreppen och vikten av AI-tillförlitlighet, risk- och säkerhetshantering.
- Identifiera och minska risker som är förknippade med AI-system.
- Implementera säkerhetsbästa praxis för AI.
- Förstå regleringskompatibilitet och etiska överväganden för AI.
- Utveckla strategier för effektiv AI-styrning och hantering.
Cybersäkerhet i AI-system
14 timmarDenna instruktörsledda, live-utbildning på plats (online eller på plats) riktar sig till mellanavancerade AI- och cybersäkerhetsprofessionella som vill förstå och åtgärda säkerhetsrisker specifika för AI-modeller och system, särskilt inom starkt reglerade branscher såsom finans, datastyrelse och konsulting.
Vid utbildningens slut kommer deltagarna att kunna:
- Förstå typerna av motståndarattacker som riktar in sig på AI-system och metoder för att försvara sig mot dem.
- Implementera modellförstärkningstekniker för att säkra maskininlärningspipelines.
- Säkerställa datasäkerhet och integritet i maskininlärningsmodeller.
- Navigera i de regelverkskrav som är relaterade till AI-säkerhet.
Introduktion till AI-säkerhet och riskhantering
14 timmarDenna instruktörledd, live-träning i Sverige (online eller på plats) riktas till nybörjande IT-säkerhet, risk- och efterlevnadsprofessionals som önskar förstå grundläggande AI-säkerhetskoncept, hotvektorer och globala ramverk såsom NIST AI RMF och ISO/IEC 42001.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå de unika säkerhetsrisker som introduceras av AI-system.
- Identifiera hotvektorer såsom fiendtliga angrepp, dataförgiftning och modellinversion.
- Använd grundläggande styrningsmodeller som NIST AI Risk Management Framework.
- Anpassa användningen av AI till uppkommande standarder, efterlevnadsriktlinjer och etiska principer.
Skydda AI-modeller: Hot, Angrepp och Försvar
14 timmarDetta instruktörsledda, liveutbildning i Sverige (online eller på plats) är riktat till mellannivåmaskininlärnings- och cybersäkerhetsexperter som önskar förstå och motverka framtida hot mot AI-modeller genom att använda både konceptuella ramverk och praktiska försvarsmetoder som robust utbildning och differentiell integritet.
Efter denna utbildning kommer deltagarna att kunna:
- Identifiera och klassificera AI-specifika hot som fiendtliga angrepp, inverseringsangrepp och förgiftning.
- Använd verktyg som Adversarial Robustness Toolbox (ART) för att simulera angrepp och testa modeller.
- Tillämpa praktiska försvarsmetoder inklusive fiendtlig utbildning, bullerinjektion och integritetsbevarande tekniker.
- Utforma hotmedvetna modellutvärderingsstrategier i produktionsmiljöer.
Building Secure and Responsible LLM Applications
14 timmarDenna instruktörsledda, liveutbildning i Sverige (online eller på plats) riktar sig till AI-utvecklare, arkitekter och produktchefer på mellan- och avancerad nivå som vill identifiera och minimera risker förknippade med LLM-drivna applikationer, inklusive promptinjektion, dataläckage och ofiltrerad utgång, samtidigt som säkerhetskontroller som inmatningsvalidering, människa-i-loopen övervakning och utgångsgränser införlivas.
Efter avslutad utbildning kommer deltagarna att kunna:
- Förstå de grundläggande sårbarheterna i LLM-baserade system.
- Använda säkra designprinciper för LLM-apparkitektur.
- Använda verktyg som Guardrails AI och LangChain för validering, filtrering och säkerhet.
- Integrera teknik som sandlådor, red-teaming och människa-i-loopen-granskning i produktionsgraderade pipeline.
AI-governans, komplians och säkerhet för företagsledare
14 timmarDenna instruktörledda, liveutbildning i Sverige (online eller på plats) riktar sig till mellannivåföretagsledare som vill förstå hur man ansvarigt och enligt de framkommande globala ramverken, såsom EU:s AI-akt, GDPR, ISO/IEC 42001 och den amerikanska presidentens direktiv om AI, styr och skyddar AI-system.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå de rättsliga, etiska och regleringsmässiga riskerna med att använda AI i olika avdelningar.
- Tolka och tillämpa stora AI-governansramverk (EU:s AI-akt, NIST AI RMF, ISO/IEC 42001).
- Etablera säkerhets-, granskning- och övervakningsprinciper för implementering av AI i företaget.
- Utveckla inköps- och användningsriktlinjer för tredjepartssystem och in-house AI-system.
Red Teaming AI-systemer: Offensiv säkerhet för ML-modeller
14 timmarDenna handledningsskapad, liveutbildning i Sverige (online eller på plats) riktas till säkerhetsexperter och ML-specialister med avancerat nivå som vill simulera angrepp på AI-system, upptäcka sårbarheter och förbättra robustheten hos distribuerade AI-modeller.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Simulera reella hot mot maskininlärningsmodeller.
- Generera antagonister exempel för att testa modellens robusthet.
- Bedöma angreppsytan av AI-API:er och pipelines.
- Utforma red team-strategier för AI-distributionsmiljöer.
Privacy-Preserving Machine Learning
14 timmarDenna instruktörsledda, liveutbildning i Sverige (online eller på plats) riktas till professionella på avancerat nivå som önskar implementera och utvärdera tekniker som federated learning, säker flerpartsberegning, homomorf kryptering och differentiell integritet i verkliga maskininlärningspipeline.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förstå och jämföra nyckeltekniker för integritetsskydd i ML.
- Implementera federated learning-system med öppen källkod.
- Använda differentiell integritet för säker datadelning och modellträningsdata.
- Använda kryptering och säkerhetsberäkningsmetoder för att skydda modulinmatningar och utmatningar.
AI Risk Management och Säkerhet i den Offentliga Sektorn
7 timmarArtificiell intelligens (AI) introducerar nya dimensioner av operativa risker, styrningsutmaningar och cybersäkerhetsutsättningar för myndigheter och departement.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till IT- och riskprofessionella inom den offentliga sektorn med begränsad tidigare erfarenhet av AI som vill förstå hur man utvärderar, övervakar och säkrar AI-system inom en regerings- eller regleringskontext.
Vid slutet av denna träning kommer deltagarna att kunna:
- Tydliggöra nyckelriskkoncept relaterade till AI-system, inklusive bias, oförutsägbarhet och modellförskjutning.
- Tillämpa AI-specifika styrnings- och revisionsramar som NIST AI RMF och ISO/IEC 42001.
- Identifiera cybersäkerhetshot som riktar sig mot AI-modeller och datapipelines.
- Upprätta tvärdepartementella riskhanteringsplaner och policyöverensstämmelse för AI-implementering.
Kursformat
- Interaktiv föreläsning och diskussion av användningsfall i den offentliga sektorn.
- Övningar i AI-styrningsramar och policykartläggning.
- Scenariebaserad hotmodellering och riskutvärdering.
Anpassningsalternativ för kursen
- För att begära en anpassad träning för denna kurs, kontakta oss för att ordna.
OWASP GenAI Security
14 timmarUtifrån den senaste vägledningen från OWASP GenAI Security Project kommer deltagarna att lära sig identifiera, bedöma och mildra AI-specifika hot genom praktiska övningar och verkliga scenarier.
Säker och säker agensbaserad AI: styrning, identitet och rödtruppstestning
21 timmarKursen täcker styrning, identitets hantering och motståndstestning för agensbaserade AI-system, med fokus på företagssäkra distributionsmönster och praktiska rödtruppstekniker.
Detta instruktörsledd, liveutbildning (online eller platsbaserad) är riktad till avancerade praktiker som vill designa, säkra och utvärdera agensbaserade AI-system i produktionsmiljöer.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Definiera styrningsmodeller och policyer för säkra agensbaserade AI-distributioner.
- Designa icke-mänskliga identitets- och autentiseringsflöden för agenter med minsta behörighet.
- Implementera åtkomstkontroller, revisionsleder och övervakning anpassade till autonoma agenter.
- Planera och genomföra rödtruppsexerciser för att upptäcka missbruk, eskalationsvägar och dataexfiltreringsrisker.
- Minska vanliga hot mot agensbaserade system genom policy, tekniska kontroller och övervakning.
Kursformat
- Interaktiva föreläsningar och hotmodellverkshopar.
- Praktiska laborationer: identitetsprovisionering, policytillämpning och motståndssimulering.
- Rödtrupp-/blåtruppsexerciser och slututvärdering av kursen.
Kursanpassningsalternativ
- För att begära en anpassad utbildning för denna kurs, kontakta oss för att ordna.
Säkerhet och integritet i TinyML-applikationer
21 timmarTinyML är ett tillvägagångssätt för att distribuera maskininlärningsmodeller på lågbekräftar, resursbegränsade enheter som opererar vid nätverkets kant.
Denna instruktörsledda, liveutbildning (online eller på plats) riktas till avancerade professionella som vill säkerställa TinyML-pipeliner och implementera integritetsskyddande tekniker i edge AI-applikationer.
Vid slutet av denna kurs kommer deltagarna att kunna:
- Identifiera säkerhetsrisker som är unika för maskininlärningsinference på enheter.
- Implementera integritetsskyddande mekanismer för edge AI-distributioner.
- Förstärka TinyML-modeller och inbyggda system mot fiendtliga hot.
- Tillämpa bästa praxis för säker datahantering i resursbegränsade miljöer.
Kursformat
- Engagerande föreläsningar som stöds av expertledna diskussioner.
- Praktiska övningar med fokus på reala hotscenarier.
- Hållas implementering med hjälp av inbyggda säkerhetstekniker och TinyML-verktyg.
Kursanpassningsalternativ
- Organisationer kan begära en anpassad version av denna utbildning för att anpassa den till sina specifika säkerhets- och efterlevnadskrav.
ISACA Avancerad i AI-säkerhetsstyrning (AAISM)
21 timmarAAISM är ett avancerat ramverk för att utvärdera, styra och hantera säkerhetsrisker inom artificiella intelligenssystem.
Detta instruktörsledda, liveutbildning (online eller på plats) är riktat till avancerade professionella som vill implementera effektiva säkerhetskontroller och styrningspraktiker för företags AI-miljöer.
Vid programmet slut kommer deltagarna att vara förberedda på att:
- Utvärdera AI-säkerhetsrisker med hjälp av industriigenkända metodiker.
- Implementera styrningsmodeller för ansvarsfullt AI-distributionsarbete.
- Anpassa AI-säkerhetspolicyer till organisationens mål och regelverkskrav.
- Förbättra uthållighet och ansvarstagande inom AI-drivna operationer.
Kursformat
- Faciliterade föreläsningar med expertanalys.
- Praktiska workshops och aktiviteter baserade på bedömning.
- Tillämpade övningar med realistiska AI-styrningsscenarioer.
Kursanpassningsalternativ
- För anpassad utbildning som är justerad efter din organisations AI-strategi, kontakta oss för att anpassa kursen.