Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Översikt över LLM-arkitektur och angreppsytor
* Hur LLMs byggs, distribueras och åtkomst via APIer
* Nyckelkomponenter i LLM-applikationsstackar (t.ex. prompts, agenter, minne, APIer)
* Var och hur säkerhetsproblem uppstår i verkliga användningsområden
Prompt-injektion och jailbreak-attacker
* Vad är prompt-injektion och varför det är farligt
* Direkta och indirekta prompt-injektionsscenarier
* Tekniker för att kringgå säkerhetsfilter
* Detektering och åtgärdsstrategier
Dataläckage och integritetsrisker
* Oavsiktlig dataläcka genom svar
* Läckage av personuppgifter och missbruk av modellminne
* Designa integritetsskyddade prompts och hämtning-förstärkt generation (RAG)
LLM-utdatafiltrering och bevakning
* Användning av Guardrails AI för innehållsfiltrering och validering
* Definiera utdataskemor och begränsningar
* Övervakning och loggning av osäkra utdata
Människa-i-loopen och arbetsflödesansatser
* Var och när man ska införa mänsklig övervakning
* Godkännandeköer, poänggränser och backup-handling
* Förtroendekalibrering och rollen för förklarbarhet
Säkra LLM-applikationer Design Patterns
* Minsta privilegier och sandlågebildning för API-anrop och agenter
* Gränsbegränsning, trafikbegränsning och missbrukshantering
* Robust länkning med LangChain och prompt-isolering
Kompatibilitet, loggning och Gostyrning
* Säkerställa granskbarhet av LLM-utdata
* Upprätthålla spårbarhet och prompt/versionskontroll
* Anpassning till interna säkerhetspolicys och regelverk
Sammanfattning och nästa steg
Krav
- En förståelse för stora språkmodeller och gränssnitt baserade på promptar
- Erfarenhet av att bygga LLM-applikationer med hjälp av Python
- Kännedom om API-integrationer och molnbaserade distributioner
Målgrupp
- AI-utvecklare
- Applikations- och lösningsarkitekter
- Tekniska produktchefer som arbetar med LLM-verktyg
14 timmar