Kursplan

Översikt över LLM-arkitektur och angreppsytor * Hur LLMs byggs, distribueras och åtkomst via APIer * Nyckelkomponenter i LLM-applikationsstackar (t.ex. prompts, agenter, minne, APIer) * Var och hur säkerhetsproblem uppstår i verkliga användningsområden Prompt-injektion och jailbreak-attacker * Vad är prompt-injektion och varför det är farligt * Direkta och indirekta prompt-injektionsscenarier * Tekniker för att kringgå säkerhetsfilter * Detektering och åtgärdsstrategier Dataläckage och integritetsrisker * Oavsiktlig dataläcka genom svar * Läckage av personuppgifter och missbruk av modellminne * Designa integritetsskyddade prompts och hämtning-förstärkt generation (RAG) LLM-utdatafiltrering och bevakning * Användning av Guardrails AI för innehållsfiltrering och validering * Definiera utdataskemor och begränsningar * Övervakning och loggning av osäkra utdata Människa-i-loopen och arbetsflödesansatser * Var och när man ska införa mänsklig övervakning * Godkännandeköer, poänggränser och backup-handling * Förtroendekalibrering och rollen för förklarbarhet Säkra LLM-applikationer Design Patterns * Minsta privilegier och sandlågebildning för API-anrop och agenter * Gränsbegränsning, trafikbegränsning och missbrukshantering * Robust länkning med LangChain och prompt-isolering Kompatibilitet, loggning och Gostyrning * Säkerställa granskbarhet av LLM-utdata * Upprätthålla spårbarhet och prompt/versionskontroll * Anpassning till interna säkerhetspolicys och regelverk Sammanfattning och nästa steg

Krav

  • En förståelse för stora språkmodeller och gränssnitt baserade på promptar
  • Erfarenhet av att bygga LLM-applikationer med hjälp av Python
  • Kännedom om API-integrationer och molnbaserade distributioner

Målgrupp

  • AI-utvecklare
  • Applikations- och lösningsarkitekter
  • Tekniska produktchefer som arbetar med LLM-verktyg
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier