Kursplan

Översikt över LLM-arkitektur och angreppsytor* Hur LLMs byggs, distribueras och åtkomst via APIer* Nyckelkomponenter i LLM-applikationsstackar (t.ex. prompts, agenter, minne, APIer)* Var och hur säkerhetsproblem uppstår i verkliga användningsområdenPrompt-injektion och jailbreak-attacker* Vad är prompt-injektion och varför det är farligt* Direkta och indirekta prompt-injektionsscenarier* Tekniker för att kringgå säkerhetsfilter* Detektering och åtgärdsstrategierDataläckage och integritetsrisker* Oavsiktlig dataläcka genom svar* Läckage av personuppgifter och missbruk av modellminne* Designa integritetsskyddade prompts och hämtning-förstärkt generation (RAG)LLM-utdatafiltrering och bevakning* Användning av Guardrails AI för innehållsfiltrering och validering* Definiera utdataskemor och begränsningar* Övervakning och loggning av osäkra utdataMänniska-i-loopen och arbetsflödesansatser* Var och när man ska införa mänsklig övervakning* Godkännandeköer, poänggränser och backup-handling* Förtroendekalibrering och rollen för förklarbarhetSäkra LLM-applikationer Design Patterns* Minsta privilegier och sandlågebildning för API-anrop och agenter* Gränsbegränsning, trafikbegränsning och missbrukshantering* Robust länkning med LangChain och prompt-isoleringKompatibilitet, loggning och Gostyrning* Säkerställa granskbarhet av LLM-utdata* Upprätthålla spårbarhet och prompt/versionskontroll* Anpassning till interna säkerhetspolicys och regelverkSammanfattning och nästa steg

Krav

  • En förståelse för stora språkmodeller och gränssnitt baserade på promptar
  • Erfarenhet av att bygga LLM-applikationer med hjälp av Python
  • Kännedom om API-integrationer och molnbaserade distributioner

Målgrupp

  • AI-utvecklare
  • Applikations- och lösningsarkitekter
  • Tekniska produktchefer som arbetar med LLM-verktyg
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier