Kursplan

Översikt över LLM-arkitektur och angreppsyta

  • Hur LLMs byggs, distribueras och åtkommas via API:er
  • Nyckelkomponenter i LLM-app-stacks (t.ex., prompts, agenter, minne, API:er)
  • Var och hur säkerhetsproblem uppstår i praktisk användning

Prompt-injektion och jailbreak-attacker

  • Vad är prompt-injektion och varför det är farligt
  • Direkta och indirekta prompt-injektionsscenarier
  • Tekniker för jailbreaking för att omgå säkerhetsfilter
  • Detektering och åtgärdstrategier

Dataläckage och integritetsrisker

  • Oavsiktlig dataexponering genom svar
  • Läckor av PII och missbruk av modellminne
  • Design av integritetskänsliga prompts och retrieval-augmented generation (RAG)

Filtering och skydd av LLM-utdata

  • Användning av Guardrails AI för innehållsfiltering och validering
  • Definiering av utgångsscheman och begränsningar
  • Övervakning och loggning av osäkra utdata

Människan-i-loopen och arbetsflödesmetoder

  • Var och när man ska införa mänsklig övervakning
  • Godkännandeköer, poänggränser och backup-hantering
  • Förtroendekalibrering och rollen för förklarbarhet

Säkra LLM-app-designmönster

  • Lägsta behörighet och sandlådan för API-anrop och agenter
  • Hastighetsbegränsning, tröskelvärden och missbruksdetektering
  • Robust kedjning med LangChain och prompt-isolering

Efterlevnad, loggning och styrning

  • Säkerställa revisionsberedskap för LLM-utdata
  • Behålla spårbarhet och kontroll av prompts/versioner
  • Anpassning till interna säkerhetspolicys och regulatoriska behov

Sammanfattning och nästa steg

Krav

  • En förståelse för stora språkmodeller och gränssnitt baserade på promptar
  • Erfarenhet av att bygga LLM-applikationer med hjälp av Python
  • Kännedom om API-integrationer och molnbaserade distributioner

Målgrupp

  • AI-utvecklare
  • Applikations- och lösningsarkitekter
  • Tekniska produktchefer som arbetar med LLM-verktyg
 14 timmar

Antal deltagare


Pris per deltagare

Kommande Kurser

Relaterade Kategorier