Kom i kontakt

Kursplan

Grundläggande i Säker Lokal AI

  • Vad lokal och on-prem AI betyder i reglerade miljöer
  • Molnbaserad AI versus intern distribution för känsliga arbetsbelastningar
  • Vanliga företagsanvändningsfall för privata assistenter och arbetsflödesstöd
  • Kärnkomponenter i en säker lokal AI-arkitektur

Grundläggande Ollama och Öppna Modeller

  • Hur Ollama passar in i en lokal utvecklingsstack
  • Hämta, köra och hantera modeller lokalt
  • Välja modeller baserat på storlek, kvalitet, hårdvara och licens
  • Matcha modellalternativ med praktiska företagsuppgifter

Förberedelse av On-Prem-miljön

  • Värd, arbetsstation och serverförening
  • Installera och konfigurera Ollama för lokal inferens
  • Använda containrar och interna utvecklingsverktyg
  • Verifiera API-åtkomst och grundläggande operativ beredskap

Arbeta Effektivt med Lokala Modeller

  • Köra frågor och formatera utdata med systeminstruktioner
  • Återanvända mallar för konsekventa företagsuppgifter
  • Hantera modellversioner och interna artefakter
  • Grundläggande prestandajustering för CPU- och GPU-distributioner

Bygga Praktiska Agentiska Arbetsflöden

  • Vad som gör ett arbetsflöde agentiskt i en kontrollerad miljö
  • Enkla mönster för planering, verktygsanvändning och svarslöp
  • Designa uppgiftscentrerade assistenter för interna åtgärder
  • Lägga till mänsklig granskning, fallbäckelogik och felhantering

Privata Hämtningsarbetsflöden

  • Grundläggande hämtningsskyddad generation för intern kunskapsåtkomst
  • Förbereda dokument för delning, indexering och sökning
  • Koppla en lokal vektorlager till en Ollama-baserad applikation
  • Förbättra relevans och svarskvalitet med bättre hämtningsmönster

Säkerhets-, Styrnings- och Efterlevnadspraktiker

  • Datahanteringsgränser och integritetsaspekter
  • Åtkomstkontroll, loggning och granskningsstöd
  • Prompt-säkerhet, utdatakontroller och skydd
  • Styrningskontroller för reglerade distributioner och drift

Företagsintegrationsmönster

  • Exponera lokala AI-funktioner genom interna API:er
  • Integrera assistenter med interna applikationer och tjänster
  • Stödja assistant, batch- och arbetsflödesautomatiseringsscenarier
  • Hålla lösningar inom kontrollerade nätverksgränser

Utvärdering av Lokala AI-Lösningar

  • Värdera kvalitet, pålitlighet och konsekvens
  • Testa mot företags-, policy- och säkerhetskrav
  • Jämföra modellalternativ för specifika företagsuppgifter
  • Etablera ett praktiskt förbättringscykelt för interna team

Handpåläggande Implementeringslabb

  • Bygga en privat assistant med Ollama och en öppen modell
  • Lägga till hämtning över godkända interna dokument
  • Introducera enkla agentiska åtgärder och säkerhetskontroller
  • Granska distributions-, drifts- och styrningskontroller

Införandeplanering och Nästa Steg

  • Granska viktiga design- och distributionsbeslut
  • Identifiera vanliga fallgropar i reglerade AI-projekt
  • Planera pilotanvändningsfall och intressentjustering
  • Definiera en vägkart för säker lokalt AI-införande

Krav

  • Grundläggande förståelse av AI-koncept och programutveckling
  • Bekantskap med kommandoradsverktyg, containrar eller lokala utvecklingsmiljöer
  • Grundläggande skript- eller programmerings erfarenhet

Målgrupp

  • Utvecklare och tekniska team som bygger privata AI-lösningar på intern infrastruktur
  • Säkerhets-, efterlevnads- och plattformsprofiler som stöder AI i reglerade miljöer
  • Tekniska ledare inom finansiella, hälsosjukvårds, regerings- och försvarssektorer som utvärderar on-prem AI-intagandet
 21 Timmar

Antal deltagare


Pris per deltagare

Kommande Kurser

Relaterade Kategorier