Tack för att du skickade din fråga! En av våra teammedlemmar kontaktar dig snart.
Tack för att du skickade din bokning! En av våra teammedlemmar kontaktar dig snart.
Kursplan
Grundläggande i Säker Lokal AI
- Vad lokal och on-prem AI betyder i reglerade miljöer
- Molnbaserad AI versus intern distribution för känsliga arbetsbelastningar
- Vanliga företagsanvändningsfall för privata assistenter och arbetsflödesstöd
- Kärnkomponenter i en säker lokal AI-arkitektur
Grundläggande Ollama och Öppna Modeller
- Hur Ollama passar in i en lokal utvecklingsstack
- Hämta, köra och hantera modeller lokalt
- Välja modeller baserat på storlek, kvalitet, hårdvara och licens
- Matcha modellalternativ med praktiska företagsuppgifter
Förberedelse av On-Prem-miljön
- Värd, arbetsstation och serverförening
- Installera och konfigurera Ollama för lokal inferens
- Använda containrar och interna utvecklingsverktyg
- Verifiera API-åtkomst och grundläggande operativ beredskap
Arbeta Effektivt med Lokala Modeller
- Köra frågor och formatera utdata med systeminstruktioner
- Återanvända mallar för konsekventa företagsuppgifter
- Hantera modellversioner och interna artefakter
- Grundläggande prestandajustering för CPU- och GPU-distributioner
Bygga Praktiska Agentiska Arbetsflöden
- Vad som gör ett arbetsflöde agentiskt i en kontrollerad miljö
- Enkla mönster för planering, verktygsanvändning och svarslöp
- Designa uppgiftscentrerade assistenter för interna åtgärder
- Lägga till mänsklig granskning, fallbäckelogik och felhantering
Privata Hämtningsarbetsflöden
- Grundläggande hämtningsskyddad generation för intern kunskapsåtkomst
- Förbereda dokument för delning, indexering och sökning
- Koppla en lokal vektorlager till en Ollama-baserad applikation
- Förbättra relevans och svarskvalitet med bättre hämtningsmönster
Säkerhets-, Styrnings- och Efterlevnadspraktiker
- Datahanteringsgränser och integritetsaspekter
- Åtkomstkontroll, loggning och granskningsstöd
- Prompt-säkerhet, utdatakontroller och skydd
- Styrningskontroller för reglerade distributioner och drift
Företagsintegrationsmönster
- Exponera lokala AI-funktioner genom interna API:er
- Integrera assistenter med interna applikationer och tjänster
- Stödja assistant, batch- och arbetsflödesautomatiseringsscenarier
- Hålla lösningar inom kontrollerade nätverksgränser
Utvärdering av Lokala AI-Lösningar
- Värdera kvalitet, pålitlighet och konsekvens
- Testa mot företags-, policy- och säkerhetskrav
- Jämföra modellalternativ för specifika företagsuppgifter
- Etablera ett praktiskt förbättringscykelt för interna team
Handpåläggande Implementeringslabb
- Bygga en privat assistant med Ollama och en öppen modell
- Lägga till hämtning över godkända interna dokument
- Introducera enkla agentiska åtgärder och säkerhetskontroller
- Granska distributions-, drifts- och styrningskontroller
Införandeplanering och Nästa Steg
- Granska viktiga design- och distributionsbeslut
- Identifiera vanliga fallgropar i reglerade AI-projekt
- Planera pilotanvändningsfall och intressentjustering
- Definiera en vägkart för säker lokalt AI-införande
Krav
- Grundläggande förståelse av AI-koncept och programutveckling
- Bekantskap med kommandoradsverktyg, containrar eller lokala utvecklingsmiljöer
- Grundläggande skript- eller programmerings erfarenhet
Målgrupp
- Utvecklare och tekniska team som bygger privata AI-lösningar på intern infrastruktur
- Säkerhets-, efterlevnads- och plattformsprofiler som stöder AI i reglerade miljöer
- Tekniska ledare inom finansiella, hälsosjukvårds, regerings- och försvarssektorer som utvärderar on-prem AI-intagandet
21 Timmar