Kursplan

Introduktion till AI-Inferens med Docker

  • Förståelse av AI-inferens arbetsbelastningar
  • Fordelar med containeriserad inferens
  • Distribuerings-scenarier och begränsningar

Bygga AI-Inferens Containrar

  • Välja basavbildningar och ramverk
  • Paketera föruttränade modeller
  • Strukturera inferenskod för containerkörning

Säkra Containeriserade AI-Tjänster

  • Minimera angreppsoverflate för containrar
  • Hantera lösenord och känsliga filer
  • Säkerhetsstrategier för nätverk och API-exponering

Portabla Distribueringsmetoder

  • Optimering av avbildningar för portabilitet
  • Säkerställa förutsägba körningsmiljöer
  • Hantera beroenden över plattformar

Lokal Distribuering och Testning

  • Köra tjänster lokalt med Docker
  • Felsökning av inferenscontainrar
  • Testa prestanda och tillförlitlighet

Distribuering på Servrar och Moln VM:ar

  • Anpassa containrar för fjärrmiljöer
  • Konfigurera säker serveråtkomst
  • Distribuera inferens-API:er på moln VM:ar

Använda Docker Compose för Multi-Service AI-system

  • Orchestrering av inferens med stödkomponenter
  • Hantera miljövariabler och konfigurationer
  • Skala mikrotjänster med Compose

Övervakning och Underhåll av AI-Inferens Tjänster

  • Logg- och observabilitetsmetoder
  • Identifiera problem i inferenspipeliner
  • Uppdatera och versionshantera modeller i produktion

Sammanfattning och Nästa Steg

Krav

  • Förståelse av grundläggande maskininlärningskoncept
  • Erfarenhet av Python eller backend-utveckling
  • Bekantskap med grundläggande containerkoncept

Målgrupp

  • Utvecklare
  • Backend-ingeniörer
  • Teams som distribuerar AI-tjänster
 14 timmar

Antal deltagare


Pris per deltagare

Vittnesmål (5)

Kommande Kurser

Relaterade Kategorier