Kursplan

Introduktion till GPU-drivna containerisering

  • Förstå användningen av GPU i djupinlärningsarbetsflöden
  • Hur Docker stöder GPU-baserade arbetsbelastningar
  • Nyckel prestandaaspekter

Installation och konfiguration av NVIDIA Container Toolkit

  • Konfigurera drivrutiner och CUDA-kompatibilitet
  • Validera GPU-åtkomst i containers
  • Konfigurera körningsmiljön

Bygga GPU-drivna Docker-images

  • Använda CUDA-basbilder
  • Paketera AI-ramverk i GPU-rediga containers
  • Hantera beroenden för tränings- och inferensuppgifter

Köra GPU-drivna AI-arbetsbelastningar

  • Körning av träningsjobb med hjälp av GPU
  • Hantera flera GPU-arbetsbelastningar
  • Övervaka GPU-användning

Optimering av prestanda och resursallokering

  • Begränsa och isolera GPU-resurser
  • Optimering av minne, batchstorlekar och enhetsplacering
  • Prestandatuning och diagnostik

Containeriserad inferens och modellservering

  • Bygga inferensklara containers
  • Servera högbelastade arbetsbelastningar på GPU
  • Integrera modellkörningsprogram och API:er

Skalning av GPU-arbetsbelastningar med Docker

  • Strategier för distribuerad GPU-träning
  • Skala inferens-microservices
  • Koordinera flera containeriserade AI-system

Säkerhet och tillförlitlighet för GPU-drivna containers

  • Säkerställa säker GPU-åtkomst i delade miljöer
  • Förstärka containerbilder
  • Hantera uppdateringar, versioner och kompatibilitet

Sammanfattning och nästa steg

Krav

  • En förståelse för grundläggande djupinlärningsprinciper
  • Erfarenhet av Python och vanliga AI-ramverk
  • Kännedom om grundläggande containeriseringstechniker

Målgrupp

  • Djupinlärningsingenjörer
  • Utvecklings- och forskningsteam
  • AI-modellutbildare
 21 timmar

Antal deltagare


Pris per deltagare

Vittnesmål (5)

Kommande Kurser

Relaterade Kategorier