Kursplan

Grundläggande för hybrid AI-distribution

  • Förståelse av hybrid, moln och gränsdistributionsmodeller
  • Karaktäristik för AI-arbetsbelastningar och infrastrukturkrav
  • Val av lämplig distributionsarkitektur

Containerisering av AI-arbetsbelastningar med Docker

  • Bygga GPU- och CPU-inferenscontainrar
  • Hantering av säkra bilder och register
  • Implementering av återproducerbara miljöer för AI

Distribuera AI-tjänster till molnmiljöer

  • Köra inferens på AWS, Azure och GCP via Docker
  • Provisionering av molnberäkning för modellservering
  • Säkerhet för molnbaserade AI-slutpunkter

Gräns- och lokala distributionsmetoder

  • Köra AI på IoT-enheter, gateways och mikroservrar
  • Lätta körningsmiljöer för gränsmiljöer
  • Hantering av intervallbunden anslutning och lokalt lagring

Hybridnätverk och säker anslutning

  • Säkert tunnelbana mellan gräns och moln
  • Certifikat, hemligheter och tokenbaserad åtkomst
  • Prestandajustering för låg-latens inferens

Orchestrering av distribuerade AI-distributioner

  • Använda K3s, K8s eller lätta orchestrationsverktyg för hybridsetup
  • Tjänstdiscovery och arbetsbelastningsplanering
  • Automatisering av flerortsrullutstrategier

Övervakning och synlighet över miljöer

  • Spårning av inferensprestanda över olika platser
  • Centraliserad loggning för hybrid AI-system
  • Felupptäckt och automatiserat återställning

Skalning och optimering av hybrid AI-system

  • Skalning av gränskluster och molnnoder
  • Optimering av bandbreddsanvändning och cachelagring
  • Balansering av beräkningsbelastningar mellan moln och gräns

Sammanfattning och nästa steg

Krav

  • Förståelse för containeriseringsteorier
  • Erfarenhet av Linux-kommandoradsoperationer
  • Bekantskap med AI-modelldeployarbetssätt

Målgrupp

  • Infrastrukturarkitekter
  • Site Reliability Engineers (SREs)
  • Gräns- och IoT-utvecklare
 21 timmar

Antal deltagare


Pris per deltagare

Vittnesmål (5)

Kommande Kurser

Relaterade Kategorier