Kursplan

Introduktion till att optimera stora modeller

  • Översikt över stora modellarkitekturer
  • Utmaningar med att finjustera stora modeller
  • Vikten av kostnadseffektiv optimering

Distribuerade träningstekniker

  • Introduktion till data- och modellparallellitet
  • Ramverk för distribuerad träning: PyTorch och TensorFlow
  • Skalning över flera GPUs och noder

Modellkvantisering och beskärning

  • Förstå kvantiseringstekniker
  • Tillämpa beskärning för att minska modellstorleken
  • Avvägningar mellan noggrannhet och effektivitet

Optimering av hårdvara

  • Välja rätt maskinvara för finjusteringsuppgifter
  • Optimera GPU och TPU-användning
  • Använda specialiserade acceleratorer för stora modeller

Effektiv Data Management

  • Strategier för att hantera stora datamängder
  • Förbehandling och batchning för prestanda
  • Tekniker för dataförstoring

Distribuera optimerade modeller

  • Tekniker för att distribuera finjusterade modeller
  • Övervaka och underhålla modellens prestanda
  • Verkliga exempel på optimerad modelldistribution

Avancerade optimeringstekniker

  • Utforska anpassning med låg rang (LoRA)
  • Använda adaptrar för modulär finjustering
  • Framtida trender inom modelloptimering

Sammanfattning och nästa steg

Krav

  • Erfarenhet av ramverk för djupinlärning som PyTorch eller TensorFlow
  • Kännedom om stora språkmodeller och deras tillämpningar
  • Förståelse för distribuerade beräkningskoncept

Publik

  • Ingenjörer inom maskininlärning
  • AI-specialister i molnet
 21 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier