Kursplan

Introduktion till DeepSeek LLM Fintuning

  • Översikt över DeepSeek modeller, t.ex. DeepSeek-R1 och DeepSeek-V3
  • Förståelse av behovet av fintuning av LLMs
  • Jämförelse av fintuning vs. prompt engineering

Förberedelse av Dataset för Fintuning

  • Sortering av domänspecifika dataset
  • Tekniker för databehandling och rensning
  • Tokenisering och formatering av dataset för DeepSeek LLM

Inställning av Miljö för Fintuning

  • Konfiguration av GPU och TPU acceleration
  • Inställning av Hugging Face Transformers med DeepSeek LLM
  • Förståelse av hyperparametrar för fintuning

Fintuning av DeepSeek LLM

  • Implementering av övervakad fintuning
  • Användning av LoRA (Low-Rank Adaptation) och PEFT (Parameter-Efficient Fine-Tuning)
  • Körning av distribuerad fintuning för stora dataset

Utvärdering och Optimering av Fintunade Modeller

  • Bedömning av modellprestanda med utvärderingsmetriker
  • Hantering av överanpassning och underanpassning
  • Optimering av inferenshastighet och modellens effektivitet

Distribution av Fintunade DeepSeek Modeller

  • Förpackning av modeller för API-distribution
  • Integration av fintunade modeller i applikationer
  • Skalning av distributioner med moln och kantberäkning

Verkliga Användningsfall och Applikationer

  • Fintunade LLMs för finans, hälsovård och kundsupport
  • Fallstudier av industrianvändningar
  • Etiska överväganden i domänspecifika AI-modeller

Sammanfattning och Nästa Steg

Krav

  • Erfarenhet av maskininlärnings- och djupinlärningsramverk
  • Bekantskap med transformers och stora språkmodeller (LLMs)
  • Förståelse för databearbetning och modellträningsmetoder

Målgrupp

  • AI-forskare som utforskar LLM-finjustering
  • Maskininlärningsingenjörer som utvecklar anpassade AI-modeller
  • Avancerade utvecklare som implementerar AI-drivna lösningar
 21 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier