Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduktion till DeepSeek LLM Fintuning
- Översikt över DeepSeek modeller, t.ex. DeepSeek-R1 och DeepSeek-V3
- Förståelse av behovet av fintuning av LLMs
- Jämförelse av fintuning vs. prompt engineering
Förberedelse av Dataset för Fintuning
- Sortering av domänspecifika dataset
- Tekniker för databehandling och rensning
- Tokenisering och formatering av dataset för DeepSeek LLM
Inställning av Miljö för Fintuning
- Konfiguration av GPU och TPU acceleration
- Inställning av Hugging Face Transformers med DeepSeek LLM
- Förståelse av hyperparametrar för fintuning
Fintuning av DeepSeek LLM
- Implementering av övervakad fintuning
- Användning av LoRA (Low-Rank Adaptation) och PEFT (Parameter-Efficient Fine-Tuning)
- Körning av distribuerad fintuning för stora dataset
Utvärdering och Optimering av Fintunade Modeller
- Bedömning av modellprestanda med utvärderingsmetriker
- Hantering av överanpassning och underanpassning
- Optimering av inferenshastighet och modellens effektivitet
Distribution av Fintunade DeepSeek Modeller
- Förpackning av modeller för API-distribution
- Integration av fintunade modeller i applikationer
- Skalning av distributioner med moln och kantberäkning
Verkliga Användningsfall och Applikationer
- Fintunade LLMs för finans, hälsovård och kundsupport
- Fallstudier av industrianvändningar
- Etiska överväganden i domänspecifika AI-modeller
Sammanfattning och Nästa Steg
Krav
- Erfarenhet av maskininlärnings- och djupinlärningsramverk
- Bekantskap med transformers och stora språkmodeller (LLMs)
- Förståelse för databearbetning och modellträningsmetoder
Målgrupp
- AI-forskare som utforskar LLM-finjustering
- Maskininlärningsingenjörer som utvecklar anpassade AI-modeller
- Avancerade utvecklare som implementerar AI-drivna lösningar
21 timmar