Kursplan

Introduktion till Open-Source LLMs

  • Vad är open-weight modeller och varför de är viktiga
  • Översikt över LLaMA, Mistral, Qwen och andra gemenskapsmodeller
  • Användningsområden för privata, lokala eller säkra distribueringar

Inställning av Miljö och Verktyg

  • Installation och konfiguration av Transformers, Datasets och PEFT-bibliotek
  • Val av lämplig hårdvara för finjustering
  • Laddning av förtränade modeller från Hugging Face eller andra repository

Dataförberedelse och Förbehandling

  • Datasetformat (instruktionsjustering, chattdata, textendast)
  • Tokenisering och sekvenshantering
  • Skapande av anpassade dataset och dataladdare

Fine-Tuning Tekniker

  • Standard full finjustering vs. parameter-effektiva metoder
  • Tillämpning av LoRA och QLoRA för effektiv finjustering
  • Användning av Trainer API för snabb experimentering

Modellutvärdering och Optimering

  • Bedömning av finjusterade modeller med generering och noggrannhetsmått
  • Hantering av överanpassning, generalisering och valideringsuppsättningar
  • Tips för prestandajustering och loggning

Distribuering och Privat Användning

  • Sparing och laddning av modeller för inferens
  • Distribuering av finjusterade modeller i säkra företagsmiljöer
  • Strategier för lokal vs. molndistribuering

Case Studies och Use Caseer

  • Exempel på företagsanvändning av LLaMA, Mistral och Qwen
  • Hantering av flerspråkig och domänspecifik finjustering
  • Diskussion: Kompromisser mellan öppna och stängda modeller

Sammanfattning och Nästa Steg

Krav

  • Förståelse för stora språklig modeller (LLMs) och deras arkitektur
  • Erfarenhet med Python och PyTorch
  • Grundläggande kännedom om Hugging Face ekosystemet

Målgrupp

  • ML-praktiker
  • AI-utvecklare
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier