Kursplan

Introduktion till Large Language Models (LLMs)

  • Översikt över LLM:er
  • Definition och betydelse
  • Tillämpningar inom AI idag

Transformatorns arkitektur

  • Vad är en transformator och hur fungerar den?
  • Huvudkomponenter och funktioner
  • Inbäddning och positionskodning
  • Uppmärksamhet med flera huvuden
  • Feed-forward neuralt nätverk
  • Normalisering och restanslutningar

Transformator-modeller

  • Mekanism för självuppmärksamhet
  • Arkitektur för kodare-avkodare
  • Positionella inbäddningar
  • BERT (Dubbelriktade kodarrepresentationer från Transformers)
  • GPT (Generativ förtränad transformator)

Prestandaoptimering och fallgropar

  • Kontextens längd
  • Mamba och modeller i statsrymden
  • Blixt uppmärksamhet
  • Glesa transformatorer
  • Transformatorer för visioner
  • Vikten av kvantisering

Förbättra transformatorer

  • Hämtning av förstärkt textgenerering
  • Blandning av modeller
  • Tankens träd

Finjustering

  • Teori om lågrankad anpassning
  • Finjustering med QLora

Skalningslagar och optimering i LLM:er

  • Vikten av skalningslagar för LLM:er
  • Skalning av data- och modellstorlek
  • Beräkningsmässig skalning
  • Skalning av parametereffektivitet

Optimering

  • Relation mellan modellstorlek, datastorlek, beräkningsbudget och inferenskrav
  • Optimera prestanda och effektivitet för LLM:er
  • Bästa praxis och verktyg för utbildning och finjustering av LLM:er

Utbildning och finjustering av LLM:er

  • Steg och utmaningar för att utbilda LLM:er från grunden
  • Datainsamling och underhåll
  • Storskaliga data-, CPU- och minneskrav
  • Utmaningar med optimering
  • Landskap av LLM:er med öppen källkod

Grunderna i Reinforcement Learning (RL)

  • Introduktion till Reinforcement Learning
  • Lärande genom positiv förstärkning
  • Definition och centrala begrepp
  • Markovs beslutsprocess (MDP)
  • Dynamisk programmering
  • Monte Carlo-metoder
  • Inlärning av temporala skillnader

Djup Reinforcement Learning

  • Djupa Q-nätverk (DQN)
  • Proximal principoptimering (PPO)
  • Elements av Reinforcement Learning

Integrering av LLM och Reinforcement Learning

  • Kombinera LLM:er med Reinforcement Learning
  • Hur RL används i LLM:er
  • Reinforcement Learning med mänsklig återkoppling (RLHF)
  • Alternativ till RLHF

Fallstudier och tillämpningar

  • Verkliga tillämpningar
  • Framgångshistorier och utmaningar

Avancerade ämnen

  • Avancerade tekniker
  • Avancerade optimeringsmetoder
  • Spjutspetsforskning och utveckling

Sammanfattning och nästa steg

Krav

  • Grundläggande förståelse för Machine Learning

Publik

  • Datavetare
  • Mjukvaruingenjörer
 21 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier