Kursplan

Införandet

  • Artificiella neurala nätverk kontra beslutsträdsbaserade algoritmer

Översikt över XGBoost-funktioner

  • Elements av en algoritm för gradientförstärkning
  • Fokus på beräkningshastighet och modellprestanda
  • XGBoost jämfört med logistisk regression, Random Forest och standard gradientförstärkning

Utvecklingen av trädbaserade algoritmer

  • Beslutsträd, bagging, Random Forest, boosting, gradient boosting
  • Optimering av systemet
  • Algoritmiska förbättringar

Att förbereda miljön

  • Installera SciPy och scikit-learn

Skapa en XGBoost-modell

  • Ladda ned en datauppsättning
  • Lösa ett vanligt klassificeringsproblem
  • Träna XGBoost-modellen för klassificering
  • Lösa en vanlig regressionsuppgift

Övervakning av prestanda

  • Utvärdera och rapportera prestanda
  • Tidigt stopp

Plotta funktioner efter betydelse

  • Beräkna funktionens betydelse
  • Bestämma vilka indatavariabler som ska behållas eller kasseras

Konfigurera övertoningsförstärkning

  • Granska inlärningskurvorna för datauppsättningar för träning och validering
  • Justera inlärningstakten
  • Justering av antalet träd

Justering av hyperparametrar

  • Förbättra prestanda för en XGBoost-modell
  • Utforma ett kontrollerat experiment för att finjustera hyperparametrar
  • Söka efter kombinationer av parametrar

Skapa en pipeline

  • Införliva en XGBoost-modell i en pipeline för maskininlärning från slutpunkt till slutpunkt
  • Justera hyperparametrar i pipelinen
  • Avancerade förbehandlingstekniker

Felsökning

Sammanfattning och slutsats

Krav

  • Erfarenhet av att skriva maskininlärningsmodeller

Publik

  • Datavetare
  • Ingenjörer inom maskininlärning
 14 timmar

Antal deltagare


Price per participant

Upcoming Courses

Relaterade Kategorier