Kursplan

Introduktion

  • Artificiella neurala nätverk kontra beslutsträdbaserade algoritmer

Översikt över XGBoost-funktioner

  • Elements av en Gradient Boosting-algoritm
  • Fokusera på beräkningshastighet och modellprestanda
  • XGBoost vs Logistic Regression, Random Forest och standard Gradient Boosting

Utvecklingen av trädbaserade algoritmer

  • Beslutsträd, Bagging, Random Forest, Boosting, Gradient Boosting
  • Systemoptimering
  • Algoritmiska förbättringar

Att förbereda miljön

  • Installerar SciPy och scikit-learn

Skapa en XGBoost-modell

  • Ladda ner en datamängd
  • Att lösa ett vanligt klassificeringsproblem
  • Utbildning av XGBoost-modellen för klassificering
  • Lös en vanlig regressionsuppgift

Övervakning av prestanda

  • Utvärdera och rapportera prestanda
  • Tidig stopp

Plotta funktioner efter betydelse

  • Beräknar egenskapens betydelse
  • Besluta vilka indatavariabler som ska behållas eller kasseras

Konfigurera Gradient Boosting

  • Granska inlärningskurvorna för utbildnings- och valideringsdatauppsättningar
  • Justera inlärningshastigheten
  • Justering av antalet träd

Inställning av hyperparameter

  • Förbättra prestandan hos en XGBoost-modell
  • Designa ett kontrollerat experiment för att ställa in hyperparametrar
  • Searchkombinationer av parametrar

Skapa en pipeline

  • Inkorporerar en XGBoost-modell i en komplett maskininlärningspipeline
  • Justera hyperparametrar inom pipeline
  • Avancerade förbearbetningstekniker

Felsökning

Sammanfattning och slutsats

Krav

  • Erfarenhet av att skriva maskininlärningsmodeller

Publik

  • Dataforskare
  • Maskininlärningsingenjörer
  14 timmar
 

Antal deltagare


Starts

Ends


Dates are subject to availability and take place between 09:30 and 16:30.
Open Training Courses require 5+ participants.

Relaterade Kurser

Relaterade Kategorier