Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Introduktion
- Artificiella neurala nätverk kontra beslutsträdbaserade algoritmer
Översikt över XGBoost-funktioner
- Elements av en Gradient Boosting-algoritm
- Fokusera på beräkningshastighet och modellprestanda
- XGBoost vs Logistic Regression, Random Forest och standard Gradient Boosting
Utvecklingen av trädbaserade algoritmer
- Beslutsträd, Bagging, Random Forest, Boosting, Gradient Boosting
- Systemoptimering
- Algoritmiska förbättringar
Att förbereda miljön
- Installerar SciPy och scikit-learn
Skapa en XGBoost-modell
- Ladda ner en datamängd
- Att lösa ett vanligt klassificeringsproblem
- Utbildning av XGBoost-modellen för klassificering
- Lös en vanlig regressionsuppgift
Övervakning av prestanda
- Utvärdera och rapportera prestanda
- Tidig stopp
Plotta funktioner efter betydelse
- Beräknar egenskapens betydelse
- Besluta vilka indatavariabler som ska behållas eller kasseras
Konfigurera Gradient Boosting
- Granska inlärningskurvorna för utbildnings- och valideringsdatauppsättningar
- Justera inlärningshastigheten
- Justering av antalet träd
Inställning av hyperparameter
- Förbättra prestandan hos en XGBoost-modell
- Designa ett kontrollerat experiment för att ställa in hyperparametrar
- Searchkombinationer av parametrar
Skapa en pipeline
- Inkorporerar en XGBoost-modell i en komplett maskininlärningspipeline
- Justera hyperparametrar inom pipeline
- Avancerade förbearbetningstekniker
Felsökning
Sammanfattning och slutsats
Krav
- Erfarenhet av att skriva maskininlärningsmodeller
Publik
- Dataforskare
- Maskininlärningsingenjörer
14 timmar