Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kursplan
Införandet
- Artificiella neurala nätverk kontra beslutsträdsbaserade algoritmer
Översikt över XGBoost-funktioner
- Elements av en algoritm för gradientförstärkning
- Fokus på beräkningshastighet och modellprestanda
- XGBoost jämfört med logistisk regression, Random Forest och standard gradientförstärkning
Utvecklingen av trädbaserade algoritmer
- Beslutsträd, bagging, Random Forest, boosting, gradient boosting
- Optimering av systemet
- Algoritmiska förbättringar
Att förbereda miljön
- Installera SciPy och scikit-learn
Skapa en XGBoost-modell
- Ladda ned en datauppsättning
- Lösa ett vanligt klassificeringsproblem
- Träna XGBoost-modellen för klassificering
- Lösa en vanlig regressionsuppgift
Övervakning av prestanda
- Utvärdera och rapportera prestanda
- Tidigt stopp
Plotta funktioner efter betydelse
- Beräkna funktionens betydelse
- Bestämma vilka indatavariabler som ska behållas eller kasseras
Konfigurera övertoningsförstärkning
- Granska inlärningskurvorna för datauppsättningar för träning och validering
- Justera inlärningstakten
- Justering av antalet träd
Justering av hyperparametrar
- Förbättra prestanda för en XGBoost-modell
- Utforma ett kontrollerat experiment för att finjustera hyperparametrar
- Söka efter kombinationer av parametrar
Skapa en pipeline
- Införliva en XGBoost-modell i en pipeline för maskininlärning från slutpunkt till slutpunkt
- Justera hyperparametrar i pipelinen
- Avancerade förbehandlingstekniker
Felsökning
Sammanfattning och slutsats
Krav
- Erfarenhet av att skriva maskininlärningsmodeller
Publik
- Datavetare
- Ingenjörer inom maskininlärning
14 timmar