Thank you for sending your enquiry! One of our team member will contact you shortly.
Thank you for sending your booking! One of our team member will contact you shortly.
Kursplan
1. Förstå klassificering med hjälp av närmaste grannar
- kNN-algoritmen
- Beräknar avstånd
- Att välja ett lämpligt k
- Förbereder data för användning med kNN
- Varför är kNN-algoritmen lat?
2. Förstå naiva Bayes
- Grundläggande begrepp för Bayesianska metoder
- Sannolikhet
- Gemensam sannolikhet
- Betingad sannolikhet med Bayes sats
- Den naiva Bayes-algoritmen
- Den naiva Bayes-klassificeringen
- Laplace estimator
- Använder numeriska funktioner med naiva Bayes
3. Förstå beslutsträd
- Söndra och erövra
- C5.0 beslutsträdsalgoritmen
- Att välja den bästa uppdelningen
- Beskärning av beslutsträdet
4. Förstå klassificeringsregler
- Separera och erövra
- The One Rule-algoritmen
- RIPPER-algoritmen
- Regler från beslutsträd
5. Förstå regression
- Enkel linjär regression
- Vanlig minsta kvadratuppskattning
- Korrelationer
- Multipel linjär regression
6. Förstå regressionsträd och modellträd
- Lägga till regression till träd
7. Förstå neurala nätverk
- Från biologiska till artificiella neuroner
- Aktiveringsfunktioner
- Nätverks topologi
- Antalet lager
- Riktningen för informationsfärden
- Antalet noder i varje lager
- Träning av neurala nätverk med backpropagation
8. Förstå Support Vector Machines
- Klassificering med hyperplan
- Hitta den maximala marginalen
- Fallet med linjärt separerbara data
- Fallet med icke-linjärt separerbara data
- Använder kärnor för icke-linjära mellanslag
9. Förstå föreningens regler
- Apriori-algoritmen för inlärning av associationsregel
- Att mäta regelintresse – stöd och förtroende
- Att bygga en uppsättning regler med Apriori-principen
10. Förstå klustring
- Clustering som en maskininlärningsuppgift
- K-medelalgoritmen för klustring
- Använder avstånd för att tilldela och uppdatera kluster
- Att välja lämpligt antal kluster
11. Mätning av prestanda för klassificering
- Arbeta med klassificeringsförutsägelsedata
- En närmare titt på förvirringsmatriser
- Använda förvirringsmatriser för att mäta prestanda
- Utöver noggrannhet – andra mått på prestanda
- Kappa-statistiken
- Sensitivitet och specificitet
- Precision och återkallelse
- F-måttet
- Visualisera prestandaavvägningar
- ROC-kurvor
- Uppskattning av framtida prestanda
- Holdout-metoden
- Korsvalidering
- Bootstrap provtagning
12. Trimma lagermodeller för bättre prestanda
- Använder caret för automatisk parameterinställning
- Skapa en enkel trimmad modell
- Anpassa inställningsprocessen
- Förbättra modellprestanda med meta-inlärning
- Förstå ensembler
- Säckväv
- Boostning
- Slumpmässiga skogar
- Träning av slumpmässiga skogar
- Utvärdera slumpmässig skogprestanda
13. Deep Learning
- Tre klasser av Deep Learning
- Djupa autokodare
- Förtränad djup Neural Networks
- Deep Stacking Networks
14. Diskussion av specifika tillämpningsområden
21 timmar
Vittnesmål (1)
Very flexible