Kursplan

Introduktion

Det här avsnittet ger en allmän introduktion av när man ska använda "maskininlärning", vad man bör tänka på och vad det innebär, inklusive för- och nackdelar. Datatyper (strukturerade/ostrukturerade/statiska/strömmade), datavaliditet/volym, datadriven vs användardriven analys, statistiska modeller vs. maskininlärningsmodeller/ utmaningar med oövervakad inlärning, avvägning av bias-varians, iteration/utvärdering, korsvalideringsmetoder , övervakad/obevakad/förstärkning.

HUVUDÄMNEN

1. Förstå naiva Bayes

  • Grundläggande begrepp inom Bayes-metoder
  • Sannolikhet
  • Sambandssannolikhet
  • Betingad sannolikhet med Bayes' sats
  • Naiva Bayes-algoritmen
  • Naiva Bayes-klassificering
  • Laplace-estimat
  • Användning av numeriska egenskaper med naiva Bayes

2. Förstå beslutsträd

  • Dela och härska
  • C5.0-beslutsträdsalgoritmen
  • Att välja den bästa uppdelningen
  • Beskärning av beslutsträd

3. Förstå neurala nätverk

  • Från biologiska till artificiella neuroner
  • Aktiveringsfunktioner
  • Nätverkstopologi
  • Antal lager
  • Informationsflödets riktning
  • Antal noder i varje lager
  • Träning av neurala nätverk med backpropagation
  • Deep Learning

4. Förstå Support Vector Machines

  • Klassificering med hyperplan
  • Att hitta den största marginalen
  • Fallet med linjärt separerbara data
  • Fallet med icke-linjärt separerbara data
  • Användning av kärnor för icke-linjära rum

5. Förstå klustring

  • Klustring som en maskininlärningsuppgift
  • K-means-algoritmen för klustring
  • Användning av avstånd för att tilldela och uppdatera kluster
  • Att välja rätt antal kluster

6. Mätning av prestanda för klassificering

  • Arbete med klassificeringsprognosdata
  • En närmare titt på förvirringsmatriser
  • Användning av förvirringsmatriser för att mäta prestanda
  • Utöver noggrannhet – andra prestandamått
  • Kappa-statistiken
  • Känslighet och specifitet
  • Precision och recall
  • F-måttet
  • Visualisering av prestandahandelser
  • ROC-kurvor
  • Uppskattning av framtida prestanda
  • Holdout-metoden
  • Korsvalidering
  • Bootstrap sampling

7. Trimma lagermodeller för bättre prestanda

  • Användning av caret för automatisk parameterinställning
  • Skapande av en enkel inställd modell
  • Anpassning av inställningsprocessen
  • Förbättring av modellprestanda med meta-lärande
  • Förståelse för ensembles
  • Bagging
  • Boosting
  • Slumpmässiga skogar
  • Träning av slumpmässiga skogar
  • Utvärdering av prestanda för slumpmässiga skogar

MINDRE ÄMNEN

8. Förstå klassificering med hjälp av närmaste grannar

  • kNN-algoritmen
  • Beräkning av avstånd
  • Val av lämpligt k
  • Förberedelse av data för användning med kNN
  • Varför är kNN-algoritmen lat?

9. Förstå klassificeringsregler

  • Dela och härska
  • One Rule-algoritmen
  • RIPPER-algoritmen
  • Regler från beslutsträd

10. Förstå regression

  • Enkel linjär regression
  • Ordinary least squares estimation
  • Korrelationer
  • Multipel linjär regression

11. Förstå regressionsträd och modellträd

  • Lägga till regression till träd

12. Förstå föreningens regler

  • Apriori-algoritmen för regelbaserat lärande
  • Mätning av regelintesse – stöd och säkerhet
  • Byggande av en uppsättning regler med Apriori-principen

Extrafunktioner

  • Spark/PySpark/MLlib och Multi-armed bandits

Krav

Python Kunskap

 21 timmar

Antal deltagare


Price per participant

Vittnesmål (7)

Upcoming Courses

Relaterade Kategorier