Kursplan

Introduktion

Det här avsnittet ger en allmän introduktion av när man ska använda "maskininlärning", vad man bör tänka på och vad det innebär, inklusive för- och nackdelar. Datatyper (strukturerade/ostrukturerade/statiska/strömmade), datavaliditet/volym, datadriven vs användardriven analys, statistiska modeller vs. maskininlärningsmodeller/ utmaningar med oövervakad inlärning, avvägning av bias-varians, iteration/utvärdering, korsvalideringsmetoder , övervakad/obevakad/förstärkning.

HUVUDÄMNEN

1. Förstå naiva Bayes

  • Grundläggande begrepp för Bayesianska metoder
  • Sannolikhet
  • Gemensam sannolikhet
  • Betingad sannolikhet med Bayes sats
  • Den naiva Bayes-algoritmen
  • Den naiva Bayes-klassificeringen
  • Laplace estimator
  • Använder numeriska funktioner med naiva Bayes

2. Förstå beslutsträd

  • Söndra och erövra
  • C5.0 beslutsträdsalgoritmen
  • Att välja den bästa uppdelningen
  • Beskärning av beslutsträdet

3. Förstå neurala nätverk

  • Från biologiska till artificiella neuroner
  • Aktiveringsfunktioner
  • Nätverks topologi
  • Antalet lager
  • Riktningen för informationsfärden
  • Antalet noder i varje lager
  • Träning av neurala nätverk med backpropagation
  • Deep Learning

4. Förstå Support Vector Machines

  • Klassificering med hyperplan
  • Hitta den maximala marginalen
  • Fallet med linjärt separerbara data
  • Fallet med icke-linjärt separerbara data
  • Använder kärnor för icke-linjära mellanslag

5. Förstå klustring

  • Clustering som en maskininlärningsuppgift
  • K-medelalgoritmen för klustring
  • Använder avstånd för att tilldela och uppdatera kluster
  • Att välja lämpligt antal kluster

6. Mätning av prestanda för klassificering

  • Arbeta med klassificeringsförutsägelsedata
  • En närmare titt på förvirringsmatriser
  • Använda förvirringsmatriser för att mäta prestanda
  • Utöver noggrannhet – andra mått på prestanda
  • Kappa-statistiken
  • Känslighet och specificitet
  • Precision och återkallelse
  • F-måttet
  • Visualisera prestandaavvägningar
  • ROC-kurvor
  • Uppskattning av framtida prestanda
  • Holdout-metoden
  • Korsvalidering
  • Bootstrap provtagning

7. Trimma lagermodeller för bättre prestanda

  • Använder caret för automatisk parameterinställning
  • Skapa en enkel trimmad modell
  • Anpassa inställningsprocessen
  • Förbättra modellprestanda med meta-inlärning
  • Förstå ensembler
  • Säckväv
  • Boostning
  • Slumpmässiga skogar
  • Träning av slumpmässiga skogar
  • Utvärdera slumpmässig skogprestanda

MINDRE ÄMNEN

8. Förstå klassificering med hjälp av närmaste grannar

  • kNN-algoritmen
  • Beräknar avstånd
  • Att välja en lämplig k
  • Förbereder data för användning med kNN
  • Varför är kNN-algoritmen lat?

9. Förstå klassificeringsregler

  • Separera och erövra
  • The One Rule-algoritmen
  • RIPPER-algoritmen
  • Regler från beslutsträd

10. Förstå regression

  • Enkel linjär regression
  • Vanlig minsta kvadratuppskattning
  • Korrelationer
  • Multipel linjär regression

11. Förstå regressionsträd och modellträd

  • Lägga till regression till träd

12. Förstå föreningens regler

  • Apriori-algoritmen för inlärning av associationsregel
  • Att mäta regelintresse – stöd och förtroende
  • Att bygga en uppsättning regler med Apriori-principen

Extrafunktioner

  • Spark/PySpark/MLlib och flerarmade banditer
  21 timmar
 

Antal deltagare


Starts

Ends


Dates are subject to availability and take place between 09:30 and 16:30.
Open Training Courses require 5+ participants.

Vittnesmål (5)

Relaterade Kurser

Relaterade Kategorier