Kursplan

DAG 1 - ARTIFICIELLA NEURALA NÄTVERK

Introduktion och ANN-struktur.

  • Biologiska neuroner och artificiella neuroner.
  • Modell av ett ANN.
  • Aktiveringsfunktioner som används i ANN.
  • Typiska klasser av nätverksarkitekturer .

Mathematical Grunder och inlärningsmekanismer.

  • Återbesök i vektor- och matrisalgebra.
  • Begrepp för tillståndsrum.
  • Begrepp inom optimering.
  • Inlärning av felkorrigering.
  • Minnesbaserad inlärning.
  • Hebbiansk inlärning.
  • Konkurrenskraftigt lärande.

Perceptroner i ett lager.

  • Struktur och inlärning av perceptroner.
  • Mönsterklassificerare - introduktion och Bayes klassificerare.
  • Perceptron som en mönsterklassificerare.
  • Perceptron-konvergens.
  • Begränsningar hos en perceptrons.

Feedforward ANN.

  • Strukturer för feedforward-nätverk med flera lager.
  • Algoritm för bakåtförökning.
  • Ryggförökning - träning och konvergens.
  • Funktionell approximation med bakutbredning.
  • Praktiska och designmässiga frågor om inlärning av ryggförökning.

Nätverk med radiell basfunktion.

  • Mönsterseparerbarhet och interpolation.
  • Teori om regularisering.
  • Regularisering och RBF-nätverk.
  • Utformning och utbildning av RBF-nätverk.
  • Approximationsegenskaper hos RBF.

Konkurrenskraftigt lärande och självorganisering ANN.

  • Allmänna klustringsprocedurer.
  • Kvantisering av inlärningsvektorer (LVQ).
  • Konkurrenskraftiga inlärningsalgoritmer och arkitekturer.
  • Självorganiserande funktionskartor.
  • Egenskaper för funktionskartor.

Suddig Neural Networks.

  • Neuro-fuzzy system.
  • Bakgrund av suddiga mängder och logik.
  • Utformning av luddiga stjälkar.
  • Design av suddiga ANN:er.

Program

  • Några exempel på tillämpningar för neurala nätverk, deras fördelar och problem kommer att diskuteras.

DAG -2 MASKININLÄRNING

  • PAC ramverk för lärande
    • Garantier för ändlig hypotesuppsättning – konsistent kasus
    • Garantier för ändlig hypotesuppsättning – inkonsekvent kasus
    • Allmänt
      • Deterministiskt cv. Stokastiska scenarier
      • Bayes fel brus
      • Skattnings- och approximationsfel
      • Val av modell
  • Radmeacher Komplexitet och VC – Dimension
  • Bias - Variansavvägning
  • Legalisering
  • Övermonterad
  • Validering
  • Stöd Vector Maskiner
  • Kriging (Gaussisk processregression)
  • PCA och Kernel PCA
  • Kartor över självorganisering (SOM)
  • Kärninducerat vektorrum
    • Mercer Kernels och Kernel - inducerade likhetsmått
  • Reinforcement Learning

DAG 3 - DJUPINLÄRNING

Detta kommer att läras ut i förhållande till de ämnen som behandlas på dag 1 och dag 2

  • Logistisk och Softmax-regression
  • Glesa autoencoders
  • Vektorisering, PCA och blekning
  • Självlärd inlärning
  • Djupa nätverk
  • Linjära avkodare
  • Faltning och poolning
  • Gles kodning
  • Oberoende komponentanalys
  • Kanonisk korrelationsanalys
  • Demonstrationer och applikationer

Krav

Good förståelse för matematik.

Good förståelse för grundläggande statistik.

Grundläggande programmeringskunskaper krävs inte men rekommenderas.

 21 timmar

Antal deltagare


Price per participant

Vittnesmål (2)

Upcoming Courses