Kursplan

DAG 1 - ARTIFICIELLA NEURALA NÄTVERK

Introduktion och ANN-struktur.

  • Biologiska neuroner och artificiella neuroner.
  • Modell av ett ANN.
  • Aktiveringsfunktioner som används i ANN.
  • Typiska klasser av nätverksarkitekturer .

Mathematical Grunder och inlärningsmekanismer.

  • Återbesök i vektor- och matrisalgebra.
  • Begrepp för tillståndsrum.
  • Begrepp inom optimering.
  • Inlärning av felkorrigering.
  • Minnesbaserad inlärning.
  • Hebbiansk inlärning.
  • Konkurrenskraftigt lärande.

Perceptroner i ett lager.

  • Struktur och inlärning av perceptroner.
  • Mönsterklassificerare - introduktion och Bayes klassificerare.
  • Perceptron som en mönsterklassificerare.
  • Perceptron-konvergens.
  • Begränsningar hos en perceptrons.

Feedforward ANN.

  • Strukturer för feedforward-nätverk med flera lager.
  • Algoritm för bakåtförökning.
  • Ryggförökning - träning och konvergens.
  • Funktionell approximation med bakutbredning.
  • Praktiska och designmässiga frågor om inlärning av ryggförökning.

Nätverk med radiell basfunktion.

  • Mönsterseparerbarhet och interpolation.
  • Teori om regularisering.
  • Regularisering och RBF-nätverk.
  • Utformning och utbildning av RBF-nätverk.
  • Approximationsegenskaper hos RBF.

Konkurrenskraftigt lärande och självorganisering ANN.

  • Allmänna klustringsprocedurer.
  • Kvantisering av inlärningsvektorer (LVQ).
  • Konkurrenskraftiga inlärningsalgoritmer och arkitekturer.
  • Självorganiserande funktionskartor.
  • Egenskaper för funktionskartor.

Suddig Neural Networks.

  • Neuro-fuzzy system.
  • Bakgrund av suddiga mängder och logik.
  • Utformning av luddiga stjälkar.
  • Design av suddiga ANN:er.

Program

  • Några exempel på tillämpningar för neurala nätverk, deras fördelar och problem kommer att diskuteras.

DAG -2 MASKININLÄRNING

  • PAC ramverk för lärande
    • Garantier för ändlig hypotesuppsättning – konsistent kasus
    • Garantier för ändlig hypotesuppsättning – inkonsekvent kasus
    • Allmänt
      • Deterministiskt cv. Stokastiska scenarier
      • Bayes fel brus
      • Skattnings- och approximationsfel
      • Val av modell
  • Radmeacher Komplexitet och VC – Dimension
  • Bias - Variansavvägning
  • Legalisering
  • Övermonterad
  • Validering
  • Stöd Vector Maskiner
  • Kriging (Gaussisk processregression)
  • PCA och Kernel PCA
  • Kartor över självorganisering (SOM)
  • Kärninducerat vektorrum
    • Mercer Kernels och Kernel - inducerade likhetsmått
  • Reinforcement Learning

DAG 3 - DJUPINLÄRNING

Detta kommer att läras ut i förhållande till de ämnen som behandlas på dag 1 och dag 2

  • Logistisk och Softmax-regression
  • Glesa autoencoders
  • Vektorisering, PCA och blekning
  • Självlärd inlärning
  • Djupa nätverk
  • Linjära avkodare
  • Faltning och poolning
  • Gles kodning
  • Oberoende komponentanalys
  • Kanonisk korrelationsanalys
  • Demonstrationer och applikationer

Krav

Good förståelse för matematik.

Good förståelse för grundläggande statistik.

Grundläggande programmeringskunskaper krävs inte men rekommenderas.

 21 timmar

Antal deltagare


Price per participant

Vittnesmål (2)

Upcoming Courses

Relaterade Kategorier