Kursplan

DAG 1 - ARTIFICIAL NEURAL NÄTVERK

Introduktion och ANN-struktur.

    Biologiska neuroner och artificiella neuroner. Modell av en ANN. Aktiveringsfunktioner som används i ANN. Typiska klasser av nätverksarkitekturer.

Mathematical Grunder och inlärningsmekanismer.

    Återbesök vektor och matrisalgebra. State-space koncept. Koncept för optimering. Felkorrigeringsinlärning. Minnesbaserad inlärning. Hebbisk lärande. Konkurrenskraftigt lärande.

Enkelskiktsperceptroner.

    Struktur och inlärning av perceptroner. Mönsterklassificerare - introduktion och Bayes klassificerare. Perceptron som mönsterklassificerare. Perceptronkonvergens. Begränsningar för en perceptron.

Feedback ANN.

    Strukturer för flerlagers feedforward-nätverk. Algoritm för återförökning. Ryggförökning - träning och konvergens. Funktionell approximation med ryggutbredning. Praktiska och designmässiga frågor om ryggförökningsinlärning.

Radiella basfunktionsnätverk.

    Mönster separerbarhet och interpolation. Regulariseringsteori. Regularisering och RBF-nätverk. RBF nätverksdesign och utbildning. Approximationsegenskaper hos RBF.

Konkurrenskraftigt lärande och självorganiserande ANN.

    Allmänna klustringsprocedurer. Lär dig vektorkvantisering (LVQ). Konkurrenskraftiga inlärningsalgoritmer och arkitekturer. Självorganiserande funktionskartor. Egenskaper för funktionskartor.

Luddigt Neural Networks.

    Neuro-fuzzy system. Bakgrund av luddiga uppsättningar och logik. Design av luddiga stjälkar. Design av fuzzy ANNs.

Ansökningar

    Några exempel på neurala nätverkstillämpningar, deras fördelar och problem kommer att diskuteras.

DAG -2 MASKINLÄRNING

    PAC Learning Framework-garantier för finita hypotesuppsättning – konsekventa fall Garanteringar för finita hypotesuppsättning – inkonsekventa fall Generaliteter Deterministisk cv. Stokastiska scenarier Bayes felbrus Uppskattnings- och approximationsfel Modellval
Radmeacher Complexity och VC – DimensionBias - Variansavvägning
  • Regularisering
  • Överanpassning
  • Godkännande
  • Stöd Vector Machines
  • Kriging (Gaussisk processregression)
  • PCA och Kernel PCA
  • Självorganisationskartor (SOM)
  • Kärninducerat vektorutrymme Mercer Kernels och Kernel - inducerade likhetsmått
  • Reinforcement Learning
  • DAG 3 - DJUPLÄRANDE
  • Detta kommer att läras ut i relation till de ämnen som behandlas på dag 1 och dag 2
  • Logistik och Softmax Regression Sparse Autoencoders Vektorisering, PCA och Whitening Självlärd Inlärning Deep Networks Linjära avkodare Konvolution och Pooling Sparse Coding Oberoende komponentanalys Kanonisk korrelationsanalys Demos och applikationer
  • Krav

    God förståelse för matematik.

    Good förståelse för grundläggande statistik.

    Grundläggande programmeringskunskaper krävs inte men rekommenderas.

     21 timmar

    Antal deltagare



    Price per participant

    Vittnesmål (2)

    Relaterade Kategorier