Kursplan
DAG 1 - ARTIFICIELLA NEURALA NÄTVERK
Introduktion och ANN-struktur.
- Biologiska neuroner och artificiella neuroner.
- Modell av ett ANN.
- Aktiveringsfunktioner som används i ANN.
- Typiska klasser av nätverksarkitekturer .
Mathematical Grunder och inlärningsmekanismer.
- Återbesök i vektor- och matrisalgebra.
- Begrepp för tillståndsrum.
- Begrepp inom optimering.
- Inlärning av felkorrigering.
- Minnesbaserad inlärning.
- Hebbiansk inlärning.
- Konkurrenskraftigt lärande.
Perceptroner i ett lager.
- Struktur och inlärning av perceptroner.
- Mönsterklassificerare - introduktion och Bayes klassificerare.
- Perceptron som en mönsterklassificerare.
- Perceptron-konvergens.
- Begränsningar hos en perceptrons.
Feedforward ANN.
- Strukturer för feedforward-nätverk med flera lager.
- Algoritm för bakåtförökning.
- Ryggförökning - träning och konvergens.
- Funktionell approximation med bakutbredning.
- Praktiska och designmässiga frågor om inlärning av ryggförökning.
Nätverk med radiell basfunktion.
- Mönsterseparerbarhet och interpolation.
- Teori om regularisering.
- Regularisering och RBF-nätverk.
- Utformning och utbildning av RBF-nätverk.
- Approximationsegenskaper hos RBF.
Konkurrenskraftigt lärande och självorganisering ANN.
- Allmänna klustringsprocedurer.
- Kvantisering av inlärningsvektorer (LVQ).
- Konkurrenskraftiga inlärningsalgoritmer och arkitekturer.
- Självorganiserande funktionskartor.
- Egenskaper för funktionskartor.
Suddig Neural Networks.
- Neuro-fuzzy system.
- Bakgrund av suddiga mängder och logik.
- Utformning av luddiga stjälkar.
- Design av suddiga ANN:er.
Program
- Några exempel på tillämpningar för neurala nätverk, deras fördelar och problem kommer att diskuteras.
DAG -2 MASKININLÄRNING
- PAC ramverk för lärande
- Garantier för ändlig hypotesuppsättning – konsistent kasus
- Garantier för ändlig hypotesuppsättning – inkonsekvent kasus
- Allmänt
- Deterministiskt cv. Stokastiska scenarier
- Bayes fel brus
- Skattnings- och approximationsfel
- Val av modell
- Radmeacher Komplexitet och VC – Dimension
- Bias - Variansavvägning
- Legalisering
- Övermonterad
- Validering
- Stöd Vector Maskiner
- Kriging (Gaussisk processregression)
- PCA och Kernel PCA
- Kartor över självorganisering (SOM)
- Kärninducerat vektorrum
- Mercer Kernels och Kernel - inducerade likhetsmått
- Reinforcement Learning
DAG 3 - DJUPINLÄRNING
Detta kommer att läras ut i förhållande till de ämnen som behandlas på dag 1 och dag 2
- Logistisk och Softmax-regression
- Glesa autoencoders
- Vektorisering, PCA och blekning
- Självlärd inlärning
- Djupa nätverk
- Linjära avkodare
- Faltning och poolning
- Gles kodning
- Oberoende komponentanalys
- Kanonisk korrelationsanalys
- Demonstrationer och applikationer
Krav
Good förståelse för matematik.
Good förståelse för grundläggande statistik.
Grundläggande programmeringskunskaper krävs inte men rekommenderas.
Vittnesmål (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Kurs - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.