Kursplan
Introduktion
Förstå grunderna för heterogen beräkningsmetodik
Varför Parallell Computing? Förstå behovet av parallell beräkning
Flerkärniga processorer - arkitektur och design
Introduktion till trådar, trådgrunder och grundläggande begrepp för parallella Programming
Förstå grunderna i GPU Mjukvaruoptimeringsprocesser
OpenMP - En standard för direktivbaserad parallell Programming
Hands on / Demonstration av olika program på flerkärniga maskiner
Introduktion till GPU Computing
GPUs för Parallell Computing
GPU:er Programming Modell
Hands on / demonstration av olika program på GPU
SDK, verktygslåda och installation av miljö för GPU
Arbeta med olika bibliotek
Demonstration av GPU och verktyg med exempelprogram och OpenACC
Förstå CUDA-modellen Programming
Lär dig CUDA-arkitekturen
Utforska och ställa in CUDAs utvecklingsmiljöer
Arbetar med CUDA Runtime API
Förstå CUDA-minnesmodellen
Utforska ytterligare CUDA API-funktioner
AccessGlobalt minne effektivt i CUDA: Global Memory Optimization
Optimera dataöverföringar i CUDA med hjälp av CUDA-strömmar
Använda delat minne i CUDA
Förstå och använda Atomic Operations and Instructions i CUDA
Fallstudie: Grundläggande digital bildbehandling med CUDA
Arbeta med multi-GPU Programming
Avancerad hårdvaruprofilering och sampling på NVIDIA / CUDA
Använder CUDA Dynamic Parallelism API för Dynamic Kernel Launch
Sammanfattning och slutsats
Krav
- C Programming
- Linux GCC
Vittnesmål (1)
Tränarnas energi och humor.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Kurs - NVIDIA GPU Programming - Extended
Machine Translated