Kursplan

Introduktion

Förstå grunderna för heterogen beräkningsmetodik

Varför Parallell Computing? Förstå behovet av parallell beräkning

Flerkärniga processorer - arkitektur och design

Introduktion till trådar, trådgrunder och grundläggande begrepp för parallella Programming

Förstå grunderna i GPU Mjukvaruoptimeringsprocesser

OpenMP - En standard för direktivbaserad parallell Programming

Hands on / Demonstration av olika program på flerkärniga maskiner

Introduktion till GPU Computing

GPUs för Parallell Computing

GPU:er Programming Modell

Hands on / demonstration av olika program på GPU

SDK, verktygslåda och installation av miljö för GPU

Arbeta med olika bibliotek

Demonstration av GPU och verktyg med exempelprogram och OpenACC

Förstå CUDA-modellen Programming

Lär dig CUDA-arkitekturen

Utforska och ställa in CUDAs utvecklingsmiljöer

Arbetar med CUDA Runtime API

Förstå CUDA-minnesmodellen

Utforska ytterligare CUDA API-funktioner

AccessGlobalt minne effektivt i CUDA: Global Memory Optimization

Optimera dataöverföringar i CUDA med hjälp av CUDA-strömmar

Använda delat minne i CUDA

Förstå och använda Atomic Operations and Instructions i CUDA

Fallstudie: Grundläggande digital bildbehandling med CUDA

Arbeta med multi-GPU Programming

Avancerad hårdvaruprofilering och sampling på NVIDIA / CUDA

Använder CUDA Dynamic Parallelism API för Dynamic Kernel Launch

Sammanfattning och slutsats

Krav

  • C Programming
  • Linux GCC
 21 timmar

Antal deltagare



Price per participant

Vittnesmål (1)

Relaterade Kategorier