GPU-programmering med OpenACC Träningskurs
OpenACC är en öppen standard för heterogen programmering som möjliggör att kod kan köras på olika plattformar och enheter, som flerkärniga CPUs, GPUs, FPGAs och andra.
Denna instruktörsledda, liveutbildning (online eller på orten) är riktad till utvecklare med nybörjarnivå till mellannivå som vill använda OpenACC för att programmera heterogena enheter och utnyttja deras parallellism.
Till slut av denna utbildning kommer deltagarna kunna:
- Ställa in ett OpenACC-utvecklingsmiljö.
- Skriva och köra en grundläggande OpenACC-program.
- Annotera kod med OpenACC-direktiv och klausuler.
- Använda OpenACC-API och bibliotek.
- Profilerar, felsöka och optimera OpenACC-program.
Kursformat
- Interaktiv föreläsning och diskussion.
- Många övningar och praktik.
- Praktisk implementation i en live-labbmiljö.
Kursanpassningsalternativ
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
Kursplan
Första Steg
- Vad är OpenACC?
- OpenACC vs OpenCL vs CUDA vs SYCL
- Översikt över OpenACC-funktioner och arkitektur
- Ställa in utvecklingsmiljön
Komma igång
- Skapa ett OpenACC-projekt i Visual Studio Code
- Utforska projektstruktur och filer
- Kompilera och köra programmet
- Visa utdata med printf och fprintf
OpenACC-direktiv och klausuler
- Förstå OpenACC-direktiv och klausuler
- Använd parallella direktiv för att skapa parallella regioner
- Använd kernel-direktiv för kompileringsstyrd parallellism
- Använd loopdirektiv för att parallellisera loopar
- Hantera dataöverföring med datadirektiv
- Synkronisera data med uppdateringsdirektiv
- Förbättra dataåteranvändning med cacheklausuler
- Skapa enhetsfunktioner med rutindirektiv
- Synkronisera händelser med väntedirektiv
OpenACC-API
- Förstå rollen av OpenACC-API
- Fråga enhetsinformation och kapaciteter
- Ange enhetens nummer och typ
- Hantera fel och undantag
- Skapa och synkronisera händelser
OpenACC-bibliotek och interoperabilitet
- Förstå OpenACC-bibliotek och interoperabilitet
- Använda matematiska, slumpade och komplexa bibliotek
- Tillämpa med andra modeller (CUDA, OpenMP, MPI)
- Tillämpa med GPU-bibliotek (cuBLAS, cuFFT)
OpenACC-verktyg
- Förstå OpenACC-verktyg i utveckling
- Profilerar och felsöka OpenACC-program
- Prestandaanalys med PGI-kompilator, NVIDIA Nsight Systems, Allinea Forge
Optimering
- Faktorer som påverkar OpenACC-programs prestanda
- Optimera datalokalitet och minskar överföringar
- Optimera loopparallellism och fusionering
- Optimera kärnparallellism och fusionering
- Optimera vektorisering och automatisk justering
Sammanfattning och nästa steg
Krav
- Ett förståelse för C/C++ eller Fortran-språk och parallella programmeringskoncept
- Grundläggande kunskap om datorarkitektur och minneshierarkin
- Erfarenhet av kommandoradverktyg och kodredigerare
Målgrupp
- Utvecklare som vill lära sig hur man använder OpenACC för att programmera heterogena enheter och utnyttja deras parallellism
- Utvecklare som vill skriva portabel och skalbar kod som kan köras på olika plattformar och enheter
- Programmerare som vill utforska de högnivåaspekterna av heterogen programmering och optimera sin kodproduktivitet
Öppna Utbildningskurser kräver 5+ deltagare.
GPU-programmering med OpenACC Träningskurs - Bokning
GPU-programmering med OpenACC Träningskurs - Fråga
GPU-programmering med OpenACC - Konsultfråga
Konsultfråga
Kommande Kurser
Relaterade Kurser
Utveckla AI-applikationer med Huawei Ascend och CANN
21 timmarHuawei Ascend är en familj av AI-processorer som är utformade för högpresterande inferens och träning.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till AI-ingenjörer och datavetare på mellannivå som vill utveckla och optimera neurala nätverksmodeller med hjälp av Huaweis Ascend-plattform och CANN verktygslåda.
I slutet av denna träning kommer deltagarna att kunna:
- Konfigurera och installera CANN utvecklingsmiljön.
- Utveckla AI-applikationer med hjälp av MindSpore och CloudMatrix arbetsflöden.
- Optimera prestanda på Ascend NPUer med anpassade operatörer och tiling.
- Distribuera modeller till kanten eller molnmiljöer.
Format för kursen
- Interaktiv föreläsning och diskussion.
- Praktisk användning av Huawei Ascend och CANN verktygslåda i exempelapplikationer.
- Guidad övningar som fokuserar på modellbyggnad, träning och distribution.
Alternativ för anpassning av kursen
- För att begära en anpassad träning för denna kurs baserat på din infrastruktur eller datauppsättningar, kontakta oss för att boka.
Innan AI-modeller med CANN och Ascend AI-processorer
14 timmarCANN (Compute Architecture for Neural Networks) är Huaweis AI-beräkningsstack för att distribuera och optimera AI-modeller på Ascend AI-processorer.
Denna instruktörsledda, live-utbildning (online eller på plats) riktar sig till AI-utvecklare och ingenjörer på mellan-nivå som vill distribuera tränade AI-modeller effektivt till Huawei Ascend-hårdvara med hjälp av CANN-verktygslådan och verktyg som MindSpore, TensorFlow, eller PyTorch.
Vid utbildningens slut kommer deltagarna att kunna:
- Förstå CANN-arkitekturen och dess roll i AI-distributionspipelinen.
- Konvertera och anpassa modeller från populära ramverk till Ascend-kompatibla format.
- Använda verktyg som ATC, OM modellkonvertering och MindSpore för kant- och molninferens.
- Diagnostisera distributionsproblem och optimera prestanda på Ascend-hårdvara.
Utbildningens format
- Interaktiv föreläsning och demonstration.
- Hands-on laboratoriearbete med CANN-verktyg och Ascend-simulatorer eller enheter.
- Praktiska distributionsscenarier baserade på verkliga AI-modeller.
Alternativ för anpassning av utbildningen
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att boka.
GPU Programming på Biren AI Accelerators
21 timmarBiren AI-acceleratorer är höghastighetsenheter som är utformade för AI- och HPC-lastar med stöd för storskalig träning och inferens.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till utvecklare på mellan- till avancerad nivå som vill programmera och optimera applikationer med hjälp av Birens egna GPU-stack, med praktiska jämförelser med CUDA-baserade miljöer.
Vid slutet av denna träning kommer deltagarna att kunna:
- Förstå Birens GPU-arkitektur och minneshierarki.
- Konfigurera utvecklingsmiljön och använda Birens programmeringsmodell.
- Översätta och optimera CUDA-stilkod för Biren-plattformar.
- Tillämpa prestandajusterings- och felsökningsmetoder.
Kursens format
- Interaktiv föreläsning och diskussion.
- Praktisk användning av Birens SDK i exempellastar för GPU.
- Guidade övningar som fokuserar på portning och prestandajustering.
Alternativ för anpassning av kursen
- För att begära en anpassad träning för denna kurs baserat på dina applikationsstack eller integrationsbehov, kontakta oss för att ordna.
Cambricon MLU Development with BANGPy and Neuware
21 timmarCambricon MLUs (Machine Learning Enheter) är specialiserade AI-kretsar optimerade för inferens och träning i kanten och datacenter-scenarier.
Denna instruktörsledda, liveutbildning (online eller på plats) riktar sig till utvecklare på mellannivå som vill bygga och distribuera AI-modeller med hjälp av BANGPy-ramverket och Neuware SDK på Cambricon MLU-hårdvara.
Vid utbildningens slut kommer deltagarna att kunna:
- Installera och konfigurera BANGPy- och Neuware-utvecklingsmiljöer.
- Utveckla och optimera Python- och C++-baserade modeller för Cambricon MLUs.
- Distribuera modeller till kants- och datacenter-enheter som kör Neuware-runtime.
- Integrera ML-arbetsflöden med MLU-specifika accelerationsegenskaper.
Kursens format
- Interaktiv föreläsning och diskussion.
- Hands-on användning av BANGPy och Neuware för utveckling och distribution.
- Ledda övningar med fokus på optimering, integration och testning.
Alternativ för kursanpassning
- För att begära en anpassad utbildning för denna kurs baserat på din Cambricon-enhetsmodell eller användningsfall, vänligen kontakta oss för att ordna.
Introduktion till CANN för AI-ramverksutvecklare
7 timmarCANN (Compute Architecture for Neural Networks) är Huaweis AI-databehandlingsverktygsläda som används för att kompilera, optimerar och distribuera AI-modeller på Ascend AI-processorer.
Denna lärare-ledda, liveutbildning (online eller på plats) riktar sig till nybörjare inom AI-utveckling som vill förstå hur CANN passar in i modellens livscykel från träning till distribution och hur den fungerar med ramverk som MindSpore, TensorFlow och PyTorch.
Vid utbildningens slut kommer deltagarna att kunna:
- Förstå syftet och arkitekturen för CANN verktygsläda.
- Inställ en utvecklingsmiljö med CANN och MindSpore.
- Konvertera och distribuera en enkel AI-modell till Ascend-hårdvara.
- Få grundläggande kunskap för framtida CANN optimering eller integrationsprojekt.
Utbildningens form
- Interaktiv föreläsning och diskussion.
- Händer-på-labb med enkel modelldistribution.
- Steg-för-steg genomgång av CANN verktygskedja och integrationspunkter.
Anpassningsalternativ för utbildningen
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
CANN for Edge AI Deployment
14 timmarHuaweis Ascend CANN-verktygspaket möjliggör kraftfulla AI-inferenser på kant-enheter såsom Ascend 310. CANN erbjuder viktiga verktyg för kompilering, optimering och distribution av modeller där beräkning och minne är begränsade.
Denna instruktörsledda, levande utbildning (online eller på plats) vänder sig till AI-utvecklare och integratörer på mellannivå som vill distribuera och optimera modeller på Ascend kant-enheter med hjälp av CANN-verktygskedjan.
Vid slutet av denna utbildning kommer deltagarna att kunna:
- Förbereda och konvertera AI-modeller för Ascend 310 med hjälp av CANN-verktyg.
- Bygga lättviktsinferenspipeliner med hjälp av MindSpore Lite och AscendCL.
- Optimera modellprestanda för begränsade beräknings- och minnesmiljöer.
- Distribuera och övervaka AI-applikationer i verkliga användningsområden på kanten.
Utbildningsformat
- Interaktiv föreläsning och demonstration.
- Praktiska laborationsarbeten med kant-specifika modeller och scenarier.
- Levande distributionsexempel på virtuell eller fysisk kant-hårdvara.
Alternativ för kursanpassning
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att ordna.
Förståelse av Huaweis AI-bearbetningsstack: Från CANN till MindSpore
14 timmarHuaweis AI-stack — från det lågnivå CANN SDK till den högnivå MindSpore-ramverket — erbjuder en sammanhållen AI-utvecklings- och distribueringsmiljö som är optimerad för Ascend-hårdvara.
Denna instruktörsledda liveutbildning (online eller på plats) vänder sig till tekniska yrkesverksamma på nybörjar- till mellanivå som vill förstå hur CANN- och MindSpore-komponenterna samarbetar för att stödja AI-livscykelhantering och infrastrukturbeslut.
I slutet av denna utbildning kommer deltagarna att kunna:
- Förstå den lagrade arkitekturen i Huaweis AI-bearbetningsstack.
- Identifiera hur CANN stöder modelloptimering och distribuering på hårdvarunivå.
- Utvärdera MindSpore-ramverket och verktygslänken i relation till industriella alternativ.
- Placera Huaweis AI-stack inom företags- eller moln/lokala miljöer.
Kursformat
- Interaktiv föreläsning och diskussion.
- Live systemdemonstrationer och fallbaserade genomgångar.
- Valfria guidade labbar för modellflöde från MindSpore till CANN.
Kursanpassningsalternativ
- För att begära en anpassad utbildning för denna kurs, kontakta oss för att ordna.
Optimering av neurala nätverksprestanda med CANN SDK
14 timmarCANN SDK (Compute Architecture for Neural Networks) är Huawei’s AI-beregningsgrundsplatta som möjliggör för utvecklare att finjustera och optimera prestandan på distribuerade neuronnätverk på Ascend AI-processorer.
Denna instruktörsledda, live-träning (online eller på plats) riktas till avancerad nivå AI-utvecklare och systemingenjörer som önskar optimera inferensprestanda med hjälp av CANN:s avancerade verktygsskap, inklusive Graph Engine, TIK och utveckling av anpassade operatorer.
Genom denna träning kommer deltagarna att kunna:
- Förstå CANNs körningsarkitektur och prestandacykel.
- Använda profileringsverktyg och Graph Engine för prestandaanalys och -optimering.
- Skapa och optimera anpassade operatorer med TIK och TVM.
- Lösa minnesflaskehalsar och förbättra modellens genomströmning.
Kursformat
- Interaktiv föreläsning och diskussion.
- Hands-on laborationer med realtidsprofilering och operatoranpassning.
- Optimeringsövningar med exempel på kantfalldeployment.
Kursanpassningsalternativ
- För att begära en anpassad träning för denna kurs, kontakta oss för att ordna det.
SDK för Ascend och NLP-pipelines
14 timmarCANN SDK (Compute Architecture for Neural Networks) erbjuder kraftfulla verktyg för distribution och optimering av AI-applikationer i realtid för datorseende och NLP, särskilt på Huawei Ascend-hårdvaran.
Denna instruktörsledda liveutbildning (online eller på plats) riktar sig till AI-praktiker på mellan nivå som vill bygga, distribuera och optimera datorseende- och språkmodeller med hjälp av CANN SDK för produktionsanvändningsfall.
Vid kursens slut kommer deltagarna att kunna:
- Distribuera och optimera datorseende- och NLP-modeller med CANN och AscendCL.
- Använda CANN verktyg för att konvertera modeller och integrera dem i levande pipeline.
- Optimera inferensprestanda för uppgifter som detektion, klassificering och känsloanalys.
- Bygga datorseende/NLP-pipelines i realtid för distributionsscenarier i kant eller moln.
Kursformat
- Interaktiv föreläsning och demonstration.
- Praktiska laboratorier med modelldistribution och prestandaprofilering.
- Live-pipelinekonstruktion med verkliga datorseende- och NLP-användningsfall.
Anpassningsalternativ för kursen
- För att begära en anpassad utbildning för denna kurs, vänligen kontakta oss för att arrangera.
Skapa anpassade AI-operatörer med CANN TIK och TVM
14 timmarCANN TIK (Tensor Instruction Kernel) och Apache TVM möjliggör avancerad optimerings- och anpassningsprocess för AI-modelloperatörer för Huawei Ascend hårdvara.
Denna instruktörsledda liveutbildning (online eller på plats) riktar sig till avancerade systemutvecklare som vill bygga, distribuera och justera anpassade operatörer för AI-modeller med hjälp av CANN’s TIK-programmeringsmodell och TVM-kompilatorintegrering.
Efter avslutad utbildning kommer deltagarna att kunna:
- Skriva och testa anpassade AI-operatörer med hjälp av TIK DSL för Ascend-processorer.
- Integrera anpassade operatörer i CANN körningstid och körningsgraf.
- Använda TVM för operatörsplanering, automatisk inställning och mätning.
- Felsöka och optimeras instruktionsnivåprestanda för anpassade beräkningsmönster.
Utbildningsformat
- Interaktiv föreläsning och demonstration.
- Praktiska kodövningar för operatörer med TIK och TVM-pipelines.
- Testning och justering på Ascend-hårdvara eller simulatorer.
Valmöjligheter för kursanpassning
- För att begära en anpassad utbildning för denna kurs, kontakta oss för att arrangera.
Migrating CUDA Applications to Chinese GPU Architectures
21 timmarKinesiska GPU-arkitekturer såsom Huawei Ascend, Biren och Cambricon MLUs erbjuder CUDA-alternativ som är anpassade för lokala AI- och HPC-marknader.
Denna ledarledda, levande utbildning (online eller på plats) riktar sig till avancerade GPU-programmerare och infrastrukturspecialister som vill migrera och optimera befintliga CUDA-applikationer för distribution på kinesiska hårdvaruplattformar.
Vid utbildningens slut kommer deltagarna kunna:
- Utvärdera kompatibiliteten hos befintliga CUDA-arbetsbelastningar med kinesiska chip-alternativ.
- Porta CUDA-kodbaser till Huawei CANN-, Biren SDK- och Cambricon BANGPy-miljöer.
- Jämföra prestanda och identifiera optimeringspunkter över plattformarna.
- Hantera praktiska utmaningar i stöd för och distribution över arkitekturer.
Kursens form
- Interaktiv föreläsning och diskussion.
- Praktiska övningar för kodöversättning och prestandajämförelse.
- Ledda övningar inriktade på strategier för anpassning till flera GPU.
Alternativ för kursanpassning
- För att be om en anpassad utbildning för denna kurs baserat på din plattform eller CUDA-projekt, kontakta oss för att ordna.
Performance Optimization on Ascend, Biren, and Cambricon
21 timmarAscend, Biren och Cambricon är ledande AI-hårdvaruplattformar i Kina, var och en erbjuder unika accelerations- och profileringverktyg för AI-arbetsbelastningar i produktionsskala.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till AI-infrastruktur- och prestandaingenjörer på avancerad nivå som vill optimera modellinferens och träning av arbetsflöden över flera kinesiska AI-chipplattformar.
Vid slutet av denna träning kommer deltagarna att kunna:
- Bänkpröva modeller på Ascend, Biren och Cambricon-plattformar.
- Identifiera systemflaskhalsar och minnes-/beräkningsineffektivitet.
- Tillämpa optimeringar på grafnivå, kärnelnivå och operatörsnivå.
- Justerar distributionspipelines för att förbättra genomströmning och latens.
Format för kursen
- Interaktiv föreläsning och diskussion.
- Pratisk användning av profilering- och optimeringverktyg på varje plattform.
- Guiderade övningar fokuserade på praktiska justeringsscenarier.
Kursanpassningsalternativ
- För att begära en anpassad träning för denna kurs baserat på din prestandamiljö eller modelltyp, vänligen kontakta oss för att arrangera.