Performance Optimization on Ascend, Biren, and Cambricon Träningskurs
Ascend, Biren och Cambricon är ledande AI-hårdvaruplattformar i Kina, var och en erbjuder unika accelerations- och profileringverktyg för AI-arbetsbelastningar i produktionsskala.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till AI-infrastruktur- och prestandaingenjörer på avancerad nivå som vill optimera modellinferens och träning av arbetsflöden över flera kinesiska AI-chipplattformar.
Vid slutet av denna träning kommer deltagarna att kunna:
- Bänkpröva modeller på Ascend, Biren och Cambricon-plattformar.
- Identifiera systemflaskhalsar och minnes-/beräkningsineffektivitet.
- Tillämpa optimeringar på grafnivå, kärnelnivå och operatörsnivå.
- Justerar distributionspipelines för att förbättra genomströmning och latens.
Format för kursen
- Interaktiv föreläsning och diskussion.
- Pratisk användning av profilering- och optimeringverktyg på varje plattform.
- Guiderade övningar fokuserade på praktiska justeringsscenarier.
Kursanpassningsalternativ
- För att begära en anpassad träning för denna kurs baserat på din prestandamiljö eller modelltyp, vänligen kontakta oss för att arrangera.
Kursplan
Prestanda Begrepp och Mått
- Latens, genomströmning, strömförbrukning, resursutnyttjande
- System- vs modellnivåflaskhalsar
- Profilering för inferens vs träningsdata
Profilering på Huawei Ascend
- Användning av CANN Profiler och MindInsight
- Kernel- och operatordiagnostik
- Offloadmönster och minneskartläggning
Profilering på Biren GPU
- Prestandamätningsegenskaper för Biren SDK
- Kernelfusion, minnesutligning och körköer
- Profilering med medvetenhet om effekt och temperatur
Profilering på Cambricon MLU
- Prestandaverktyg för BANGPy och Neuware
- Kernelnivåsynlighet och loggtolkning
- Integration av MLU-profiler med distribueringsramverk
Optimering på graf- och modellnivå
- Strategier för gallring och kvantisering av grafer
- Operatorfusion och omstrukturering av beräkningsgrafer
- Standardisering av inmatningsstorlek och batchjustering
Minne- och Kerneloptimering
- Optimering av minneslayout och omvändning
- Effektiv buffertadministration över chipset
- Kernelnivåjusteringstekniker per plattform
Bästa Praktiker för Flera Plattformar
- Prestandaportabilitet: abstraktionsstrategier
- Byggande av gemensamma justeringspipelines för miljöer med flera chip
- Exempel: justering av en objektdetektionsmodell över Ascend, Biren och MLU
Sammanfattning och Nästa Steg
Krav
- Erfarenhet av arbete med AI-modelltränings- eller distributionspipelines
- Förståelse för GPU/MLU-beräkningsprinciper och modelloptimering
- Grundläggande bekantskap med prestandaprofileringverktyg och mätvärden
Målgrupp
- Prestandaingenerjörer
- Maskininlärningsinfrastukturteam
- AI-systemarkitekter
Open Training Courses require 5+ participants.
Performance Optimization on Ascend, Biren, and Cambricon Träningskurs - Booking
Performance Optimization on Ascend, Biren, and Cambricon Träningskurs - Enquiry
Performance Optimization on Ascend, Biren, and Cambricon - Consultancy Enquiry
Consultancy Enquiry
Upcoming Courses
Relaterade Kurser
Developing AI Applications with Huawei Ascend and CANN
21 timmarHuawei Ascend är en familj av AI-processorer designade för högpresterande inferens och träning.
Denna instruktörsledda, live-träning (online eller på plats) riktar sig till AI-ingenjörer och datavetare på mellan-nivå som vill utveckla och optimera neurala nätverksmodeller med hjälp av Huaweis Ascend-plattform och CANN-verktygssamlingen.
Efter avslutad träning kommer deltagarna att kunna:
- Installera och konfigurera CANN-utvecklingsmiljön.
- Utveckla AI-applikationer med hjälp av MindSpore och CloudMatrix arbetsflöden.
- Optimera prestanda på Ascend NPUs med hjälp av anpassade operatörer och kacheminde.
- Distribuera modeller till kant- eller molnmiljöer.
Kursens Format
- Interaktiv föreläsning och diskussion.
- Pratisk användning av Huawei Ascend och CANN-verktygssamlingen i exempelapplikationer.
- Vägledda övningar fokuserade på modellbyggande, träning och distribution.
Alternativ för Anpassning av Kurs
- För att begära en anpassad träning för den här kursen baserat på din infrastruktur eller datamängder, kontakta oss för att arrangera.
Deploying AI Models with CANN and Ascend AI Processors
14 timmarCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 timmarCloudMatrix är Huaweis enhetliga AI-utvecklings- och distribueringsplattform som är utformad för att stödja skalbara, produktionsvärdiga inferenspipelines.
Denna instruktörsledda, levande utbildning (online eller på plats) riktar sig till AI-professionella på nybörjarnivå till mellannivå som vill distribuera och övervaka AI-modeller med hjälp av CloudMatrix-plattformen med CANN- och MindSpore-integrering.
Vid utbildningens slut kommer deltagarna att kunna:
- Använda CloudMatrix för modellpaketering, distribution och leverans.
- Konvertera och optimera modeller för Ascend-chipset.
- Ställa in pipelines för realtids- och batchinferensuppgifter.
- Övervaka distributioner och justera prestanda i produktionsmiljöer.
Kursformat
- Interaktiv föreläsning och diskussion.
- Praktisk användning av CloudMatrix med verkliga distributionsscenarier.
- Ledda övningar som fokuserar på konvertering, optimering och skalning.
Anpassningsalternativ för kursen
- För att begära en anpassad utbildning för denna kurs baserat på din AI-infrastruktur eller molnmiljö, kontakta oss för att ordna.
GPU Programming on Biren AI Accelerators
21 timmarBiren AI Accelerators är högpresterande GPUs designade för AI- och HPC-arbetsbelastningar med stöd för stora skaliga tränings- och inferensprocesser.
Denna instruktörsledda, levande utbildning (online eller på plats) riktar sig till utvecklare på mellan- till avancerad nivå som vill programmera och optimera applikationer med hjälp av Birens proprietära GPU stack, med praktiska jämförelser med CUDA-baserade miljöer.
Efter avslutad utbildning kommer deltagarna att kunna:
- Förstå Biren GPU arkitektur och minneshierarki.
- Konfigurera utvecklingsmiljön och använda Birens programmeringsmodell.
- Översätta och optimera CUDA-stilkod för Biren-plattformar.
- Tillämpa prestandajustering och felsökningsmetoder.
Kursformat
- Interaktiv föreläsning och diskussion.
- Hands-on användning av Biren SDK i exempel GPU arbetsbelastningar.
- Gudda övningar inriktade på portering och prestandajustering.
Anpassningsalternativ för kursen
- För att begära en anpassad utbildning för denna kurs baserad på din applikationsstack eller integrationsbehov, vänligen kontakta oss för att boka.
Cambricon MLU Development with BANGPy and Neuware
21 timmarCambricon MLUs (Machine Learning Enheter) är specialiserade AI-kretsar optimerade för inferens och träning i kanten och datacenter-scenarier.
Denna instruktörsledda, liveutbildning (online eller på plats) riktar sig till utvecklare på mellannivå som vill bygga och distribuera AI-modeller med hjälp av BANGPy-ramverket och Neuware SDK på Cambricon MLU-hårdvara.
Vid utbildningens slut kommer deltagarna att kunna:
- Installera och konfigurera BANGPy- och Neuware-utvecklingsmiljöer.
- Utveckla och optimera Python- och C++-baserade modeller för Cambricon MLUs.
- Distribuera modeller till kants- och datacenter-enheter som kör Neuware-runtime.
- Integrera ML-arbetsflöden med MLU-specifika accelerationsegenskaper.
Kursens format
- Interaktiv föreläsning och diskussion.
- Hands-on användning av BANGPy och Neuware för utveckling och distribution.
- Ledda övningar med fokus på optimering, integration och testning.
Alternativ för kursanpassning
- För att begära en anpassad utbildning för denna kurs baserat på din Cambricon-enhetsmodell eller användningsfall, vänligen kontakta oss för att ordna.
Introduction to CANN for AI Framework Developers
7 timmarCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 timmarHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 timmarHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 timmarCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 timmarThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 timmarCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 timmarKinesiska GPU-arkitekturer såsom Huawei Ascend, Biren och Cambricon MLUs erbjuder CUDA-alternativ som är anpassade för lokala AI- och HPC-marknader.
Denna ledarledda, levande utbildning (online eller på plats) riktar sig till avancerade GPU-programmerare och infrastrukturspecialister som vill migrera och optimera befintliga CUDA-applikationer för distribution på kinesiska hårdvaruplattformar.
Vid utbildningens slut kommer deltagarna kunna:
- Utvärdera kompatibiliteten hos befintliga CUDA-arbetsbelastningar med kinesiska chip-alternativ.
- Porta CUDA-kodbaser till Huawei CANN-, Biren SDK- och Cambricon BANGPy-miljöer.
- Jämföra prestanda och identifiera optimeringspunkter över plattformarna.
- Hantera praktiska utmaningar i stöd för och distribution över arkitekturer.
Kursens form
- Interaktiv föreläsning och diskussion.
- Praktiska övningar för kodöversättning och prestandajämförelse.
- Ledda övningar inriktade på strategier för anpassning till flera GPU.
Alternativ för kursanpassning
- För att be om en anpassad utbildning för denna kurs baserat på din plattform eller CUDA-projekt, kontakta oss för att ordna.