Kursplan
Modul 1: Kärn-Python för ML-arbetsflöden
• Kursstart och miljöinstallation
Justera mål och sätt upp en reproducerbar Python ML-arbetsyta
• Python-språketens grunder (snabbkurs)
Granska syntax, kontrollflöde, funktioner och mönster som vanligtvis används i ML-kodbasar
• Datatyper för ML
Listor, dictionaries, sets och tuples för egenskaper, etiketter och metadata
• Comprehensions och funktionsverktyg
Uttryck transformationer med comprehensions och högreordade funktioner
• Objektorienterad Python för ML-utvecklare
Klasser, metoder, komposition och praktiska designbeslut
• dataclasses och lättviktsmodellering
Typpålitliga containrar för konfiguration, exempel och resultat
• Dekoratorer och kontexthanterare
Timing, caching, logging och resurs-säkra exekveringsmönster
• Arbete med filer och sökvägar
Robusta datamängdshantering och serialiseringsformat
• Undantag och försvarskodning
Skriva ML-skript som misslyckas säkert och transparent
• Moduler, paket och projektstruktur
Organisera återanvändbara ML-kodbasar
• Typning och kodkvalitet
Typindikationer, dokumentation och linter-vänlig struktur
Modul 2: Numerisk Python, SciPy och datahantering
• NumPy-grunder för vektorisering
Effektiva arrayoperationer och prestanda-vetenskaplig kodning
• Indexering, slicing, broadcasting och former
Säker tensorhantering och formanpassning
• Linjär algebraessenser med NumPy och SciPy
Stabila matrisoperationer och dekompositioner som används i ML
• Djupdykning i SciPy
Statistik, optimering, kurvjustering och glesa matriser
• Pandas för tabellbaserad ML-data
Rensning, sammanfogning, aggregering och förberedande datamängder
• Djupdykning i scikit-learn
Estimator-gränssnitt, pipelines och reproducerbara arbetsflöden
• Visualiseringsessenser
Diagnostiska diagram för datautforskning och modellbeteende
Modul 3: Programmeringsmönster för att bygga ML-applikationer
• Från anteckningsbok till underhållbar projekt
Omförandring av utforskande kod till strukturerade paket
• Konfigurationshantering
Extern parametrisering och startvalidering
• Logging, varningar och övervakning
Strukturerad logging för felsökningsbara ML-system
• Återanvändbara komponenter med OOP och komposition
Design av utvidningsbara transformerare och prediktorer
• Praktiska designmönster
Pipeline, Factory eller Registry, Strategy och Adapter mönster
• Datavalidering och schemakontroller
Förhindra tysta dataproblem
• Prestanda och profilering
Identifiering av flaskehalsar och tillämpning av optimeringstekniker
• Modell I/O och inferensgränssnitt
Säker persistence och rena prediktiongränssnitt
• slut-till-slut minibygge
Produktionstillförlitligt ML-pipeline med konfiguration och logging
Modul 4: Statistisk inlärning för tabell-, text- och bilddata
• Utvärderingsgrunder
Träna och valideringsdelar, ärlig korsvalidering och affärsanpassade metrik
• Avancerad tabellbaserad ML
Regulariserade GLM, trädensembler och leak-proof preprocessing
• Kalibrering och osäkerhet
Platt-skalning, isotonisk regression, bootstrap och konform prediktion
• Klassiska NLP-metoder
Tokeniseringstraditioner, TF-IDF, linjära modeller och Naive Bayes
• Temamodellering
LDA-grunder och praktiska begränsningar
• Klassisk datorseende
HOG, PCA och feature-baserade pipelines
• Felanalys
Biasidentifiering, etikettbrus och oväntade korrelationer
• Hands-on labbar
Leak-proof tabellbaserad pipeline
Textbaslinjejämförelse och tolkning
Klassisk visionbaslinje med strukturad misslyckesanals
Modul 5: Neuronala nätverk för tabell-, text- och bilddata
• Träningsloppmästare
Säkra PyTorch-lopp med AMP, klippning och reproducerbarhet
• Optimering och regulering
Initialisering, normalisering, optimerare och schemaläggare
• Blandad precision och skalning
Gradientaccumulering och checkpointing-strategier
• Tabellbaserade neuronala nätverk
Kategoriska embeddings, feature crosses och ablationsstudier
• Textbaserade neuronala nätverk
Embeddings, CNNs, BiLSTM eller GRU och sekvenshantering
• Visionbaserade neuronala nätverk
CNN-grunder och ResNet-stilar av arkitekturer
• Hands-on labbar
Återanvändbara träningsramverk
Tabellbaserade NN vs boosting-jämförelse
CNN med augmentation och scheduling-experiment
Modul 6: Avancerade neuralkarkitekturer
• Transferinlärningsstrategier
Freeze och unfreeze-mönster, diskriminativa inlärningshastigheter
• Transformerarkitekturer för text
Self-attention-internals och finjusteringsmetoder
• Visionbackbones och tätprediktion
ResNet, EfficientNet, Vision Transformers och U-Net-koncept
• Avancerade tabellarkitekturer
TabTransformer, FT-Transformer och Deep and Cross-nätverk
• Tidssekvensbetraktelser
Tidigares delning och covariate shift-detektering
• PEFT och effektivitetstekniker
LoRA, distillation och kvantifieringshandel
• Hands-on labbar
Finjustering av föruttränade texttransformerare
Finjustering av föruttränade visionmodeller
Tabellbaserad transformerare vs GBDT-jämförelse
Modul 7: Generativa AI-system
• Promptgrunder
Strukturad prompting och kontrollerad generering
• LLM-grunder
Tokenisering, instruktionsjustering och hallucinationsminimering
• Retrieval-Augmented Generation
Chunking, embeddings, hybrid sökning och utvärderingsmetrik
• Finjusteringsstrategier
LoRA och QLoRA med datakvalitetskontroller
• Diffusionmodeller
Latent diffusionintuition och praktisk anpassning
• Syntetiska tabelldata
CTGAN och sekretessbetraktelser
• Hands-on labbar
Produktionstillförlitligt RAG-miniapplikation
Strukturad utdatavalidering med schemaexekvering
Valfri diffusionsexperimentering
Modul 8: AI-agenter och MCP
• Agentloopdesign
Observera, planera, agera, reflektera och bevara
• Agentarkitekturer
ReAct, plan-and-execute och fleragentkoordination
• Minneshantering
Episodisk, semantisk och scratchpad-anslutningar
• Verktygsintegration och säkerhet
Verktygskontrakt, sandboxing och promptinjektionsförsvar
• Utvärderingsramverk
Spelbara spår, uppgiftssuites och regressionstestning
• MCP och protokollbaserad interoperabilitet
Designa MCP-servrar med säker verktygsexponering
• Hands-on labbar
Bygg en agent från grunden
Exponera verktyg via MCP-stil server
Skapa utvärderingsharnesk med säkerhetsbegränsningar
Krav
Deltagare bör ha praktiska kunskaper i Python-programmering.
Detta program är tänkt för mellan- och avancerade tekniska professionella.
Vittnesmål (2)
ML-ekosystemet omfattar inte bara MLflow utan också Optuna, Hyperopt, Docker och Docker Compose
Guillaume GAUTIER - OLEA MEDICAL
Kurs - MLflow
Maskintolkat
Jag uppskattade att delta i Kubeflow-träningen, som hålls på avstånd. Denna träning möjliggjorde för mig att fastställa min kunskap om AWS-tjänster, K8s och alla devOps-verktyg runt Kubeflow, vilka är de nödvändiga grunderna för att tillämpligt ange ämnet. Jag vill tacka Malawski Marcin för hans tålamod och professionella inställning vid träningen och råd om bästa praxis. Malawski behandlar ämnet från olika perspektiv, med olika distributionsverktyg som Ansible, EKS kubectl och Terraform. Nu är jag säker på att jag går in i rätt tillämpningsområde.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Kurs - Kubeflow
Maskintolkat