Kom i kontakt

Kursplan

iOS ML-miljö och utvecklingsinställning

  • Apples arkitektur för on-device ML: CoreML, Vision, Speech, NaturalLanguage
  • Inställning av utvecklingsmiljön: Anaconda, Python, Xcode och Swift
  • Introduktion till coremltools och iOS ML-konverteringsflödet
  • Labb 1: Validera macOS/Swift-miljön, ställ in Python/Anaconda och verifiera Xcode kommandoradsintegration

Träna anpassade modeller med Python och populära ML-bibliotek

  • Modellval: När man ska använda Keras/TensorFlow jämfört med scikit-learn eller libsvm
  • Förbehandling av data, träningsloopar och utvärderingsmetriter i Python
  • Integration av Anaconda och Spyder för effektiv modellutveckling och felsökning
  • Hantera äldre modeller: importera Caffe-nätverk via coremltools
  • Labb 2: Träna en anpassad klassificerings-/regressionsmodell i Python (Keras/scikit-learn) och exportera till .h5/.pkl

Konvertera modeller till CoreML och integrera dem i iOS

  • Använda coremltools för att konvertera TensorFlow-, Keras-, scikit-learn-, libsvm- och Caffe-modeller till .mlmodel
  • Inspektera CoreML-modeller i Xcode: lager, input/output, precision och optimeringsnivåer
  • Ladda CoreML-modeller i Swift: MLModel, MLFeatureProvider och asynkron inferens
  • Labb 3: Konvertera en Python-tränad modell till CoreML, inspektera den i Xcode och ladda den i ett Swift-playground

Bygg iOS-intelligens med CoreML och Vision

  • Vision-ramverket: ansiktsdetektering, objektdetektering, textigenkänning och streckkodsskanning
  • CoreGraphics-integration: bildförbehandling, ROI-maskning och överlagringsrendering
  • GameplayKit: tillämpning av AI-beteendeträd, sökvägsplanning och spellogik tillsammans med ML i appen
  • Optimering av realtidsinferens: multimodellpipeliner, cachning och minneshantering
  • Labb 4: Implementera ett realtidsbildanalysfunktion med Vision + anpassad CoreML-modell + CoreGraphics-överlägg

Taligenkänning, NLP och Siri-integration

  • Speech-ramverket: realtids-tal-till-text, anpassat ordförråd och insprängning av språkmodeller
  • NaturalLanguage-ramverket: tokenisering, sentimentanalys, NER (Named Entity Recognition) och språkklassificering
  • SiriKit och genvägar: lägga till röstkommandon, anpassade intents och on-device Siri-stöd
  • Integritet och säkerhet: CoreML-sandlådeläges, datakryptering och avvägningar mellan on-device och molninferens
  • Labb 5: Lägg till röstkommandon, textanalys och Siri-genvägar till iOS-appen

Capstone-projekt och appdistribution

  • End-to-end-flöde: Python-träning → CoreML-konvertering → Swift UI → iOS-distribution
  • Prestandaprofilering: Instruments, CoreML-diagnostik och modellkvantisering (FP16/INT8)
  • App Store-riktlinjer för ML-appar: storleksbegränsningar, integritetsmanifest och hantering av on-device-data
  • Capstone: Distribuera en komplett iOS-app med en anpassad CoreML-modell, Vision-bearbetning, tal/NLP-funktioner och Siri-integration
  • Genomgång, frågor och svar samt nästa steg: Skalning till SwiftUI, Core ML multi-modal och MLOps för iOS

För att begära en anpassad kursplan för denna utbildning, vänligen kontakta oss.

Krav

  • Bevisad erfarenhet av programmering i Swift (Xcode, SwiftUI/UIKit, async/await, closures)
  • Ingen tidigare bakgrund inom maskininlärning eller datavetenskap krävs
  • Kunskaper i grundläggande kommandorad och Python-syntax är fördelaktigt

Målgrupp

  • iOS- och mobilutvecklare
  • Mjukvaruingenjörer som övergår till on-device AI
  • Tekniska ledare som utvärderar strategierna för iOS ML-deployment
 14 Timmar

Antal deltagare


Pris per deltagare

Vittnesmål (1)

Kommande Kurser

Relaterade Kategorier