Kursplan

Introduktion till Ollama

  • Vad är Ollama och hur fungerar det?
  • Fördelar med att köra AI-modeller lokalt
  • Översikt över stödde LLMs (Llama, DeepSeek, Mistral, etc.)

Installering och Konfiguration av Ollama

  • Systemkrav och hårdvarans överväganden
  • Installering av Ollama på olika operativsystem
  • Konfigurering av beroenden och miljöinställningar

Körning av AI-modeller Lokalt

  • Nedladdning och inläsning av AI-modeller i Ollama
  • Interaktion med modeller via kommandoraden
  • Grundläggande prompt-engineering för lokala AI-uppgifter

Optimering av Prestanda och Resursanvändning

  • Hantering av hårdvaruresurser för effektiv AI-exekvering
  • Minskning av latens och förbättring av modellsvarstid
  • Mätning av prestanda för olika modeller

Use Case för Lokal AI-deployering

  • AI-drivna chatbots och virtuella assistenter
  • Databearbetning och automatiserade uppgifter
  • Integritetsskyddade AI-applikationer

Sammanfattning och Nästa Steg

Krav

  • Grundläggande förståelse för AI och maskininlärningskoncept
  • Kännedom om kommandoradsgränssnitt

Målgrupp

  • Utvecklare som kör AI-modeller utan molnbaserade beroenden
  • Business-professionella intresserade av AI-privacy och kostnadseffektiv distribution
  • AI-entusiaster som utforskar lokal modelldistribution
 7 timmar

Antal deltagare


Pris per deltagare

Kommande Kurser

Relaterade Kategorier