Kursplan

Introduktion till Ollama

  • Vad är Ollama och hur fungerar det?
  • Fördelar med att köra AI-modeller lokalt
  • Översikt över stödda LLMs (Llama, DeepSeek, Mistral, etc.)

Installation och konfiguration av Ollama

  • Systemkrav och hårdvarubetraktelser
  • Installering av Ollama på olika operativsystem
  • Konfiguration av beroenden och miljösetup

Köra AI-modeller lokalt

  • Hämta och ladda ner AI-modeller i Ollama
  • Interagera med modeller via kommandoraden
  • Grundläggande prompt engineering för lokala AI-uppgifter

Optimering av prestanda och resursanvändning

  • Hantering av hårdvaruresurser för effektiv AI-körning
  • Minska latens och förbättra modellens svarstid
  • Prestandamätning för olika modeller

Användningsfall för lokal AI-distribution

  • AI-drivna chatbottar och virtuella assistenter
  • Dataprocessering och automatiserade uppgifter
  • Privatsfärsskyddade AI-applikationer

Sammanfattning och nästa steg

Krav

  • Grundläggande förståelse för AI och maskininlärningskoncept
  • Bekantskap med kommandoradssnitt

Målgrupp

  • Utvecklare som körs AI-modeller utan molnberoende
  • Företagsprofiler intresserade av AI-säkerhet och kostnadseffektiv distribution
  • AI-entusiaster som utforskar lokal modellimplementation
 7 timmar

Antal deltagare


Pris per deltagare

Kommande Kurser

Relaterade Kategorier