Schița de curs

Introducere în Ollama

  • Ce este Ollama și cum funcționează?
  • Avantajele rulării locale a modelelor AI
  • Prezentare generală a LLM-urilor acceptate (Llama, DeepSeek, Mistral, etc.)

Instalarea și configurarea Ollama

  • Cerințe de sistem și considerații hardware
  • Instalarea Ollama pe diferite sisteme de operare
  • Configurarea dependențelor și setarea mediului

Rularea modelelor AI la nivel local

  • Descărcarea și încărcarea modelelor AI în Ollama
  • Interacțiunea cu modelele prin intermediul liniei de comandă
  • Ingineria promptului de bază pentru sarcinile AI locale

Optimizarea performanței și a utilizării resurselor

  • Gestionarea resurselor hardware pentru o execuție eficientă a AI
  • Reducerea latenței și îmbunătățirea timpului de răspuns al modelului
  • Compararea performanțelor pentru diferite modele

Use Cases pentru implementarea locală a IA

  • Chatbots și asistenți virtuali alimentați cu IA
  • Procesarea datelor și sarcini de automatizare
  • Aplicații AI axate pe confidențialitate

Rezumat și etapele următoare

Cerințe

  • Înțelegerea de bază a conceptelor de inteligență artificială și învățare automată
  • Familiaritate cu interfețele de linie de comandă

Audiență

  • Dezvoltatori care rulează modele AI fără dependențe de cloud
  • Profesioniști Business interesați de confidențialitatea AI și de implementarea rentabilă
  • entuziaști AI care explorează implementarea locală a modelelor
 7 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite