ChatGPT עולה $20 לחודש. Claude Pro עולה $20 לחודש. אבל מה אם תוכלו לקבל חוויה דומה — בחינם לחלוטין, עם פרטיות מלאה, ומבלי לשלוח נתונים לאף שרת? Ollama הופך את זה לאפשרי.

למה להריץ AI מקומי?

שלוש סיבות עיקריות:

מה זה Ollama?

Ollama הוא כלי קוד פתוח שמאפשר להוריד ולהריץ מודלי AI גדולים (LLMs) על המחשב האישי. הוא מנהל את ההורדה, האחסון, ומספק ממשק פשוט להרצת מודלים.

בשונה מהרצת מודלים "ידנית" עם Python, Ollama:

שלבי התקנה — Mac

  1. היכנסו ל-ollama.com ולחצו "Download for Mac"
  2. גררו את Ollama.app לתיקיית Applications
  3. פתחו — תראו אייקון בשורת התפריט
  4. פתחו Terminal והריצו את הפקודה הראשונה:
ollama pull llama3.2

שלבי התקנה — Windows

  1. הורידו מ-ollama.com את installer ל-Windows
  2. הריצו כמנהל מערכת
  3. Ollama מותקן כ-Windows Service
  4. פתחו PowerShell והריצו:
ollama pull llama3.2

המודלים הטובים ביותר

מודלגודלמצוין במחשבים נתמכים
llama3.2:3b2GBשיחות מהירותכל Mac, כל PC
llama3.2:8b5GBהכל-תכליתי16GB RAM
mistral:7b4.1GBהוראות, קוד8GB RAM
codellama:13b7.4GBכתיבת קוד16GB RAM
gemma2:9b5.4GBשפות רבות16GB RAM

ביצועים מה לצפות?

הציפיות חשובות — Ollama מהיר, אבל לא תמיד במהירות ChatGPT:

ממשק גרפי — Open WebUI

הריצו את הפקודה (דורש Docker):

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

גשו ל-localhost:3000 — ממשק ChatGPT מלא לחלוטין, מקומי.

Ollama עם n8n — אוטומציה מקומית

אחד השימושים המגניבים: חיבור Ollama ל-n8n (כלי אוטומציה). תוכלו לבנות workflows AI שרצים לגמרי מקומית — ללא API, ללא תשלום.