→ חזרה

ChatGPT עולה $20 לחודש. Claude Pro עולה $20 לחודש. אבל מה אם תוכלו לקבל חוויה דומה — בחינם לחלוטין, עם פרטיות מלאה, ומבלי לשלוח נתונים לאף שרת? Ollama הופך את זה לאפשרי.

למה להריץ AI מקומי?

שלוש סיבות עיקריות:

מה זה Ollama?

Ollama הוא כלי קוד פתוח שמאפשר להוריד ולהריץ מודלי AI גדולים (LLMs) על המחשב האישי. הוא מנהל את ההורדה, האחסון, ומספק ממשק פשוט להרצת מודלים.

בשונה מהרצת מודלים "ידנית" עם Python, Ollama:

דרישות מערכת

רכיבמינימוםמומלץ
RAM8GB16GB+
אחסון פנוי10GB50GB+
GPUאופציונליNVIDIA 8GB VRAM
מעבדIntel/AMD מודרניApple Silicon (M1+)

Apple Silicon (M1–M4) הוא הפלטפורמה הטובה ביותר ל-Ollama — GPU משותף עם RAM מאפשר ביצועים מצוינים גם ב-8GB.

שלבי התקנה — Mac

דרך 1 — הורדה ישירה

  1. היכנסו ל-ollama.com ולחצו "Download for Mac"
  2. גררו את Ollama.app לתיקיית Applications
  3. פתחו — תראו אייקון בשורת התפריט
  4. פתחו Terminal והריצו את הפקודה הראשונה:
ollama pull llama3.2

דרך 2 — Homebrew (למי שמכיר)

brew install ollama

לאחר ההתקנה הפעילו את ה-daemon:

ollama serve

שלבי התקנה — Windows

  1. הורידו מ-ollama.com את installer ל-Windows
  2. הריצו כמנהל מערכת
  3. Ollama מותקן כ-Windows Service
  4. פתחו PowerShell והריצו:
ollama pull llama3.2

המודלים הטובים ביותר

מודלגודלמצוין במחשבים נתמכים
llama3.2:3b2GBשיחות מהירותכל Mac, כל PC
llama3.2:8b5GBהכל-תכליתי16GB RAM
mistral:7b4.1GBהוראות, קוד8GB RAM
codellama:13b7.4GBכתיבת קוד16GB RAM
phi3:mini2.3GBמהיר מאוד, מחשבים חלשים4GB RAM
gemma2:9b5.4GBשפות רבות, כולל עברית16GB RAM

ביצועים מה לצפות?

הציפיות חשובות — Ollama מהיר, אבל לא תמיד במהירות ChatGPT:

ממשק גרפי — Open WebUI

הריצו את הפקודה (דורש Docker):

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

גשו ל-localhost:3000 — ממשק ChatGPT מלא לחלוטין, מקומי. הדגל --restart always מבטיח שהממשק יקום מחדש אוטומטית לאחר הפעלת המחשב.

Ollama עם n8n — אוטומציה מקומית

אחד השימושים המגניבים: חיבור Ollama ל-n8n (כלי אוטומציה). תוכלו לבנות workflows AI שרצים לגמרי מקומית — ללא API, ללא תשלום.

פקודות CLI שימושיות

# רשימת מודלים מותקנים
ollama list

# מחיקת מודל
ollama rm mistral

# מידע על מודל
ollama show llama3.2

# הרצה עם פרמטרים
ollama run llama3.2 --verbose

שאלות נפוצות

מה זה Ollama ולמה זה שימושי?

Ollama הוא כלי קוד פתוח שמאפשר להריץ מודלי AI על המחשב שלך — ללא אינטרנט, ללא עלות חודשית, עם פרטיות מלאה. מושלם למי שעובד עם מידע רגיש או רוצה AI בחינם.

האם צריך מחשב חזק להריץ Ollama?

מודלים קטנים (7B פרמטרים) רצים על 8GB RAM. מודלים גדולים דורשים 16GB+. כרטיס גרפיקה מאיץ משמעותית אך אינו חובה. Mac M1/M2/M3 עובד מצוין.

איזה מודל AI עדיף להוריד ב-Ollama?

למתחילים: llama3.2:3b אם יש 8GB RAM, llama3.2:8b אם יש 16GB. לקוד: codellama. למחשבים חלשים: phi3:mini (4GB RAM בלבד).

יניב סוראני

יניב סוראני

מפתח ומומחה כלי בינה מלאכותית | מייסד בינה.co.il

20+ שנות ניסיון בטכנולוגיה. בוחן ומשתמש בכלי AI מדי יום. כל תוכן באתר נכתב, נבדק ועורך ידנית.