Skip to content
تم إنشاء هذه الصفحة وترجمتها بمساعدة الذكاء الاصطناعي. إذا لاحظت أي أخطاء، لا تتردد في المساهمة في تحسينها. تعديل على GitHub

Ollama

شغّل نماذج LLM محليًا أو على بنية تحتية مستضافة ذاتيًا باستخدام Ollama. يدعم الرؤية، واستدعاء الأدوات الأصلي، ونماذج الاستدلال، والتوجيه السحابي الاختياري عبر Ollama Cloud.

المتطلبات المسبقة

  • Ollama مثبت ويعمل محليًا، أو
  • نسخة Ollama بعيدة مع إمكانية الوصول عبر الشبكة

إعداد سريع

1. تثبيت Ollama

bash
# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Start the server
ollama serve

2. سحب نموذج

bash
ollama pull qwen3

3. الإعداد

toml
[default]
provider = "ollama"
model = "qwen3"

لا يلزم مفتاح API للاستخدام المحلي.

4. التحقق

bash
prx doctor models

النماذج المتاحة

يمكن استخدام أي نموذج متاح عبر Ollama. من الخيارات الشائعة:

النموذجالمعلماتالرؤيةاستخدام الأدواتملاحظات
qwen38Bلانعمنموذج ترميز متعدد اللغات ممتاز
qwen2.5-coder7Bلانعممتخصص للبرمجة
llama3.18B/70B/405Bلانعمعائلة نماذج Meta المفتوحة
mistral-nemo12Bلانعماستدلال فعّال
deepseek-r17B/14B/32Bلانعمنموذج استدلال
llava7B/13Bنعملارؤية + لغة
gemma29B/27Bلانعمنموذج Google المفتوح
codellama7B/13B/34BلالاLlama متخصص للبرمجة

شغّل ollama list لرؤية النماذج المثبتة لديك.

مرجع الإعدادات

الحقلالنوعالافتراضيالوصف
api_keystringاختياريمفتاح API لنسخ Ollama البعيدة/السحابية
api_urlstringhttp://localhost:11434عنوان أساس خادم Ollama
modelstringمطلوباسم النموذج (مثل qwen3 أو llama3.1:70b)
reasoningboolاختياريتفعيل وضع think لنماذج الاستدلال

الميزات

إعداد صفري للاستخدام المحلي

عند تشغيل Ollama محليًا، لا يلزم مفتاح API أو إعداد خاص. يتصل PRX تلقائيًا بـ http://localhost:11434.

الاستدعاء الأصلي للأدوات

يستخدم PRX دعم استدعاء الأدوات الأصلي في Ollama عبر /api/chat. تُرسل تعريفات الأدوات داخل جسم الطلب، وتُرجع النماذج المتوافقة (qwen2.5 وllama3.1 وmistral-nemo وغيرها) tool_calls مهيكلة.

يتعامل PRX أيضًا مع سلوكيات نماذج غير اعتيادية:

  • استدعاءات أدوات متداخلة: {"name": "tool_call", "arguments": {"name": "shell", ...}} يتم فكّها تلقائيًا
  • أسماء مسبوقة: tool.shell تُطبّع إلى shell
  • ربط نتائج الأدوات: يتم تتبّع معرفات استدعاء الأدوات وربطها بحقوق tool_name في رسائل النتائج اللاحقة

دعم الرؤية

النماذج القادرة على الرؤية (مثل LLaVA) تستقبل الصور عبر الحقل الأصلي images في Ollama. يستخرج PRX تلقائيًا بيانات الصور base64 من علامات [IMAGE:...] ويرسلها كمدخلات صور منفصلة.

وضع الاستدلال

لنماذج الاستدلال (QwQ وDeepSeek-R1 وغيرها)، فعّل المعامل think:

toml
[providers.ollama]
reasoning = true

يرسل هذا "think": true في الطلب، ما يفعّل عملية الاستدلال الداخلية للنموذج. إذا أعاد النموذج حقل thinking فقط مع محتوى فارغ، يوفر PRX رسالة رجوع ملائمة.

النسخ البعيدة والسحابية

للاتصال بخادم Ollama بعيد:

toml
[providers.ollama]
api_url = "https://my-ollama-server.example.com:11434"
api_key = "${OLLAMA_API_KEY}"

تُرسل المصادقة فقط لنقاط النهاية غير المحلية (عندما لا يكون المضيف localhost أو 127.0.0.1 أو ::1).

التوجيه السحابي

أضف :cloud إلى اسم النموذج لفرض التوجيه عبر نسخة Ollama بعيدة:

bash
prx chat --model "qwen3:cloud"

يتطلب التوجيه السحابي:

  • api_url غير محلي
  • إعداد api_key

مهلة ممتدة

تستخدم طلبات Ollama مهلة 300 ثانية (مقارنة بـ 120 ثانية لمزوّدي السحابة)، مراعاةً لاحتمال بطء الاستدلال على العتاد المحلي.

استكشاف الأخطاء وإصلاحها

"Is Ollama running?"

الخطأ الأكثر شيوعًا. الحلول:

  • شغّل الخادم: ollama serve
  • تحقق من إتاحة المنفذ: curl http://localhost:11434
  • إذا كنت تستخدم منفذًا مخصصًا، حدّث api_url في الإعداد

لم يتم العثور على النموذج

اسحب النموذج أولًا:

bash
ollama pull qwen3

استجابات فارغة

قد تُرجع بعض نماذج الاستدلال محتوى thinking فقط دون استجابة نهائية. هذا يعني غالبًا أن النموذج توقف مبكرًا. جرّب:

  • إرسال الطلب مرة أخرى
  • استخدام نموذج مختلف
  • تعطيل وضع الاستدلال إذا كان النموذج لا يدعمه جيدًا

استدعاءات الأدوات لا تعمل

ليست كل نماذج Ollama تدعم استدعاء الأدوات. النماذج المعروفة بجودة الدعم:

  • qwen2.5 / qwen3
  • llama3.1
  • mistral-nemo
  • command-r

أخطاء التوجيه السحابي

  • "requested cloud routing, but Ollama endpoint is local": اضبط api_url إلى خادم بعيد
  • "requested cloud routing, but no API key is configured": اضبط api_key أو OLLAMA_API_KEY

Released under the Apache-2.0 License.