🦙
Ollama: النماذج اللغوية المحلية في الإنتاج
تدريب تقني مكثف للمطورين وفرق العمليات الذين يرغبون في نشر النماذج اللغوية مفتوحة المصدر في الإنتاج دون الاعتماد على واجهات API مملوكة. أتقن Ollama، التكميم، نشر Docker متعدد GPU، والتكامل مع مجموعتك التقنية الحالية. حالة حقيقية: شركة ناشئة خفضت التكاليف من ٤٬٢٠٠ يورو/شهر إلى ١٠٩ يورو/شهر (-٩٧٪).
المدة
يومان
المستوى
متوسط
السعر
٩٫٩٩ يورو/شهر (جميع الدورات مشمولة)
الحد الأقصى للمجموعة
12 مشاركاً
ما ستتعلمه
+تثبيت وإعداد Ollama على منصات مختلفة (macOS، Linux، Docker)
+اختيار النموذج المناسب لقيودك (زمن الاستجابة، الجودة، VRAM)
+فهم التكميم (Q2، Q4، Q8) وتحسين الأداء/الجودة
+النشر مع Docker Compose، موازنة الأحمال متعددة GPU، وOpen WebUI
+التكامل مع API متوافقة مع OpenAI (ترحيل بسطرين من الشيفرة)
+تنفيذ المراقبة (Prometheus، Grafana)، تحديد المعدل، والنسخ الاحتياطي
+حساب العائد على الاستثمار ومقارنة تكاليف API مقابل الاستضافة الذاتية
برنامج الدورة
الوحدة 1: أساسيات Ollama واختيار النماذج
٣ س ٣٠ د- تثبيت Ollama: الخطوات الأولى
- فهم التكميم: Q2، Q4، Q8، FP16
- اختيار النماذج: Llama، Mistral، CodeLlama، DeepSeek
- اختبارات الأداء: زمن الاستجابة، الإنتاجية، الجودة
- حالات الاستخدام: أي نموذج لأي مهمة؟
الوحدة 2: نشر Docker وإعداد الإنتاج
٣ س ٣٠ د- Docker Compose: Ollama + Open WebUI
- موازنة الأحمال متعددة GPU مع NGINX
- تخزين النماذج مؤقتاً وتحسين زمن الاستجابة
- ورشة عمل: بنية إنتاج متكاملة
الوحدة 3: تكامل API والتوافق مع OpenAI
٣ س ٣٠ د- API متوافقة مع OpenAI: ترحيل بسطرين
- البث: استجابات رمز برمز
- تكامل LangChain: RAG والوكلاء
- ورشة عمل: ترحيل تطبيق OpenAI إلى Ollama
الوحدة 4: أنماط الإنتاج والمراقبة
٣ س ٣٠ د- المراقبة مع Prometheus وGrafana
- تحديد المعدل مع Redis وCelery
- النسخ الاحتياطي الآلي والتعافي من الكوارث
- حالة حقيقية: شركة ناشئة خفضت التكاليف بنسبة ٩٤٪
- حساب العائد على الاستثمار: API مقابل الاستضافة الذاتية
هل أنت مستعد للبدء؟
٩٫٩٩ يورو/شهر — جميع الدورات مشمولة، إلغاء في أي وقت