LLM

الاستضافة الذاتية لـ Perplexica - باستخدام Ollama

الاستضافة الذاتية لـ Perplexica - باستخدام Ollama

هل ترغب في تشغيل خدمة من نوع كوبيلو محليًا؟ سهل جدًا!

هذا أمر مثير للغاية! بدلاً من الاتصال بـ copilot أو perplexity.ai وإخبار العالم بأكمله بما تبحث عنه، يمكنك الآن تشغيل خدمة مشابهة على جهاز الكمبيوتر أو الحاسوب المحمول الخاص بك!

جemma2 مقابل Qwen2 مقابل Mistral Nemo مقابل...

جemma2 مقابل Qwen2 مقابل Mistral Nemo مقابل...

اختبار اكتشاف الأخطاء المنطقية

في الآونة الأخيرة، شهدنا إصدار عدد من النماذج الجديدة من LLMs. أوقات مثيرة. لنختبر ونرى كيف تؤدي الأداء عند اكتشاف الخطا المنطقية.

واجهات LLM

واجهات LLM

ليس هناك الكثير可供选择 ولكن ما زال هناك...

عندما بدأت بتجربة النماذج الكبيرة للغة (LLMs)، كانت واجهات المستخدم الخاصة بها في التطوير النشط، و اليوم أصبحت بعضها جيدة حقًا.

نقل نماذج Ollama إلى مواقع مختلفة

نقل نماذج Ollama إلى مواقع مختلفة

تستغرق ملفات نموذج Ollama LLM مساحة كبيرة جدًا.

بعد تثبيت ollama من الأفضل إعادة تكوين ollama لتخزينها في مكان جديد فورًا. إذن بعد أن نسحب نموذجًا جديدًا، لن يتم تنزيله إلى الموقع القديم.

اختبار سرعة النماذج الكبيرة للغات

اختبار سرعة النماذج الكبيرة للغات

لنختبر سرعة النماذج الكبيرة للغة على وحدة معالجة الرسومات (GPU) مقابل وحدة المعالجة المركزية (CPU)

مقارنة سرعة التنبؤ لعدة إصدارات من نماذج LLMs: llama3 (Meta/Facebook)، phi3 (Microsoft)، gemma (Google)، mistral (مصدر مفتوح) على وحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU).