LLM

إعادة ترتيب الوثائق باستخدام Ollama ونموذج Qwen3 Reranker - بلغة Go

إعادة ترتيب الوثائق باستخدام Ollama ونموذج Qwen3 Reranker - بلغة Go

هل تطبق RAG؟ إليك بعض أجزاء من كود Go - 2...

بما أن Ollama القياسي لا يحتوي على واجهة برمجة تطبيقات (API) لترتيب النتائج (Rerank) مباشرة، فإنك ستحتاج إلى تنفيذ ترتيب النتائج باستخدام نموذج Qwen3 Reranker في GO من خلال إنشاء تمثيلات (embeddings) للزوجات (query-document) وتصنيفها.

مقارنة جودة ترجمة صفحات Hugo - نماذج لغوية كبيرة على Ollama

مقارنة جودة ترجمة صفحات Hugo - نماذج لغوية كبيرة على Ollama

qwen3 8ب، 14ب و30ب، devstral 24ب، mistral small 24ب

في هذا الاختبار، أنا مقارنة كيف تترجم نماذج LLM المختلفة المضمنة في Ollama صفحات Hugo من الإنجليزية إلى الألمانية. ثلاث صفحات اختبرتها كانت على مواضيع مختلفة، وتحتوي على بعض العلامات المرجعية الجيدة مع بعض الهيكل: العناوين، والقوائم، والجداول، والروابط، وغيرها.

اختبار: كيف يستخدم Ollama أداء وحدات المعالجة المركزية ووحدات المعالجة الفعالة من إنتل

اختبار: كيف يستخدم Ollama أداء وحدات المعالجة المركزية ووحدات المعالجة الفعالة من إنتل

أولاما على معالج إنتل: الكفاءة مقابل أداء النواة

لدي نظرية أريد اختبارها - هل استخدام جميع النوى على معالج Intel CPU سيزيد سرعة نماذج LLM؟ (اختبار: كيف يستخدم Ollama أداء معالج Intel ووحدات النوى الفعالة) يزعجني أن نموذج gemma3 27 بت (gemma3:27b، 17GB على ollama) لا يناسب 16GB VRAM لبطاقتي الرسومية، ويتم تشغيله جزئيًا على المعالج.

مقارنة ملاءمة وحدات معالجة الرسومات من نفيديا للذكاء الاصطناعي

مقارنة ملاءمة وحدات معالجة الرسومات من نفيديا للذكاء الاصطناعي

تتطلب الذكاء الاصطناعي الكثير من القوة...

في وسط الفوضى في العالم الحديث هنا أنا مقارنة مواصفات التكنولوجيا المختلفة المناسبة لمهام الذكاء الاصطناعي (التعلم العميق, كشف الكائنات ونماذج الذكاء الاصطناعي الكبيرة). ولكنها جميعًا باهظة التكلفة للغاية.

اختبار Deepseek-R1 على Ollama

اختبار Deepseek-R1 على Ollama

مقارنة نموذجين من deepseek-r1 بنموذجين أساسيين

نموذج DeepSeek الجيل الأول من نماذج الاستدلال التي تقدم أداءً مماثلاً لأداء نموذج OpenAI-o1، وتشمل ستة نماذج كثيفة تم استخلاصها من DeepSeek-R1 بناءً على Llama وQwen.