Ollama

Переранжирование документов с использованием Ollama и модели Qwen3 Reranker - на языке Go

Переранжирование документов с использованием Ollama и модели Qwen3 Reranker - на языке Go

Реализуете RAG? Вот несколько фрагментов кода на Go - 2...

Поскольку стандартный Ollama не имеет прямого API для переупорядочивания, вам нужно реализовать переупорядочивание с использованием Qwen3 Reranker на GO, генерируя векторы представлений для пар запрос-документ и оценивая их.

Сравнение качества перевода страниц Hugo - модели больших языков на Ollama

Сравнение качества перевода страниц Hugo - модели больших языков на Ollama

qwen3 8b, 14b и 30b, devstral 24b, mistral small 24b

В этом тесте я сравниваю, как разные LLM, размещённые на Ollama, переводят Hugo-страницу с английского на немецкий.
Три страницы, которые я протестировал, были на разных темах, имели хорошее markdown-форматирование с определённой структурой: заголовки, списки, таблицы, ссылки и т.д.

Переранжирование текстов с использованием Ollama и Qwen3 Embedding LLM на языке Go

Переранжирование текстов с использованием Ollama и Qwen3 Embedding LLM на языке Go

Реализуете RAG? Вот несколько фрагментов кода на языке Golang.

Этот маленький
Пример кода на Go для reranking вызывает Ollama для генерации вложений
для запроса и для каждого кандидата документа,
затем сортирует по убыванию косинусной схожести.

Модели Qwen3 Embedding & Reranker в Ollama: передовые достижения в производительности

Модели Qwen3 Embedding & Reranker в Ollama: передовые достижения в производительности

Новые потрясающие LLM доступны в Ollama

Модели Qwen3 Embedding и Reranker являются последними выпусками в семействе Qwen, специально разработанными для продвинутых задач встраивания текста, извлечения и повторного ранжирования.

Тест: Как Ollama использует производительность процессора Intel и эффективные ядра

Тест: Как Ollama использует производительность процессора Intel и эффективные ядра

Ollama на процессоре Intel: эффективные ядра против производительных ядер

У меня есть теория для проверки - если использовать все ядра процессора Intel для повышения скорости LLM Меня беспокоит, что новый модель gemma3 27 бит (gemma3:27b, 17 ГБ на ollama) не помещается в 16 ГБ видеопамяти моего GPU, и частично работает на CPU.

Тестирование Deepseek-R1 на Ollama

Тестирование Deepseek-R1 на Ollama

Сравнение двух моделей deepseek-r1 с двумя базовыми

DeepSeek’s первая генерация моделей рассуждений с производительностью, сопоставимой с OpenAI-o1, включая шесть плотных моделей, дистиллированных из DeepSeek-R1 на основе Llama и Qwen.