Self-Hosting

Рост цен на GPU и ОЗУ в Австралии: RTX 5090 подорожал на 15%, ОЗУ — на 38% — январь 2026 года

Рост цен на GPU и ОЗУ в Австралии: RTX 5090 подорожал на 15%, ОЗУ — на 38% — январь 2026 года

Проверка цен на GPU и RAM в январе 2025 года

Сегодня мы рассматриваем топовые потребительские графические процессоры и модули оперативной памяти. Конкретно я смотрю на цены на RTX-5080 и RTX-5090, а также на 32ГБ (2x16ГБ) DDR5 6000.

Быстрый старт с vLLM: высокопроизводительный сервис для LLM — 2026

Быстрый старт с vLLM: высокопроизводительный сервис для LLM — 2026

Быстрый инференс LLM с использованием API OpenAI

vLLM — это высокопроизводительный, экономичный по памяти движок для вывода и развертывания больших языковых моделей (LLM), разработанный лабораторией Sky Computing Калифорнийского университета в Беркли.

Ценообразование на DGX Spark AU: от 6249 до 7999 долларов в крупных розничных магазинах

Ценообразование на DGX Spark AU: от 6249 до 7999 долларов в крупных розничных магазинах

Актуальные цены в австралийских долларах от местных розничных продавцов уже доступны.

Компьютер NVIDIA DGX Spark (GB10 Grace Blackwell) поступил в продажу в Австралии у крупных розничных продавцов компьютеров с наличием на местных складах. Если вы следите за мировым ценообразованием и доступностью DGX Spark, то вам будет интересно узнать, что в Австралии цены варьируются от 6 249 до 7 999 австралийских долларов в зависимости от конфигурации накопителей и конкретного продавца.

Выбор правильного LLM для Cognee: локальная установка Ollama

Выбор правильного LLM для Cognee: локальная установка Ollama

Размышления об использовании больших языковых моделей для саморазмещаемого Cognee

Выбор лучшей LLM для Cognee требует баланса между качеством построения графов, уровнями галлюцинаций и ограничениями оборудования. Cognee лучше всего работает с крупными моделями с низким уровнем галлюцинаций (32B+) через Ollama, но средние варианты подходят для более легких настроек.

API веб-поиска Ollama в Python

API веб-поиска Ollama в Python

AI-поисковые агенты с помощью Python и Ollama

Библиотека Python для Ollama теперь включает в себя нативные возможности поиска в интернете с Ollama. С несколькими строками кода вы можете дополнить свои локальные LLMs актуальной информацией из интернета, снижая вероятность галлюцинаций и повышая точность.

Сравнение векторных хранилищ для RAG

Сравнение векторных хранилищ для RAG

Выберите правильную векторную базу данных для вашего стека RAG

Выбор правильного векторного хранилища может стать решающим фактором для производительности, стоимости и масштабируемости вашего приложения RAG. Это комплексное сравнение охватывает самые популярные варианты на 2024–2025 годы.

API веб-поиска Ollama в Go

API веб-поиска Ollama в Go

AI-поисковые агенты с использованием Go и Ollama

Ollama’s Web Search API позволяет дополнять локальные LLMs актуальной информацией из интернета. Это руководство показывает, как реализовать возможности веб-поиска на Go, от простых API-запросов до полнофункциональных поисковых агентов.

Резкий рост цен на оперативную память: до 619 % в 2025 году

Резкий рост цен на оперативную память: до 619 % в 2025 году

Цены на оперативную память выросли на 163–619% из-за дефицита, вызванного спросом на ИИ.

Рынок памяти переживает беспрецедентную волатильность цен в конце 2025 года, когда цены на оперативную память резко выросли по всем сегментам.

Ollama против vLLM против LM Studio: Лучший способ запускать LLMs локально в 2026 году?

Ollama против vLLM против LM Studio: Лучший способ запускать LLMs локально в 2026 году?

Сравните лучшие локальные инструменты хостинга LLM в 2026 году. Зрелость API, поддержка оборудования, вызов инструментов и реальные сценарии использования.

Запуск локальных языковых моделей (LLM) теперь практичен для разработчиков, стартапов и даже корпоративных команд. Но выбор правильного инструмента — Ollama, vLLM, LM Studio, LocalAI или других — зависит от ваших целей:

Цены на видеокарты NVidia RTX 5080 и RTX 5090 в Австралии — ноябрь 2025 года

Цены на видеокарты NVidia RTX 5080 и RTX 5090 в Австралии — ноябрь 2025 года

Цены на потребительские GPU, подходящие для ИИ: RTX 5080 и RTX 5090

Давайте сравним цены на топовые потребительские видеокарты, которые особенно подходят для LLM и искусственного интеллекта в целом. В частности, я изучаю цены на RTX-5080 и RTX-5090.

Инфраструктура искусственного интеллекта на потребительском оборудовании

Инфраструктура искусственного интеллекта на потребительском оборудовании

Развертывание корпоративного ИИ на бюджетном оборудовании с использованием открытых моделей.

Демократизация искусственного интеллекта уже здесь. С появлением открытых LLM, таких как Llama, Mistral и Qwen, которые теперь не уступают проприетарным моделям, команды могут создавать мощную инфраструктуру ИИ на потребительском оборудовании — значительно сокращая расходы при сохранении полного контроля над конфиденциальностью данных и развертыванием.

Установка и использование Grafana на Ubuntu: полное руководство

Установка и использование Grafana на Ubuntu: полное руководство

Настройте Grafana для мониторинга и визуализации

Grafana — это ведущая открытая платформа для мониторинга и наблюдения, которая преобразует метрики, логи и трассировки в действенные инсайты через потрясающие визуализации.

StatefulSets и постоянное хранилище в Kubernetes

StatefulSets и постоянное хранилище в Kubernetes

Развёртывание приложений с сохранением состояния, упорядоченным масштабированием и постоянными данными

Kubernetes StatefulSets — это основное решение для управления приложениями с состоянием, которым требуются стабильные идентификаторы, постоянное хранилище и упорядоченные паттерны развертывания, что критически важно для баз данных, распределенных систем и кэш-услуг.