Проектирование современных систем оповещения для команд наблюдаемости

Проектирование современных систем оповещения для команд наблюдаемости

Система оповещений — это система реагирования, а не источник шума.

Система оповещений слишком часто описывается как просто функция мониторинга. Такая постановка вопроса удобна, но она скрывает настоящую проблему.

Шаблоны интеграции Slack для оповещений и рабочих процессов

Шаблоны интеграции Slack для оповещений и рабочих процессов

Slack — это слой интерфейса пользовательского взаимодействия для рабочих процессов и доставки уведомлений.

Интеграции со Slack могут показаться обманчиво простыми, потому что вы можете отправить сообщение одним HTTP-запросом. Интересная часть начинается тогда, когда вы хотите, чтобы Slack был интерактивным и надежным.

Шаблон интеграции Discord для уведомлений и контуров управления

Шаблон интеграции Discord для уведомлений и контуров управления

Превратите Discord в безопасную интерактивную шину оповещений.

Discord становится серьезной поверхностью интеграции, когда к нему относятся именно так: как к месту, где системы публикуют события, люди принимают решения, а автоматизация продолжает рабочий процесс.

Чат-платформы как системные интерфейсы в современных системах

Чат-платформы как системные интерфейсы в современных системах

Чат-платформы в качестве контрольных плоскостей для систем

Платформы для чатов эволюционировали далеко за пределы простых инструментов обмена сообщениями. В современных системах они функционируют как интерфейсы между автоматизированными процессами и человеческим принятием решений.

Архитектура приложений в продакшене: паттерны интеграции, проектирование кода и доступ к данным

Архитектура приложений в продакшене: паттерны интеграции, проектирование кода и доступ к данным

Шаблоны для интеграций, структуры кода и доступа к данным.

Большинство рекомендаций по архитектуре приложений либо слишком абстрактны для применения, либо слишком узки для масштабирования. Ниже представлены практические компромиссы для продакшн-систем в области интеграции, структуры кода и доступа к данным.

Быстрый старт с Vane (Perplexica 2.0), Ollama и llama.cpp

Быстрый старт с Vane (Perplexica 2.0), Ollama и llama.cpp

Самохостинг AI-поиска с локальными LLM

Vane — это один из наиболее прагматичных проектов в пространстве «поиска с использованием ИИ и цитированием»: самохостинговое средство ответов, которое сочетает в себе живой поиск в вебе с локальными или облачными LLM, сохраняя при этом полный контроль над всем стеком технологий.

Установка и настройка Claude Code для Ollama и llama.cpp, а также тарифы

Установка и настройка Claude Code для Ollama и llama.cpp, а также тарифы

Агентное кодирование, теперь с локальными моделями

Claude Code — это не просто автодополнение с лучшей маркетинговой упаковкой. Это агентный инструмент для программирования: он анализирует вашу кодовую базу, редактирует файлы, выполняет команды и интегрируется с вашими инструментами разработки.

Помощник Hermes AI: установка, настройка, рабочий процесс и устранение неполадок

Помощник Hermes AI: установка, настройка, рабочий процесс и устранение неполадок

Установка и быстрый старт агента Hermes для разработчиков

Hermes Agent — это хостящийся на собственном сервере (self-hosted), независимый от конкретной модели искусственный интеллект, который работает на локальной машине или недорогом VPS, взаимодействует через терминал и мессенджеры, а также совершенствуется со временем, превращая повторяющиеся задачи в повторно используемые навыки.

TGI — Text Generation Inference: установка, настройка и устранение неполадок

TGI — Text Generation Inference: установка, настройка и устранение неполадок

Установите TGI, развертывайте быстро, отлаживайте ещё быстрее.

Text Generation Inference (TGI) обладает очень специфической энергетикой. Это не самый новый проект на улице инференса, но это тот, который уже научился, как происходит работа в продакшене, —

Бенчмарки LLM с 16 ГБ VRAM с использованием llama.cpp (скорость и контекст)

Бенчмарки LLM с 16 ГБ VRAM с использованием llama.cpp (скорость и контекст)

Скорость генерации токенов llama.cpp на 16 ГБ видеопамяти (таблицы).

Здесь я сравниваю скорость нескольких больших языковых моделей (LLM), работающих на видеокарте с 16 ГБ видеопамяти, и выбираю лучшую для локального развертывания.

Удалённый доступ к Ollama через Tailscale или WireGuard без открытия публичных портов.

Удалённый доступ к Ollama через Tailscale или WireGuard без открытия публичных портов.

Доступ к Ollama удаленно без открытых публичных портов

Ollama чувствует себя наиболее комфортно, когда с ним обращаются как с локальным демоном: CLI и ваши приложения взаимодействуют с локальным HTTP-интерфейсом (loopback), а остальная сеть даже не знает о его существовании.

Структурированное логирование в Go с использованием slog для наблюдаемости и оповещений

Структурированное логирование в Go с использованием slog для наблюдаемости и оповещений

Запросимые JSON-логи, связанные с трассировками.

Логи — это интерфейс отладки, который всё ещё можно использовать, когда система горит. Проблема в том, что обычные текстовые логи со временем становятся неэффективными: как только вам понадобится фильтрация, агрегация и оповещения, вы начинаете разбирать предложения по словам.

Ollama в Docker Compose с использованием GPU и постоянным хранилищем моделей

Ollama в Docker Compose с использованием GPU и постоянным хранилищем моделей

Ollama-сервер с приоритетом композинга, поддержкой GPU и сохранением состояния.

Ollama отлично работает на «голом» железе. Но становится еще интереснее, если рассматривать его как сервис: стабильный конечный пункт, зафиксированные версии, постоянное хранилище данных и GPU, который либо доступен, либо нет.

Ollama за обратным прокси-сервером Caddy или Nginx для потоковой передачи через HTTPS

Ollama за обратным прокси-сервером Caddy или Nginx для потоковой передачи через HTTPS

HTTPS для Ollama без нарушения потоковой передачи ответов.

Запуск Ollama через обратный прокси — самый простой способ обеспечить поддержку HTTPS, опциональный контроль доступа и предсказуемое поведение потоковой передачи данных.

Подписаться

Получайте новые материалы про системы, инфраструктуру и AI engineering.