LLM

Assistant IA Hermes - Installation, Configuration, Flux de Travail et Dépannage

Assistant IA Hermes - Installation, Configuration, Flux de Travail et Dépannage

Installation et prise en main rapide de l'agent Hermes pour les développeurs

L’agent Hermes est un assistant IA auto-hébergé et agnostique au modèle qui s’exécute sur une machine locale ou un VPS à bas coût, fonctionne via des interfaces de terminal et de messagerie, et s’améliore avec le temps en transformant les tâches répétitives en compétences réutilisables.

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Ollama dans Docker Compose avec GPU et stockage persistant des modèles

Serveur Ollama orienté composition, avec GPU et persistance.

Ollama fonctionne parfaitement sur du matériel nu. Cela devient encore plus intéressant lorsque vous le traitez comme un service : une extrémité stable, des versions figées, un stockage persistant et une GPU qui est soit disponible, soit non.

Embeddings de texte pour RAG et recherche - Python, Ollama, API compatibles OpenAI

Embeddings de texte pour RAG et recherche - Python, Ollama, API compatibles OpenAI

Intégration RAG - Python, Ollama, API OpenAI.

Si vous travaillez sur la génération augmentée par récupération (RAG), cette section explique les incorporations de texte (text embeddings) en termes simples : ce qu’elles sont, comment elles s’intègrent dans la recherche et la récupération, et comment appeler deux configurations locales courantes depuis Python en utilisant Ollama ou une API HTTP compatible OpenAI (comme le font de nombreux serveurs basés sur llama.cpp).