Systèmes d'IA : assistants auto-hébergés, RAG et infrastructure locale
La plupart des configurations locales d’IA commencent par un modèle et un temps d’exécution.
La plupart des configurations locales d’IA commencent par un modèle et un temps d’exécution.
Guide de l'assistant AI OpenClaw
La plupart des configurations d’IA locales commencent de la même manière : un modèle, un runtime et une interface de chat.
Installez OpenClaw localement avec Ollama
OpenClaw est un assistant IA auto-hébergé conçu pour fonctionner avec des runtimes locaux de LLM comme Ollama ou avec des modèles basés en nuage tels que Claude Sonnet.