LLM

Hermes AI-assistent: installeren, instellen, workflow en probleemoplossing

Hermes AI-assistent: installeren, instellen, workflow en probleemoplossing

Installatie en quickstart van de Hermes Agent voor ontwikkelaars

Hermes Agent is een zelfgehoste, model-onafhankelijke AI-assistent die lokaal op een machine of een goedkope VPS draait, werkt via terminal- en messaginginterfaces en in de loop van de tijd verbetert door herhaalde taken om te zetten in herbruikbare vaardigheden.

Ollama in Docker Compose met GPU en persistente modelopslag

Ollama in Docker Compose met GPU en persistente modelopslag

Componeren-als-basis Ollama-server met GPU en persistentie.

Ollama werkt uitstekend op bare metal. Het wordt nog interessanter wanneer je het als een service behandelt: een stabiel eindpunt, vastgezet versies, persistente opslag en een GPU die ofwel beschikbaar is of niet.