Cloud LLM-aanbieders
Korte lijst van LLM-anbieders
Het gebruik van LLMs is niet erg duur, er is mogelijk geen behoefte om een nieuw geweldige GPU aan te schaffen.
Hier is een lijst met LLM providers in de cloud met LLMs die ze hosten.
Korte lijst van LLM-anbieders
Het gebruik van LLMs is niet erg duur, er is mogelijk geen behoefte om een nieuw geweldige GPU aan te schaffen.
Hier is een lijst met LLM providers in de cloud met LLMs die ze hosten.
Vergelijking van twee deepseek-r1-modellen met twee basismodellen
DeepSeek’s eerste generatie redeneingsmodellen met vergelijkbare prestaties als OpenAI-o1, waaronder zes dichte modellen gedistilleerd van DeepSeek-R1 gebaseerd op Llama en Qwen.
Bijgewerkte lijst met Ollama-opdrachten - ls, ps, run, serve, enz.
Deze Ollama CLI cheat sheet richt zich op de opdrachten die je elke dag gebruikt (ollama ls, ollama serve, ollama run, ollama ps, modelbeheer en veelvoorkomende workflows), met voorbeelden die je kunt kopiëren/pasten.
Een copilot-stijl service lokaal uitvoeren? Eenvoudig!
Dat is erg opwindend!
In plaats van copilot of perplexity.ai aan te roepen en aan de hele wereld te vertellen wat je zoekt,
kan je nu een soortgelijk dienst op je eigen PC of laptop hosten!
Ollama LLM-modelbestanden nemen veel ruimte in beslag
Na het installeren van ollama is het beter om ollama direct te herconfigureren om ze op een nieuwe plek op te slaan. Zo wordt er na het ophalen van een nieuw model niet naar de oude locatie gedownload.