Cloud LLM-aanbieders
Korte lijst van LLM-anbieders
Het gebruik van LLMs is niet erg duur, er is mogelijk geen behoefte om een nieuw geweldige GPU aan te schaffen.
Hier is een lijst met LLM providers in de cloud met LLMs die ze hosten.
Korte lijst van LLM-anbieders
Het gebruik van LLMs is niet erg duur, er is mogelijk geen behoefte om een nieuw geweldige GPU aan te schaffen.
Hier is een lijst met LLM providers in de cloud met LLMs die ze hosten.
Ollama op Intel CPU: Efficiëntie versus prestatiescores
Ik heb een theorie om te testen - als we alle kernen op een Intel CPU gebruiken, zou dat de snelheid van LLMs verhogen? Het irriteert me dat de nieuwe gemma3 27 bit model (gemma3:27b, 17 GB op ollama) niet in de 16 GB VRAM van mijn GPU past en gedeeltelijk op de CPU draait.
AI vereist veel kracht...
In het midden van de moderne wereld’s onrust ben ik tech specs van verschillende kaarten vergelijken die geschikt zijn voor AI taken (Deep Learning, Object Detection en LLMs). Ze zijn allemaal ongelooflijk duur.
Ollama configureren voor het uitvoeren van parallelle aanvragen.
Wanneer de Ollama-server twee aanvragen tegelijkertijd ontvangt, hangt het gedrag ervan af van de configuratie en de beschikbare systeemresources.
AI-gestuurde codering waarbij je beschrijft in plaats van typt.
Vibe coding is een door AI gedreven programmeeraanpak waarbij ontwikkelaars de gewenste functionaliteit in natuurlijke taal beschrijven en AI-tools de code automatisch genereren — met minimaal direct schrijven.
Vergelijking van twee deepseek-r1-modellen met twee basismodellen
DeepSeek’s eerste generatie redeneingsmodellen met vergelijkbare prestaties als OpenAI-o1, waaronder zes dichte modellen gedistilleerd van DeepSeek-R1 gebaseerd op Llama en Qwen.
Bijgewerkte Ollama-commandolijst - ls, ps, run, serve, enz.
Deze Ollama CLI-cheat sheet richt zich op de commando’s die je dagelijks gebruikt (ollama ls, ollama serve, ollama run, ollama ps, modelbeheer en veelvoorkomende workflows), met voorbeelden die je kunt kopiëren en plakken.
Volgende ronde LLM-tests
Niet zo lang geleden is vrijgegeven. Laten we even op de hoogte komen en test hoe Mistral Small presteert vergeleken met andere LLMs.
Een Python-code voor het herschikken van RAG.
Innovatief nieuw AI-model om afbeeldingen te genereren op basis van tekst
Recentie Black Forest Labs heeft een set van tekst-naar-afbeelding AI-modellen gepubliceerd. Deze modellen worden gezegd te hebben veel hogere uitvoerkwaliteit. Laten we ze uitproberen
Twee zelfgehoste AI-zoekmachines vergeleken
Geweldige eten is ook een plezier voor de ogen. Maar in dit bericht vergelijken we twee op AI gebaseerde zoeksystemen: Farfalle en Perplexica.
Lokale uitvoering van een Copilot-stijl service? Gemakkelijk!
Dat is erg spannend! In plaats van Copilot of perplexity.ai aan te roepen en de hele wereld te vertellen wat je zoekt, kun je nu een vergelijkbare dienst op je eigen PC of laptop hosten!
Testen van het detecteren van logische fouten
Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.
8 llama3 (Meta+) en 5 phi3 (Microsoft) LLM-versies
Testen hoe modellen met een verschillend aantal parameters en kwantificatie zich gedragen.
Ollama LLM-modelbestanden nemen veel ruimte in beslag.
Na het installeren van Ollama is het beter om Ollama direct opnieuw te configureren om de modellen op een nieuwe locatie op te slaan. Zodat wanneer we een nieuw model ophalen, deze niet naar de oude locatie wordt gedownload.