Vergelijking AI-code-assistenten
Cursor AI versus GitHub Copilot versus Cline AI versus...
Hier vindt u een overzicht van enkele AI-gestuurde programmeringstools en hun vooruitvoordelen:
Cursor AI versus GitHub Copilot versus Cline AI versus...
Hier vindt u een overzicht van enkele AI-gestuurde programmeringstools en hun vooruitvoordelen:
Korte lijst van LLM-anbieders
Het gebruik van LLMs is niet erg duur, er is mogelijk geen behoefte om een nieuw geweldige GPU te kopen.
Hier is een lijst met LLM providers in de cloud die LLMs hosten.
Ollama op Intel CPU: Efficiëntie versus prestatie-kernen
Ik heb een theorie om te testen – als we alle kernen op een Intel CPU gebruiken, verhoogt dat de snelheid van LLMs? Het irriteert me dat de nieuwe gemma3 27 bit model (gemma3:27b, 17 GB op ollama) niet past in de 16 GB VRAM van mijn GPU en gedeeltelijk op de CPU draait.
AI vereist veel kracht...
In het midden van de moderne wereld’s onrust ben ik tech specs van verschillende kaarten vergelijken die geschikt zijn voor AI taken (Deep Learning, Object Detectie en LLMs). Ze zijn allemaal enorm duur, echter.
Het configureren van ollama voor het uitvoeren van parallelle aanvragen.
Wanneer de Ollama-server twee aanvragen tegelijkertijd ontvangt, hangt het gedrag ervan af van de configuratie en de beschikbare systeemresources.
Wat is deze trendy AI-ondersteunde programmeertaal?
Vibe coding is een AI-gestuurde programmeerbenadering waarbij ontwikkelaars gewenste functionaliteit beschrijven in natuurlijke taal, waardoor AI-tools automatisch code kunnen genereren.
Het vergelijken van twee deepseek-r1-modellen met twee basismodellen
DeepSeek’s eerste generatie redeneingsmodellen met vergelijkbare prestaties als OpenAI-o1, waaronder zes dichte modellen gedistilleerd van DeepSeek-R1 op basis van Llama en Qwen.
Deze lijst met Ollama-commands heb ik enige tijd geleden samengesteld...
Hier is de lijst en voorbeelden van de meest nuttige Ollama-commands (Ollama commands cheatsheet) Ik componeerde deze lijst enkele tijd geleden, laatst bijgewerkt in januari 2026. Hopelijk is het ook nuttiig voor jou.
Volgende ronde LLM-tests
Niet zo lang geleden is vrijgegeven. Laten we even opschieten en test hoe Mistral Small presteert vergeleken met andere LLMs.
Een Python-code voor het herordenen van RAG
Innovatief nieuw AI-model om afbeeldingen te genereren op basis van tekst
Recentie Black Forest Labs heeft een set van tekst-naar-afbeelding AI-modellen gepubliceerd. Deze modellen worden gezegd te hebben veel hogere uitvoerkwaliteit. Laten we ze uitproberen
Een vergelijking van twee zelfgehoste AI zoekmachines
Prachtige voedsel is ook een genot voor de ogen. Maar in dit bericht vergelijken we twee AI-gebaseerde zoeksystemen, Farfalle en Perplexica.
Een copilot-stijl service lokaal uitvoeren? Eenvoudig!
Dat is zeer opwindend! In plaats van copilot of perplexity.ai aan te roepen en aan het hele wereldje te vertellen wat je zoekt, kan je nu een soortgelijk dienst op je eigen PC of laptop hosten!
Testen van het detecteren van logische fouten
Onlangs hebben we meerdere nieuwe LLMs gezien die zijn vrijgegeven. Opwindende tijden. Laten we testen en zien hoe ze presteren bij het detecteren van logische fouten.
Niet zo veel om uit te kiezen, maar toch...
Toen ik begon met het experimenteren met LLMs waren de UIs voor hen actief in ontwikkeling en nu zijn sommige van hen echt goed.
Een beetje experimenteren vereist maar
Er zijn nog steeds enkele veelvoorkomende aanpakken om goede prompts te schrijven, zodat LLM’s niet in de war raken bij het begrijpen van wat je van hen wilt.