AI

Jak Ollama Obsługuje Wątki Równoległe

Jak Ollama Obsługuje Wątki Równoległe

Konfiguracja ollama do wykonywania równoległych żądań.

Gdy serwer Ollama otrzymuje dwa żądania jednocześnie, jego zachowanie zależy od konfiguracji i dostępnych zasobów systemowych.

Testowanie Deepseek-R1 na Ollama

Testowanie Deepseek-R1 na Ollama

Porównanie dwóch modeli deepseek-r1 z dwoma modelami bazowymi

Modeli DeepSeek pierwszego pokolenia z wydajnością porównywalną do modeli OpenAI-o1, w tym sześć gęstych modeli oddestylowanych z DeepSeek-R1 opartych na Llama i Qwen.

Hostowanie Perplexica z wykorzystaniem Ollama

Hostowanie Perplexica z wykorzystaniem Ollama

Czy uruchamiasz lokalnie usługę w stylu Copilot? To proste!

To jest bardzo ekscytujące! Zamiast korzystać z Copilota lub perplexity.ai i informować cały świat o swoich potrzebach, możesz teraz hostować podobną usługę na własnym komputerze lub laptopie!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testowanie wykrywania błędnego rozumowania

Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Zróbmy test i zobaczmy, jak działają, gdy wykrywają błędy logiczne.

Napisywanie skutecznych promptów dla LLMs

Napisywanie skutecznych promptów dla LLMs

Wymaga pewnego doświadczenia, ale

Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.