Farfalle vs Perplexica

Farfalle vs Perplexica

Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI

Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.

Autonomiczne hostowanie Perplexica z użyciem Ollama

Autonomiczne hostowanie Perplexica z użyciem Ollama

Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!

To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!

Interfejsy LLM

Interfejsy LLM

Nieco mniej do wyboru, ale nadal...

Kiedy zacząłem eksperymentować z LLM, interfejsy do nich były w aktywnym rozwoju, a teraz niektóre z nich są naprawdę dobre.

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Testowanie wykrywania błędnego rozumowania

Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Sprawdźmy i zobaczmy, jak działają, gdy wykrywają błędy logiczne.

Napisywanie skutecznych promptów dla LLMs

Napisywanie skutecznych promptów dla LLMs

Wymaga pewnego doświadczenia, ale

Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.

Python Cheat Sheet

Python Cheat Sheet

Często potrzebne fragmenty kodu w Pythonie

Czasami potrzebne są one natychmiast, ale nie da się ich znaleźć od razu.
Dlatego trzymam je wszystkie tutaj.

Przenieś modele Ollama do innego miejsca

Przenieś modele Ollama do innego miejsca

Pliki modeli LLM Ollama zajmują dużo miejsca.

Po zainstalowaniu ollama lepiej jest natychmiast skonfigurować Ollama, aby przechowywać je w nowym miejscu. Wtedy, gdy pobieramy nowy model, nie zostaje on pobrany do starego lokalizacji.