
Ollama Cheatsheet
Złożyłem kilka w przyszłość...
Oto lista i przykłady najbardziej przydatnych poleceń Ollama (arkusz poleceń Ollama) Zgromadziłem je kilka czasów temu. Mam nadzieję, że będzie on przydatny dla Ciebie.
Złożyłem kilka w przyszłość...
Oto lista i przykłady najbardziej przydatnych poleceń Ollama (arkusz poleceń Ollama) Zgromadziłem je kilka czasów temu. Mam nadzieję, że będzie on przydatny dla Ciebie.
Następny etap testów LLM
Nieco wcześniej wydano. Przejdźmy do rzeczy i
testuj jak Mistral Small poradzi sobie w porównaniu do innych LLM.
Kod Pythona do ponownego rangowania RAG'a
Świetny nowy model AI do generowania obrazu na podstawie tekstu
Niedawno Black Forest Labs opublikowała zestaw modeli AI tekst-do-obrazu text-to-image AI models.
Te modele mają być znane z znacznie wyższej jakości wyjściowych obrazów.
Spróbujmy ich
Porównanie dwóch samodzielnie hostowanych silników wyszukiwania AI
Świetna jedzenie to przyjemność dla oczu również. Ale w tym poście porównamy dwa systemy wyszukiwania oparte na AI, Farfalle i Perplexica.
Uruchamianie lokalnego usługi w stylu Copilot? Łatwe!
To bardzo ekscytujące! Zamiast wołać copilot lub perplexity.ai i opowiadać światu, czego szukasz, teraz możesz uruchomić podobną usługę na własnym komputerze lub laptopie!
Testowanie wykrywania błędnego rozumowania
Niedawno widzieliśmy kilka nowych LLM, które zostały wydane. Wspaniałe czasy. Sprawdźmy i zobaczmy, jak działają, gdy wykrywają błędy logiczne.
Nieco mniej do wyboru, ale nadal...
Kiedy zacząłem eksperymentować z LLM, interfejsy do nich były w aktywnym rozwoju, a teraz niektóre z nich są naprawdę dobre.
Wymaga pewnego doświadczenia, ale
Nadal istnieją pewne powszechne podejścia do pisania dobrych promptów, dzięki czemu LLM nie będzie się pogubił, próbując zrozumieć, czego od niego oczekujesz.
Często potrzebne fragmenty kodu w Pythonie
Czasami potrzebne są one natychmiast, ale nie da się ich znaleźć od razu.
Dlatego trzymam je wszystkie tutaj.
Etykietowanie i trening wymaga pewnego stopnia łączenia
Kiedyś treningowałem detektor AI obiektów – LabelImg był bardzo pomocnym narzędziem, ale eksport z Label Studio do formatu COCO nie był akceptowany przez framework MMDetection..
8 wersji llama3 (Meta+) i 5 wersji phi3 (Microsoft) LLM
Testowanie działania modeli o różnej liczbie parametrów i stopniu kwantyzacji.
Pliki modeli LLM Ollama zajmują dużo miejsca.
Po zainstalowaniu ollama lepiej jest natychmiast skonfigurować Ollama, aby przechowywać je w nowym miejscu. Wtedy, gdy pobieramy nowy model, nie zostaje on pobrany do starego lokalizacji.
Sprawdźmy prędkość LLM na GPU vs CPU
Porównanie prędkości przewidywania kilku wersji modeli językowych (LLM): llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) na procesorze (CPU) i karcie graficznej (GPU).
Sprawdźmy jakość wykrywania błędów logicznych przez różne LLM-y
Oto porównanie kilku wersji LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) oraz Qwen (Alibaba).