Att skriva effektiva promptar för LLMs
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.
Kräver lite experimenterande men
Även om det finns några vanliga metoder för att skriva bra instruktioner så att LLM inte blir förvirrad när den försöker förstå vad du vill ha av den.
8 versioner av llama3 (Meta+) och 5 versioner av phi3 (Microsoft) LLM
Testar hur modeller med olika antal parametrar och kvantisering beter sig.
Filer för Ollama LLM-modeller tar mycket plats
Efter installation av ollama är det bättre att konfigurera om ollama för att lagra dem på nytt plats direkt. Så när vi hämtar en ny modell, laddas den inte ner till den gamla platsen.
Låt oss testa hastigheten på LLMs på GPU jämfört med CPU
Jämför prediktionshastighet för flera versioner av LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) på CPU och GPU.
Låt oss testa kvaliteten på logiska felslutdetektering hos olika LLMs
Här jämför jag flera LLM-versioner: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) och Qwen (Alibaba).