Confronto delle capacità di sintesi degli LLM
8 versioni di llama3 (Meta+) e 5 versioni di phi3 (Microsoft) LLM
Testare come si comportano i modelli con diverso numero di parametri e quantizzazione.
8 versioni di llama3 (Meta+) e 5 versioni di phi3 (Microsoft) LLM
Testare come si comportano i modelli con diverso numero di parametri e quantizzazione.
I file dei modelli LLM di Ollama occupano molto spazio.
Dopo aver installato ollama, è meglio riconfigurare Ollama per memorizzarli subito in un nuovo luogo. In questo modo, dopo aver scaricato un nuovo modello, non verrà scaricato nella posizione vecchia.
Verifichiamo la velocità degli LLM su GPU rispetto al CPU
Confronto della velocità di previsione di diverse versioni degli LLM (Large Language Models): llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) su CPU e GPU.
Verifichiamo la qualità del rilevamento delle fallacie logiche di diversi LLM
Ecco qui che confronto diverse versioni di LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) e Qwen (Alibaba).