Comparando las capacidades de resumen de los LLM
8 versiones de llama3 (Meta+) y 5 versiones de phi3 (Microsoft)
Prueba de cómo se comportan los modelos con diferentes números de parámetros y cuantización.
8 versiones de llama3 (Meta+) y 5 versiones de phi3 (Microsoft)
Prueba de cómo se comportan los modelos con diferentes números de parámetros y cuantización.
Los archivos de modelos LLM de Ollama ocupan mucho espacio.
Después de instalar Ollama, es mejor reconfigurar Ollama para que los almacene en la nueva ubicación de inmediato. Así, cuando descargamos un nuevo modelo, no se descarga en la ubicación antigua.
Probemos la velocidad de los LLM en GPU frente a CPU
Comparando la velocidad de predicción de varias versiones de LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (open source) en CPU y GPU.
Probemos la calidad de detección de falacias lógicas de diferentes LLMs
Aquí estoy comparando varias versiones de LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) y Qwen (Alibaba).