Modelos de incrustación y reordenación de Qwen3 en Ollama: rendimiento de vanguardia

Nuevos modelos LLM impresionantes disponibles en Ollama

Índice

Los modelos de incrustación y reordenamiento de Qwen3 son las últimas versiones lanzadas en la familia Qwen, especialmente diseñados para tareas avanzadas de incrustación de texto, recuperación y reordenamiento.

Alegría para la vista Longitud de contexto e dimensiones de incrustación de Qwen3 Embedding Reranker

Los modelos de incrustación y reordenamiento de Qwen3 representan un avance significativo en el procesamiento de lenguaje natural (NLP) multilingüe, ofreciendo un rendimiento de vanguardia en tareas de incrustación y reordenamiento de texto. Estos modelos, parte de la serie Qwen desarrollada por Alibaba, están diseñados para admitir una amplia gama de aplicaciones, desde la recuperación semántica hasta la búsqueda de código. Mientras que Ollama es una plataforma de código abierto popular para alojar y desplegar modelos de lenguaje grandes (LLMs), la integración de los modelos Qwen3 con Ollama no se detalla explícitamente en la documentación oficial. Sin embargo, los modelos están disponibles a través de Hugging Face, GitHub y ModelScope, permitiendo un posible despliegue local mediante Ollama u herramientas similares.

Ejemplos usando estos modelos

Por favor, consulte el código de ejemplo en Go usando ollama con estos modelos:

Visión general de los nuevos modelos de incrustación y reordenamiento de Qwen3 en Ollama

Estos modelos ahora están disponibles para su despliegue en Ollama en varios tamaños, ofreciendo un rendimiento de vanguardia y flexibilidad para una amplia gama de aplicaciones relacionadas con el lenguaje y el código.

Funciones y capacidades clave

  • Tamaños del modelo y flexibilidad

    • Disponibles en varios tamaños: 0.6B, 4B y 8B de parámetros para tareas de incrustación y reordenamiento.
    • El modelo de incrustación de 8B actualmente ocupa el primer lugar en la tabla de clasificación multilingüe MTEB (hasta el 5 de junio de 2025, con una puntuación de 70.58).
    • Soporta una gama de opciones de cuantización (Q4, Q5, Q8, etc.) para equilibrar el rendimiento, el uso de memoria y la velocidad. Q5_K_M se recomienda para la mayoría de los usuarios, ya que preserva la mayor parte del rendimiento del modelo mientras es eficiente en recursos.
  • Arquitectura y entrenamiento

    • Construidos sobre la base Qwen3, aprovechando tanto la arquitectura dual-encoder (para incrustaciones) como la arquitectura cross-encoder (para reordenamiento).
    • Modelo de incrustación: Procesa segmentos de texto individuales, extrayendo representaciones semánticas del estado oculto final.
    • Modelo de reordenamiento: Toma pares de texto (por ejemplo, consulta y documento) y genera una puntuación de relevancia utilizando un enfoque cross-encoder.
    • Los modelos de incrustación utilizan un paradigma de entrenamiento en tres etapas: preentrenamiento contrastivo, entrenamiento supervisado con datos de alta calidad y fusión de modelos para una generalización y adaptabilidad óptimas.
    • Los modelos de reordenamiento se entrenan directamente con datos etiquetados de alta calidad para eficiencia y efectividad.
  • Soporte multilingüe y multitarea

    • Soporta más de 100 idiomas, incluyendo lenguajes de programación, permitiendo capacidades robustas de recuperación multilingüe, translingüe y de código.
    • Los modelos de incrustación permiten definiciones flexibles de vectores y instrucciones definidas por el usuario para adaptar el rendimiento a tareas o idiomas específicos.
  • Rendimiento y casos de uso

    • Resultados de vanguardia en recuperación de texto, recuperación de código, clasificación, agrupamiento y minería de textos paralelos.
    • Los modelos de reordenamiento destacan en varios escenarios de recuperación de texto y pueden combinarse de forma fluida con modelos de incrustación para pipelines de recuperación end-to-end.

Cómo usar en Ollama

Puedes ejecutar estos modelos en Ollama con comandos como:

ollama run dengcao/Qwen3-Embedding-8B:Q5_K_M
ollama run dengcao/Qwen3-Reranker-0.6B:F16

Elige la versión de cuantización que mejor se adapte a tus necesidades de hardware y rendimiento.


Tabla resumen

Tipo de modelo Tamaños disponibles Fortalezas clave Soporte multilingüe Opciones de cuantización
Incrustación 0.6B, 4B, 8B Puntuaciones de MTEB de primer nivel, flexibles, eficientes, de vanguardia Sí (100+ idiomas) Q4, Q5, Q6, Q8, etc.
Reordenamiento 0.6B, 4B, 8B Destacan en la relevancia de pares de texto, eficientes, flexibles F16, Q4, Q5, etc.

Noticia increíble!

Los modelos de incrustación y reordenamiento de Qwen3 en Ollama representan un salto significativo en las capacidades de recuperación de texto y código multilingüe y multitarea. Con opciones de despliegue flexibles, un rendimiento sólido en benchmarks y soporte para una amplia gama de idiomas y tareas, están bien adaptados para entornos de investigación y producción.

Zoológico de modelos - placer para la vista ahora

Qwen3 Embedding

https://ollama.com/dengcao/Qwen3-Embedding-8B

Qwen3 Embedding 8b

https://ollama.com/dengcao/Qwen3-Embedding-4B/tags

Qwen3 Embedding 4b

https://ollama.com/dengcao/Qwen3-Embedding-0.6B/tags

Qwen3 Embedding 0.6b

Qwen3 Reranker

https://ollama.com/dengcao/Qwen3-Reranker-8B

Qwen3 Reranker 8b

dengcao/Qwen3-Reranker-8B:Q3_K_M
dengcao/Qwen3-Reranker-8B:Q5_K_M

https://ollama.com/dengcao/Qwen3-Reranker-4B/tags

dengcao/Qwen3-Reranker-4B:Q5_K_M

Qwen3-Reranker-4B

https://ollama.com/dengcao/Qwen3-Reranker-0.6B/tags

Qwen3-Reranker-0.6B

¡Genial!

Enlaces útiles