Qwen3-inbäddnings- och omklassificeringsmodeller på Ollama: branschledande prestanda

Nya fantastiska LLM:er tillgängliga i Ollama

Sidinnehåll

Qwen3-inkapslings- och omklassificeringsmodeller är de senaste tillägg i Qwen-familjen, specifikt utformade för avancerade uppgifter inom textinkapsling, hämtning och omklassificering (reranking).

Ögonfröjd Qwen3 Embedding Reranker Context length and embedding dimensions

Qwen3-inkapslings- och omklassificeringsmodellerna representerar en betydande framsteg inom flerspråkig bearbetning av naturligt språk (NLP) och erbjuder branschledande prestanda i uppgifter för textinkapsling och omklassificering. Dessa modeller, som är en del av Qwen-serien utvecklad av Alibaba, är designade för att stödja ett brett spektrum av tillämpningar, från semantisk hämtning till kodsökning. Denna typ av inkapslingskapabilitet är grundläggande för att bygga effektiva RAG-system, vilket behandlas i detalj i Vägledning för Retrieval-Augmented Generation (RAG): Arkitektur, Implementering och Produktionsguide. Även om Ollama är en populär öppen källkodsplattform för att värdshålla och distribuera stora språkmodeller (LLM), är integrationen av Qwen3-modeller med Ollama inte explicit detaljerad i officiell dokumentation. Modellerna är dock tillgängliga via Hugging Face, GitHub och ModelScope, vilket möjliggör potentiell lokal distribution genom Ollama eller liknande verktyg.

Exempel på användning av dessa modeller

Se exempelkod på Go som använder ollama med dessa modeller:

Översikt över nya Qwen3-inkapslings- och omklassificeringsmodeller på Ollama

Dessa modeller är nu tillgängliga för distribution på Ollama i olika storlekar och erbjuder branschledande prestanda och flexibilitet för ett brett spektrum av språk- och kodrelaterade tillämpningar.

Nyckelfunktioner och möjligheter

  • Modellstorlekar och flexibilitet

    • Tillgängliga i flera storlekar: 0,6B, 4B och 8B parametrar för både inkapsling och omklassificering.
    • 8B-inkapslingsmodellen rankas för närvarande som nummer 1 på MTEB:s flerspråkiga ledarlista (per den 5 juni 2025, med ett poäng på 70,58).
    • Stöder ett utbud av kvantiseringsalternativ (Q4, Q5, Q8 etc.) för att balansera prestanda, minnesanvändning och hastighet. Q5_K_M rekommenderas för de flesta användare eftersom den bevarar mestadels modellens prestanda samtidigt som den är resurseffektiv.
  • Arkitektur och träning

    • Byggd på Qwen3-grundval och utnyttjar både dual-encoder (för inkapsling) och cross-encoder (för omklassificering) arkitekturer.
    • Inkapslingsmodell: Bearbetar enskilda textsegment och extraherar semantiska representationer från det slutgiltiga dolda tillståndet.
    • Omklassificeringsmodell: Tar emot textpar (t.ex. fråga och dokument) och ger ett relevanspoäng med en cross-encoder-metod.
    • Inkapslingsmodeller använder en trestegs träningsparadigm: kontrastiv förträning, övervakad träning med högkvalitativa data och modellfusion för optimal generalisering och anpassningsförmåga.
    • Omklassificeringsmodeller tränas direkt med högkvalitativa märkta data för effektivitet och verkan.
  • Stöd för flera språk och uppgifter

    • Stöder över 100 språk, inklusive programmeringsspråk, vilket möjliggör robusta flerspråkiga, krosspråkliga och kodbaserade hämtningskapabiliteter.
    • Inkapslingsmodeller tillåter flexibla vektordefinitioner och användardefinierade instruktioner för att anpassa prestanda för specifika uppgifter eller språk.
    • För tillämpningar som kräver multimodala förmågor utöver text, se Cross-Modal Embeddings: Att brygga AI-modaliteter.
  • Prestanda och användningsområden

    • Branschledande resultat inom texthämtning, kodhämtning, klassificering, klusteranalys och bitext-mining.
    • Omklassificeringsmodeller excellerar i olika texthämtningsscenarier och kan sömlöst kombineras med inkapslingsmodeller för end-to-end hämtningspipelinear.

Hur man använder på Ollama

Du kan köra dessa modeller på Ollama med kommandon som:

ollama run dengcao/Qwen3-Embedding-8B:Q5_K_M
ollama run dengcao/Qwen3-Reranker-0.6B:F16

Välj kvantiseringsversionen som bäst passar din hårdvara och dina prestandabehov.


Uppdatering december 2025: Ollama tillhandahåller nu standard Qwen3-inkapslingsmodeller från sitt eget repo, inte dengcaos:

ollama pull qwen3-embedding:8b
ollama pull qwen3-embedding:4b

Se mer: https://ollama.com/library/qwen3-embedding

Sammanfattande tabell

Modelltyp Tillgängliga storlekar Nyckelstyrkor Flerspråkigt stöd Kvantiseringsalternativ
Inkapsling 0,6B, 4B, 8B Topp MTEB-poäng, flexibel, effektiv, SOTA Ja (100+ språk) Q4, Q5, Q6, Q8 etc.
Omklassificering 0,6B, 4B, 8B Excellerar i textparrelevans, effektiv, flexibel Ja F16, Q4, Q5 etc.

Fantastiskt nytt!

Qwen3-inkapslings- och omklassificeringsmodellerna på Ollama representerar ett betydande hopp i flerspråkiga, fleroppgiftsrelaterade text- och kodhämtningskapabiliteter. Med flexibla distributionsalternativ, stark benchmark-prestanda och stöd för ett brett utbud av språk och uppgifter är de väl lämpade för både forsknings- och produktionsmiljöer.

Modellzoo - ögonfröjd nu

Qwen3 Inkapsling

https://ollama.com/dengcao/Qwen3-Embedding-8B

Qwen3 Embedding 8b

https://ollama.com/dengcao/Qwen3-Embedding-4B/tags

Qwen3 Embedding 4b

https://ollama.com/dengcao/Qwen3-Embedding-0.6B/tags

Qwen3 Embedding 0.6b

Qwen3 Omklassificering

https://ollama.com/dengcao/Qwen3-Reranker-8B

Qwen3 Reranker 8b

dengcao/Qwen3-Reranker-8B:Q3_K_M
dengcao/Qwen3-Reranker-8B:Q5_K_M

https://ollama.com/dengcao/Qwen3-Reranker-4B/tags

dengcao/Qwen3-Reranker-4B:Q5_K_M

Qwen3-Reranker-4B

https://ollama.com/dengcao/Qwen3-Reranker-0.6B/tags

Qwen3-Reranker-0.6B

Fint!

Nyttiga länkar