AI

Die Erstellung effektiver Prompts für LLMs

Die Erstellung effektiver Prompts für LLMs

Erfordert etwas Experimentieren, aber

Es gibt dennoch einige gängige Ansätze, um gute Prompts zu formulieren, damit LLMs nicht durcheinanderkommen, wenn sie versuchen zu verstehen, was man von ihnen möchte.

Großsprachmodell-Performance-Test

Großsprachmodell-Performance-Test

Testen wir die Geschwindigkeit der LLMs auf GPU im Vergleich zu CPU

Vergleich der Vorhersagegeschwindigkeit verschiedener Versionen von LLMs: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (Open Source) auf CPU und GPU.

Logische Fehlschlusserkennung mit LLMs

Logische Fehlschlusserkennung mit LLMs

Lassen Sie uns die Qualität der logischen Trugschlusserkennung verschiedener LLMs testen

Vergleich mehrerer Versionen von LLMs: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (Open Source) und qwen (Alibaba).