LLM

Hugoページ翻訳品質の比較 - Ollama上のLLM

Hugoページ翻訳品質の比較 - Ollama上のLLM

qwen3 8b、14bおよび30b、devstral 24b、mistral small 24b

このテストでは、Ollama上でホストされているさまざまなLLMがHugoページを英語からドイツ語に翻訳する方法を比較しています([英語からドイツ語へのHugoページの翻訳の比較](https://www.glukhov.org/ja/post/2025/06/translation-quality-comparison-llms-on-ollama/ “英語からドイツ語へのHugoページの翻訳の比較”)。

テストした3つのページは、異なるトピックについており、いくつかの構造を持つマークダウンがありました:見出し、リスト、テーブル、リンクなど。

検索 vs ディープサーチ vs ディープリサーチ

検索 vs ディープサーチ vs ディープリサーチ

どれほど違いがあるのでしょうか?

  • 検索は、キーワードを使用して情報を迅速かつ直接的に検索するのに最適です。
  • Deep Search は、文脈や意図を理解し、複雑なクエリに対してより関連性が高く、包括的な結果を提供する点で優れています。
クラウドLLMプロバイダーズ

クラウドLLMプロバイダーズ

LLMプロバイダーの短いリスト

LLMを使用することは非常に費用が高くないため、新しい高性能なGPUを購入する必要があるとは限りません。
LLMを提供しているクラウド上のプロバイダーのリストはこちら: LLMプロバイダー一覧

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

インテルCPUにおけるOllamaの効率コアとパフォーマンスコアの比較

私は理論をテストしたいと思っています - すべてのコアをIntel CPUで使用するとLLMの速度が上がるか?
新しいgemma3 27bitモデル(gemma3:27b、ollama上では17GB)が私のGPUの16GB VRAMに収まらず、部分的にCPU上でも実行されていることが気になります。

Ollamaが並列リクエストを処理する方法

Ollamaが並列リクエストを処理する方法

オラマを並列リクエストの実行に設定する。

Ollama サーバーが同時に2つのリクエストを受けると、その動作は設定と利用可能なシステムリソースに依存します。

バイブ コーディング - 意味と説明

バイブ コーディング - 意味と説明

このトレンドのAI支援型コーディングとは何か?

Vibe coding は、開発者が自然言語で望む機能を説明し、AIツールが自動的にコードを生成するという、AI駆動型のプログラミングアプローチです。

Ollama上でDeepseek-R1をテストする

Ollama上でDeepseek-R1をテストする

2つのdeepseek-r1モデルを2つのベースモデルと比較する

DeepSeekの 1世代目の推論モデルで、OpenAI-o1と同等の性能を備えています。 これは、LlamaおよびQwenに基づいてDeepSeek-R1から蒸留された6つの密なモデルです。