Ollamaを使用したPerplexicaのセルフホスティング

Ollamaを使用したPerplexicaのセルフホスティング

ローカルでCopilotスタイルのサービスを実行する?簡単!

とてもエキサイティングですね!
CopilotやPerplexity.aiに頼って、世界中に自分の目的を明かす代わりに、今や自らのPCや高性能なノートPC上で同様のサービスをホストできるようになりました!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

論理的誤謬の検出のテスト

最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
論理的誤謬の検出能力を確認するためにテストしてみましょう。

LLM用の効果的なプロンプトの作成

LLM用の効果的なプロンプトの作成

いくつかの試行錯誤が必要ですが、

まだ、LLMがあなたの意図を理解しようとする際に混乱しないようにするための、良いプロンプトを書くためのいくつかの一般的なアプローチがあります。

LLMの要約能力の比較

LLMの要約能力の比較

8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン

パラメータ数や量子化の異なるモデルの挙動をテストしています。

Ollamaモデルを別の場所に移動する

Ollamaモデルを別の場所に移動する

OllamaのLLMモデルファイルは多くのスペースを占めます。

ollamaをインストールした後は、すぐにOllamaを再構成して、新しい場所にモデルを保存するように設定するのが良いでしょう。そうすることで、新しいモデルをプルした際にも、古い場所にダウンロードされません。

Pi-Hole のインストール - 無料の広告ブロッカー

Pi-Hole のインストール - 無料の広告ブロッカー

すべての広告を見るのは本当にうんざりです。

ブラウザの広告ブロッカーのプラグインやアドオンを、Google Chrome、Firefox、Safariなどにインストールできますが、それぞれのデバイスごとにこの操作を行う必要があります。ネットワーク全体で広告をブロックする方法が、私の最もお気に入りの解決策です。

大規模言語モデルの速度テスト

大規模言語モデルの速度テスト

LLMのGPUとCPUでの速度をテストしてみましょう

いくつかのLLM(大規模言語モデル)のバージョン(llama3(メタ/Facebook)、phi3(マイクロソフト)、gemma(グーグル)、mistral(オープンソース))におけるCPUおよびGPUでの予測速度の比較。

LLMを用いた論理的誤謬の検出

LLMを用いた論理的誤謬の検出

さまざまなLLMの論理的誤謬検出の質をテストしましょう

ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。

Gitea サーバーのバックアップと復元

Gitea サーバーのバックアップと復元

これらの困難な時代には、何が起こるかわかりません。

  1. データベース、2) ファイルストレージ、3) その他のGiteaファイルをバックアップする必要があります。以下に手順を示します。
Linux Mint Cinnamon コンテキストメニュー

Linux Mint Cinnamon コンテキストメニュー

ときどき、ただその場所にアイテムを追加するだけで済みます...

このブログの画像をトリミングし、リサイズし、境界線を追加する作業は、Linux Mint Cinnamonのコンテキストメニューにこの頻繁に使用される機能を追加するきっかけとなりました。

ホットワインのレシピ

ホットワインのレシピ

寒い冬の夜に、これほど心温まるものはありません。

この飲み物は「グリントワイン」として知られていますが、英語ではよりよく「ホットワイン」と呼ばれます。
結構多くの材料があり、独自の味わいがあります。大好きです!

Linux Bash コマンド一覧

Linux Bash コマンド一覧

いくつかのツールのコマンドラインパラメータ

非常に包括的なリストではありませんが、私にとって役に立ついくつかの項目です