Self-Hosting

Ollamaを使用したPerplexicaのセルフホスティング

Ollamaを使用したPerplexicaのセルフホスティング

ローカルでCopilotスタイルのサービスを実行する?簡単!

とてもエキサイティングですね!
CopilotやPerplexity.aiに頼って、世界中に自分の目的を明かす代わりに、今や自らのPCや高性能なノートPC上で同様のサービスをホストできるようになりました!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

論理的誤謬の検出のテスト

最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
論理的誤謬の検出能力を確認するためにテストしてみましょう。

LLMフロントエンド

LLMフロントエンド

選択肢は多くないが、それでも……。

LLM(大規模言語モデル)のUI(ユーザーインターフェース)に初めて触れた時、それらは積極的に開発中で、今ではいくつかは本当に優れたものとなっています。

LLMの要約能力の比較

LLMの要約能力の比較

8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン

パラメータ数や量子化の異なるモデルの挙動をテストしています。

Ollamaモデルを別の場所に移動する

Ollamaモデルを別の場所に移動する

OllamaのLLMモデルファイルは多くのスペースを占めます。

ollamaをインストールした後は、すぐにOllamaを再構成して、新しい場所にモデルを保存するように設定するのが良いでしょう。そうすることで、新しいモデルをプルした際にも、古い場所にダウンロードされません。

Pi-Hole のインストール - 無料の広告ブロッカー

Pi-Hole のインストール - 無料の広告ブロッカー

すべての広告を見るのは本当にうんざりです。

ブラウザの広告ブロッカーのプラグインやアドオンを、Google Chrome、Firefox、Safariなどにインストールできますが、それぞれのデバイスごとにこの操作を行う必要があります。ネットワーク全体で広告をブロックする方法が、私の最もお気に入りの解決策です。

LLMを用いた論理的誤謬の検出

LLMを用いた論理的誤謬の検出

さまざまなLLMの論理的誤謬検出の質をテストしましょう

ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。

Gitea サーバーのバックアップと復元

Gitea サーバーのバックアップと復元

これらの困難な時代には、何が起こるかわかりません。

  1. データベース、2) ファイルストレージ、3) その他のGiteaファイルをバックアップする必要があります。以下に手順を示します。
Apache をリバースプロキシとして使用した Gitea の SSL 設定

Apache をリバースプロキシとして使用した Gitea の SSL 設定

k8sでコンテナレジストリを使用するには、SSL経由でアクセスする必要があります。

私たちは、セキュアで使いやすいコンテナレジストリをホストしたいと考えています。Dockerイメージをそこにプッシュし、Kubernetesクラスターがこのレジストリからイメージをプルできるようにしたいのです。
そのため、SSLを介してGiteaを使用するというアイデアが浮かびました。