LLMの要約能力の比較

LLMの要約能力の比較

8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン

パラメータ数や量子化の異なるモデルの挙動をテストしています。

Ollama モデルの保存場所を変更する

Ollama モデルの保存場所を変更する

Ollama の LLM モデルファイルは非常に多くのディスク領域を占有します。

ollama のインストール 後、すぐに Ollama を再設定して、新しい場所にモデルを保存するようにするのが良いでしょう。そうすれば、新しいモデルをプルした際に、古い場所にダウンロードされなくなります。

Pi-Hole のインストール - 無料の広告ブロッカー

Pi-Hole のインストール - 無料の広告ブロッカー

すべての広告を見るのは本当にうんざりです。

ブラウザの広告ブロッカーのプラグインやアドオンを、Google Chrome、Firefox、Safariなどにインストールできますが、それぞれのデバイスごとにこの操作を行う必要があります。ネットワーク全体で広告をブロックする方法が、私の最もお気に入りの解決策です。

Hugo サイトを AWS S3 にデプロイする

Hugo サイトを AWS S3 にデプロイする

Hugo は静的サイトジェネレーターです。

Hugo を使用してサイトを生成したら、次にホスティングプラットフォームへのデプロイが必要です。 ここでは、AWS S3 にプッシュし、AWS CloudFront CDN で配信する方法について解説します。

大規模言語モデルの速度テスト

大規模言語モデルの速度テスト

LLMのGPUとCPUでの速度をテストしてみましょう

いくつかのLLM(大規模言語モデル)のバージョン(llama3(メタ/Facebook)、phi3(マイクロソフト)、gemma(グーグル)、mistral(オープンソース))におけるCPUおよびGPUでの予測速度の比較。

LLMを用いた論理的誤謬の検出

LLMを用いた論理的誤謬の検出

さまざまなLLMの論理的誤謬検出の質をテストしましょう

ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。

Gitea サーバーのバックアップと復元

Gitea サーバーのバックアップと復元

これらの困難な時代には、何が起こるかわかりません。

  1. データベース、2) ファイルストレージ、3) その他のGiteaファイルをバックアップする必要があります。以下に手順を示します。
Linux Mint Cinnamon コンテキストメニュー

Linux Mint Cinnamon コンテキストメニュー

ときどき、ただその場所にアイテムを追加するだけで済みます...

このブログの画像をトリミングし、リサイズし、境界線を追加する作業は、Linux Mint Cinnamonのコンテキストメニューにこの頻繁に使用される機能を追加するきっかけとなりました。

ホットワインのレシピ

ホットワインのレシピ

寒い冬の夜に、これほど心温まるものはありません。

この飲み物は「グリントワイン」として知られていますが、英語ではよりよく「ホットワイン」と呼ばれます。
結構多くの材料があり、独自の味わいがあります。大好きです!

Apache をリバースプロキシとして使用した Gitea の SSL 設定

Apache をリバースプロキシとして使用した Gitea の SSL 設定

k8sでコンテナレジストリを使用するには、SSL経由でアクセスする必要があります。

私たちは、セキュアで使いやすいコンテナレジストリをホストしたいと考えています。Dockerイメージをそこにプッシュし、Kubernetesクラスターがこのレジストリからイメージをプルできるようにしたいのです。
そのため、SSLを介してGiteaを使用するというアイデアが浮かびました。

I2Pパフォーマンス統計情報

I2Pパフォーマンス統計情報

私はi2pをテストしてみた。

動作は可能ですが、パフォーマンス、匿名性、信頼性については非常に疑問が残ります…

メインロード画像処理

メインロード画像処理

メインロードにおけるハーゴ画像の詳細、種類とサイズ

Mainroad は、Hugo 静的サイトジェネレータ用のテーマです。見た目が良く、また画像処理が非常に優れています。

購読する

システム、インフラ、AIエンジニアリングの新記事をお届けします。