AI

Ollamaを使用したPerplexicaのセルフホスティング

Ollamaを使用したPerplexicaのセルフホスティング

ローカルでCopilotスタイルのサービスを実行する?簡単です!

とてもエキサイティングですね!
CopilotやPerplexity.aiにすべてを依頼する代わりに、今やあなた自身のPCやノートPCで同様のサービスをホストできるようになりました!

Gemma2 と Qwen2 と Mistral Nemo と...

Gemma2 と Qwen2 と Mistral Nemo と...

論理的誤謬の検出をテストする

最近、いくつかの新しいLLMがリリースされました。
非常にエキサイティングな時代です。
それらが論理的誤謬を検出する際のパフォーマンスをテストし、確認してみましょう。

LLMフロントエンド

LLMフロントエンド

選択肢は多くないが、それでも……。

LLM(大規模言語モデル)のUI(ユーザーインターフェース)に初めて触れた時、それらは積極的に開発中で、今ではいくつかは本当に優れたものとなっています。

LLM用の効果的なプロンプトの作成

LLM用の効果的なプロンプトの作成

いくつかの試行錯誤が必要ですが、

まだ、LLMがあなたの意図を理解しようとする際に混乱しないようにするための、良いプロンプトを書くためのいくつかの一般的なアプローチがあります。

Python チートシート

Python チートシート

よく使用されるPythonコードの断片

時折必要になるが、すぐに見つからないことがある。
そのため、ここにすべてを保存しておく。

LLMの要約能力の比較

LLMの要約能力の比較

8つのllama3(Meta+)および5つのphi3(Microsoft)LLMバージョン

パラメータ数や量子化の異なるモデルの挙動をテストしています。

LLMを用いた論理的誤謬の検出

LLMを用いた論理的誤謬の検出

さまざまなLLMの論理的誤謬検出の質をテストしましょう

ここではいくつかのLLMバージョンを比較しています:Llama3(Meta)、Phi3(Microsoft)、Gemma(Google)、Mistral Nemo(Mistral AI)、Qwen(Alibaba)。