DeepLearning

16GB VRAM GPU上でOllamaを使用したLLMの性能比較

16GB VRAM GPU上でOllamaを使用したLLMの性能比較

RTX 4080(16GB VRAM)でのLLM速度テスト

大規模言語モデルをローカルで実行すると、プライバシーの確保、オフラインでの使用が可能になり、APIコストはゼロになります。このベンチマークでは、RTX 4080上で動作する14のポピュラーなLLMs on Ollamaから期待できる性能が明らかになります。

Anaconda vs Miniconda vs Mamba ガイド

Anaconda vs Miniconda vs Mamba ガイド

正しいPythonパッケージマネージャーを選択する

この包括的なガイドでは、Anaconda、Miniconda、Mambaの比較についての背景と詳細な情報を提供します。これらは、複雑な依存関係や科学計算環境を使用するPython開発者やデータサイエンティストにとって不可欠な強力なツールです。

AIスロープの検出:技術と警鐘

AIスロープの検出:技術と警鐘

AI生成コンテンツの検出に関する技術ガイド

AI生成コンテンツの増加により、新たな課題が生じています。それは、本物の人の書き方と「AIスロップ」(https://www.glukhov.org/ja/post/2025/12/ai-slop-detection/ “AIスロップ”)を区別することです。AIスロップとは、低品質で大量生産された合成テキストのことです。

消費者向けハードウェア上の AI インフラ

消費者向けハードウェア上の AI インフラ

オープンモデルを活用して、予算内のハードウェアでエンタープライズAIをデプロイする

AI の民主化はここにやってきました。 Llama、Mistral、Qwen などのオープンソース大規模言語モデル(LLM)が現在、プロプライエタリなモデルと競合するレベルに達しており、チームは 消費级ハードウェアを使用した AI インフラストラクチャ を構築することで、コストを削減しながらもデータプライバシーとデプロイの完全な制御を維持することが可能になりました。

MLOPSおよびETL向けのApache Airflow - 説明、利点および例

MLOPSおよびETL向けのApache Airflow - 説明、利点および例

Pythonを用いたETS/MLOPS向けの優れたフレームワーク

Apache Airflow は、Python コードを使用してワークフローをプログラマティックに作成、スケジュール、監視するためのオープンソースプラットフォームです。伝統的な、手動の、またはUIベースのワークフローツールの代替として、柔軟で強力な選択肢を提供します。

Tensorflowを用いたオブジェクト検出

Tensorflowを用いたオブジェクト検出

以前、オブジェクト検出AIのトレーニングを行いました。

ある寒い冬の7月の日… その日はオーストラリアにいた… 私は、未封のコンクリート補強筋を検出するためのAIモデルを訓練するという緊急の必要性を感じた…