DeepLearning

16GB VRAM GPU用の最適なLLM

16GB VRAM GPU用の最適なLLM

RTX 4080(16GB VRAM)でのLLM速度テスト

大型言語モデルをローカルで実行することで、プライバシーの確保、オフラインでの利用、およびAPIコストのゼロ化が可能です。このベンチマークでは、RTX 4080上で動作する9つの人気のあるLLM([LLMs on Ollama on an RTX 4080](https://www.glukhov.org/ja/post/2026/01/choosing-best-llm-for-ollama-on-16gb-vram-gpu/ “LLMs on Ollama on an RTX 4080”)の実際の性能が明らかになります。

Anaconda vs Miniconda vs Mamba ガイド

Anaconda vs Miniconda vs Mamba ガイド

正しいPythonパッケージマネージャーを選択する

この包括的なガイドでは、Anaconda、Miniconda、Mambaの比較についての背景と詳細な情報を提供します。これらは、複雑な依存関係や科学計算環境を使用するPython開発者やデータサイエンティストにとって不可欠な強力なツールです。

AIスロープの検出:技術と警鐘

AIスロープの検出:技術と警鐘

AI生成コンテンツの検出に関する技術ガイド

AI生成コンテンツの増加により、新たな課題が生じています。それは、本物の人の書き方と「AIスロップ」(https://www.glukhov.org/ja/post/2025/12/ai-slop-detection/ “AIスロップ”)を区別することです。AIスロップとは、低品質で大量生産された合成テキストのことです。

コンシューマーハードウェア上のAIインフラ

コンシューマーハードウェア上のAIインフラ

予算のハードウェアでオープンモデルを使用して企業向けAIを展開

AIの民主化はここにあります。 Llama 3、Mixtral、QwenなどのオープンソースLLMが、今やプロプライエタリモデルと同等の性能を発揮するようになり、チームは消費者ハードウェアを使用して強力なAIインフラストラクチャを構築できるようになりました。これにより、コストを削減しながらも、データプライバシーやデプロイメントに関する完全なコントロールを維持することが可能です。

MLOPSおよびETL向けのApache Airflow - 説明、利点および例

MLOPSおよびETL向けのApache Airflow - 説明、利点および例

Pythonを用いたETS/MLOPS向けの優れたフレームワーク

Apache Airflow は、Python コードを使用してワークフローをプログラマティックに作成、スケジュール、監視するためのオープンソースプラットフォームです。伝統的な、手動の、またはUIベースのワークフローツールの代替として、柔軟で強力な選択肢を提供します。

Tensorflowを用いたオブジェクト検出

Tensorflowを用いたオブジェクト検出

以前、オブジェクト検出AIのトレーニングを行いました。

ある寒い冬の7月の日… その日はオーストラリアにいた… 私は、未封のコンクリート補強筋を検出するためのAIモデルを訓練するという緊急の必要性を感じた…