LLMのセルフホスティングとAI主権

セルフホスティングLLMでデータとモデルを制御する

目次

LLMを自社でホストすることで、データ、モデル、推論を自らのコントロール下に置くことが可能になります。これは、チーム、企業、国家にとって実用的な**AI主権への道です。ここでは、AI主権とは何か、どの側面と方法**で構築されるのか、LLMの自社ホスティングがどのように関与するのか、国々がこの課題にどのように対応しているのかを説明します。

onprem-servers-self-hosted-llms

AI主権とは何か?

AI主権(または「主権的なAI」)とは、国、組織、または個人が、自らの法規制、価値観、セキュリティのニーズに沿って、AIシステムを独自の条件で開発、運用、管理できるという考え方です。外国または非透明なプロバイダーに完全に依存するのではなく、AIインフラ、データ、モデルに対するコントロールを意味します。これは、データ主権(データが保存および処理される場所)をAIスタック全体(トレーニングデータ、モデル、コンピューティング、ガバナンス)に拡張することです。典型的な目標には、機密データおよびAI運用を選択した法的管轄区域(EUまたはオーストラリアなど)内に保つこと、プライバシー、セキュリティ、AIリスクに関する地域のルール(GDPR、EU AI Act、国家セキュリティ)に準拠すること、および少数の外国のクラウドまたはAIプロバイダーへの過度な依存を避けることが挙げられます。

政府は国家のセキュリティ、重要なインフラ、公共サービスに注目し、規制された業界(医療、金融、防衛)は厳格なデータおよびAIルールに準拠する必要があります。また、大規模な企業は戦略的な独立性を保ち、自社のロードマップにAIを合わせ、ベンダーのものではなく、自社のものにしたいと考えています。実際には、主権的なAIは、国家または地域のAIクラウドおよびデータセンター、国内または共同開発されたAIモデル(外国の「ブラックボックス」システムではなく)、データの所在、アクセス制御、AIシステムの監査に関する厳格なルールとして現れます。


側面と方法:主権的なAIがどのように構築されるか

国家および組織は、通常、主権的なAIを構築するためにいくつかの側面(戦略的支柱)に沿って構築し、具体的な方法(技術的およびガバナンスの措置)を使用します。

6つの戦略的支柱(側面)

世界経済フォーラムおよび類似のフレームワークは、6つの戦略的支柱が、国家が主権的なAIを構築する方法を指導していると説明しています:

  1. デジタルインフラ — 国境内で生成されたデータが現地で保存および処理されるようにするデータローカライゼーションポリシー、およびAIワークロードをサポートするネットワークを備えた十分なコンピューティングを備えたデータセンター。これは、国家または地域のコントロール下でAIを開発および展開するための基盤です。

  2. 人材育成 — STEMおよびAI教育、更新されたカリキュラム、職業訓練、生涯学習を実施し、国が主権的なAIシステムを開発および運用できる人材を育成します。

  3. 研究、開発およびイノベーション(RDI) — 基盤および応用AI研究のための公的および民間資金、商業化のインセンティブ、スタートアップ、大規模企業、学術界を結びつけるエコシステム。

  4. 規制および倫理的枠組み — AI開発および展開に関する明確なルール:プライバシー、透明性、データ保護、サイバーセキュリティ、倫理的な使用、および監督および責任のメカニズム。

  5. AI産業の刺激 — 税制優遇、助成金、特許の簡素化、および公共部門のAI採用を通じて需要を作り出し、基準を設定します。公的機関と民間企業のパートナーシップ(PPP)は、高影響セクター(エネルギー、健康、金融、輸送、製造)でのAI展開を支援します。

  6. 国際協力 — 他の国々との標準、合意された規範に基づく国境を越えたデータフロー、および共有の課題(例:プライバシー、サイバーセキュリティ)への関与、ただし、現地のルールを設定する能力を失わない。

主権的なAIは孤立を意味するのではなく、戦略的な復元力を意味します:他国とのグローバル協力に参加しながらも、独自の条件で運用およびイノベーションを行う能力です。

使用される方法

これらの支柱を実装するために具体的に使用される方法には以下が含まれます:

  • データの所在およびローカライゼーション — 特定のデータ(特に個人または機密データ)が特定の司法管轄区域内で保存および処理されるようにする。これはGDPR、業界特有のルール、国家セキュリティの要件の遵守をサポートします。

  • 主権または地域AIクラウド — 国家または地域の法的および運用的なコントロール下に残るクラウドおよびAIインフラ(データセンター、GPUクラスター)を構築または指定し、ワークロードおよびデータが司法管轄区域内に残るようにします。

  • 国内またはオープンウェイトモデル — 閉じた外国のAPIに依存せず、監査、微調整、およびローカルインフラ上で実行できるAIモデル(LLMを含む)を開発または採用します。

  • リスクベースの規制 — AIシステムをリスク(例:受け入れられない、高、限定、最小)に分類し、それに応じて要件(影響評価、人間の監督、透明性、適合性)を課します。EU AI Actは主要な例です。

  • ガバナンス構造 — AIオフィス、諮問委員会、市場監視機関などの専門機関を設置し、実装の監督、政府および業界の間の調整、およびルールの執行を担当します。

  • 公的機関と民間企業のパートナーシップ — 政府と業界の共同の取り組みを通じて、共有インフラの構築、使用ケースの開発(例:公共行政)、および主権能力のためのインセンティブの整備を支援します。

  • 認証およびコンプライアンス制度 — データの場所、アクセス制御、および現地法の遵守を保証する主権クラウドまたは「信頼できるAI」認証。これにより、公共および規制されたセクターがAIを安全に採用しやすくなります。

これらは、主権的なAIが何を目指しているか(インフラ、人材、規制、産業、協力)とどのように実装されるか(所在、クラウド、モデル、規制、ガバナンス、PPP、認証)を定義しています。


LLMの自社ホスティング:主権的なAIへの技術的アプローチ

LLMを自らのインフラ上で実行することは、主権的なAIを実践する最も直接的な技術的方法の一つです。プロンプト、モデル重み、推論ログを自社または地域内に保持することで、データの所在、地域のルールの遵守、少数のクラウドAPIプロバイダーからの独立性をサポートします。

技術的な観点から、主権的または自社ホスティングされたLLMスタックは通常、モデル層(オープンウェイトモデル、埋め込み、オプションのリランカー)、サーブリング層(チャット、補完、埋め込みのためのAPIを持つ推論エンジン)、アプリケーション層(オーケストレーション、ツールコール、ワークフロー)、知識層(例:RAGによるチャンク化、インデックス作成、リトリーバル)、データおよびストレージ(オブジェクトストレージ、データベース、ベクトルインデックス)、およびセキュリティおよびガバナンス(PII処理、ポリシー実施、監査ログ)を含みます。方法には、オンプレミスまたは単一テナントの展開、エアギャップ操作(例:Ollama、llama.cpp、LM Studioなどのツールを使用)、最大の分離を実現する、ゲートウェイアーキテクチャによるアクセス制御、ルーティング、観測の集中化が含まれます。これにより、すべてのプロンプトと応答が定義された境界内に留まります。

実用的なアプローチとして、ローカルLLMツールの包括的な比較 - Ollama、vLLM、LocalAI、Jan、LM Studioなどは、正しいスタックを選択するのを助けてくれます。GPUメモリが限られている場合、16GB VRAMのOllamaでどのLLMが最もパフォーマンスが良いかを参照してください。最も人気のあるオプションの一つから始めるには、Ollamaのチートシートが必須コマンドをリストしています。


国家が課題にどのように対応しているか

国々は、上述の柱および方法をどのように組み合わせるかについて違いがあります。以下に、主要な司法管轄区域が主権的なAIにどのように対応しているかの簡潔な概要を示し、その後、米国と中国の比較に焦点を当てます。

欧州連合

EUは、AI Act(規則(EU)2024/1689)という最初の包括的なグローバルAI法を採択し、リスクベースのアプローチを採用しています。受け入れられないリスクのアプリケーションは禁止され、高リスクシステムは厳格な要件(影響評価、人間の監督、適合性)が課され、限定的および最小リスクのシステムには軽い義務が設定されています。ガバナンスはヨーロッパAIオフィス(委員会内)に集中し、ヨーロッパ人工知能ボード、科学パネル、諮問フォーラムがメンバー国全体にわたる実装および執行を支援します。これにより、単一市場のための単一のルールブックが作成され、「ヨーロッパファースト」の合規AIの展開が促進されます。

ヨーロッパの主権的なAIは、国内モデルおよびクラウドプロバイダーにも依存しています。Mistral AI(フランス)は、オープンソースに親しみやすいアプローチを採用し、政府および企業がヨーロッパのインフラ上で監査および実行できるモデルを公開しています。Aleph Alpha(ドイツ)は、規制された業界およびヨーロッパの主権的なホスティング向けの説明可能性と安全性に注力しています。両社ともAI Actに準拠しており、非EUプロバイダーへの依存を減らすのを助けます。現在、米国と比較してEUへのグローバルAIスタートアップ資金の一部は非常に少なくなっています。

フランスおよびドイツ:公共行政向けの共同主権的なAI

フランスおよびドイツは、Mistral AIおよびSAPとともに、公共行政向けの共同主権的なAIイニシアチブを開始しました。これは4つの柱を中心に構築されています:主権的なAIネイティブERPシステム(フランスおよびドイツの行政機関向け)、AIによる財政管理(例:請求書分類、監査チェック)、公務員および市民向けのデジタルエージェント(適合性ツール、資格チャットボット)、および共同イノベーションラボおよびワークフォーストレーニング。2026年半ばまでに経済的および法的枠組みの合意が予定されており、2026年から2030年にかけて選定された使用ケースが展開される予定です。このイニシアチブは、**仏独ヨーロッパデジタルインフラコンソーシアム(EDIC)**のボードによって統治され、両国からの大臣が議長を務めます。これは、「地域クラウド+国内モデル+PPP」の方法の実践例です。

英国

英国は2025年7月に主権AIユニットを設立し、最大5億ポンドの資金を投入して国家AI能力およびセキュリティを構築しました。ユニットは以下の点に注力しています:英国のAI企業への投資を通じて国家のリーダーを育成すること、英国のAI資産(データ、コンピューティング、人材)の構築、およびフロンティアAI企業との提携を通じて信頼できるアクセスおよび英国の影響力を確保すること。政府はまた、AIの機会に関する行動計画(2025年1月)を発表し、AIが経済成長および公共サービスにおいて果たす役割を強調しています。このアプローチは、インフラおよび人材(柱1および2)と業界の刺激(柱5)および戦略的パートナーシップを組み合わせています。

米国

米国の戦略は民間企業のリーダーシップ連邦政府の調整を強調しています。2025年12月、政府はAIのための国家政策枠組みを確立するための行政命令を発行しました。これは、米国のAIイノベーションを保護し、米国のグローバルリーダーシップを維持するための「最小限の負担」の国家枠組みを目指しています。これは、司法省が「過度な」州のAI法を挑戦し、連邦政府の優先権を強化し、州のルールが市場を分割しないようにすることを目的としています。これは、2025年7月の「アメリカのAI行動計画」に続くものであり、米国の州および領土で2025年に導入されたAI関連法案が1,000件以上に達していることを反映しています。米国はまた、先端チップの輸出制限を用いて、コンピューティングのリーダーシップを保護し、フロンティアAIを構築できる人物を決定するのを支援しています。米国の主権的なAIは、民間投資(例:xAI、OpenAI)、連邦政府のガバナンス(2024年の59の連邦AI関連規制)、および国際的な合意(例:UAEとのStargate)を通じて達成されます。

カナダ

カナダは、カナダ主権AIコンピューティング戦略を発表し、5年間で20億ドルを投入して国内AIコンピューティング能力を強化しました。この戦略には3つの要素があります:民間投資の動員(AIコンピューティングチャレンジを通じて最大7億ドルを企業および学術界に提供し、統合されたAIデータセンターのソリューションを構築)、公共のスーパーコンピューティングインフラの構築、および研究者および企業向けのAIコンピューティングアクセス基金。目標は、カナダのデータおよびIPを保護しながら、カナダのエネルギー、土地、気候の利点を活用することです。別途、カナダは2025年3月に連邦公共サービス向けのAI戦略(2025–2027)を発表し、優先領域としてAI専門知識センター、安全で責任ある使用、トレーニングおよび人材、透明性を掲げました。2025年9月、政府はAI戦略タスクフォースおよび30日間の全国的な関与を開始し、より広範な国家AI戦略の開発に取り組みました。

オーストラリア

オーストラリアの**政府におけるAIの責任ある使用に関するポリシー(バージョン2.0)**は2025年12月15日に施行されました。これは非企業の連邦機関に適用され、国家セキュリティの除外が含まれています:防衛および情報機関は、セキュリティ利益を保護しながら要素を任意に採用できます。このポリシーは、政府内での責任ある採用、リスク管理、透明性を期待し、規制および倫理的枠組みの柱に従いながら、機密および国家セキュリティのAIの主権的な取り扱いの余地を残しています。

アラブ首長国連邦(UAE)およびサウジアラビア

UAEは2017年の2031年AI国家戦略を持ち、8つの戦略的目標(例:AI目的地、エコシステム、ガバナンス)および9つの優先セクター(輸送、医療、宇宙、再生可能エネルギー、水、技術、教育、環境、交通)にわたって、UAEをグローバルAIリーダーにする目標を持っています。サウジアラビアは、ビジョン2030の下で大規模なAIおよび多様化を推進し、数十億ドル規模のプロジェクトを展開しています。UAEおよびサウジアラビアは、地域のデータセンターおよびAIインフラへの投資に注力しています:UAEのKhaznaデータセンター(地域最大の運営者)は、サウジアラビアに200MWのデータセンターを展開し、クラウドおよびAIハイパースケールの展開に向け、UAE、サウジアラビア、イタリア、その他の市場で1ギガワット以上のAI準備可能な容量を目指しています。このアプローチは、国家戦略(柱4および5)とデジタルインフラ(柱1)への重い投資を組み合わせています。

米国と中国の比較概要

米国と中国は、AIリーダーシップを追求するために異なる方法を採用しています。米国は民間資本輸出制限に依存しています:例として、2024年の1090億ドルの民間AI投資(当時の中国の12倍)、2024年の59の連邦AI関連規制、および先端チップの輸出制限。中国は国家主導の投資自給自足を強調しています:例として、2025年の予算980億ドル(そのうち半分は半導体)、国内チップ製造(例:Huawei Ascend)、および支援的な国家法律およびオープンソースおよびインフラ外交(例:一帯一路)。

要素 米国 中国 備考
スーパーコンピューターのシェア(2025年5月) ~75%(~40M H100相当) ~14%(~400K相当) 米国は5倍以上先駆けている
代表的なシステム 例:xAI Colossus(200K GPU) ~30K GPU(さまざまな) 米国は規模が大きい
データセンター 遠くに多い 少なく、拡大中(例:デジタルシルクロード) 米国に優位
政策の姿勢 防御的(事前対応、輸出制限) 主動的(支援的な法律、オープンソース、外交) 異なるレバー
モデルおよびアプリケーションの焦点 フロンティアモデル(2024年には40以上)、人材の獲得 コスト効率の良いトレーニング(例:DeepSeek-V3)、研究量、アプリケーション(例:百度の自動運転) ギャップが縮小している

米国はNVIDIAへの広範なアクセスと深いベンチャーエコシステムを活用し、中国は代替手段を構築し、中東およびアジアのエネルギーおよびAIインフラへの投資を行っています。モデルの性能のギャップは縮小しています(例:2025年のLMSYSの1.7%の米国リード)。


有用なリンク

出典