AIトレーニングパラダイムの進化:集中制御から分散化協調へ

AIトレーニングパラダイムの進化:集中制御から分散化協調の技術革命

AIの全価値チェーンにおいて、モデルのトレーニングはリソース消費が最も大きく、技術的なハードルが最も高いプロセスであり、モデルの能力の上限と実際の応用効果を直接決定します。推論段階の軽量な呼び出しに比べ、トレーニングプロセスは継続的な大規模な計算力の投入、複雑なデータ処理プロセス、高度な最適化アルゴリズムのサポートを必要とし、AIシステム構築の本当の"重工業"です。アーキテクチャの観点から見ると、トレーニング方式は集中型トレーニング、分散型トレーニング、フェデラルラーニング、および本稿で重点的に議論する分散化トレーニングの4つのカテゴリーに分類できます。

! AIトレーニングパラダイムの進化:中央集権的な制御から分散型のコラボレーションへの技術革命

集中化トレーニングは最も一般的な従来の方法であり、単一の機関がローカルの高性能クラスタ内で全てのトレーニングプロセスを完了します。ハードウェア、ベースソフトウェア、クラスタスケジューリングシステム、トレーニングフレームワークの全てのコンポーネントが統一された制御システムによって調整されて動作します。この深い協調のアーキテクチャは、メモリ共有、勾配同期、およびフォールトトレランスメカニズムの効率を最適化し、GPTやGeminiなどの大規模モデルのトレーニングに非常に適しており、高い効率とリソースの制御という利点がありますが、同時にデータの独占、リソースの壁、エネルギー消費、および単一ポイントのリスクなどの問題も存在します。

分散化トレーニングは現在の大規模モデルトレーニングの主流な方法であり、その核心はモデルのトレーニングタスクを分解し、複数のマシンに配布して協調実行することで、単一マシンの計算とストレージのボトルネックを突破することです。物理的には「分散化」の特徴を持っているものの、全体は依然として中央集権的な機関によって制御、スケジュール、同期されています。通常、高速なローカルエリアネットワーク環境で動作し、NVLink高速相互接続バス技術を通じて、主ノードが各サブタスクを統一的に調整します。主流の方法には、以下が含まれます:

  • データ並列:各ノードが異なるデータをトレーニングし、パラメータを共有し、モデルの重みを一致させる必要があります。
  • モデル並列:モデルの異なる部分を異なるノードに展開し、強力な拡張性を実現する;
  • パイプライン並行:段階的に直列実行し、スループットを向上させる;
  • テンソル並列:行列計算の詳細な分割、並列粒度を向上させる。

分散型トレーニングは「集中制御 + 分散実行」の組み合わせであり、同じボスが遠隔で複数の「オフィス」の従業員に指示を出してタスクを完了させることに例えられます。現在、ほぼすべての主流の大規模モデルはこの方法でトレーニングを完了しています。

! AIトレーニングパラダイムの進化:中央集権的な制御から分散型のコラボレーションへの技術革命

分散化トレーニングは、よりオープンで検閲に対する特性を持つ未来の道を示しています。その核心的な特徴は、複数の互いに信頼しないノード(家庭用コンピュータ、クラウドGPU、またはエッジデバイスの可能性があります)が、中央のコーディネーターなしで協力してトレーニングタスクを完了することです。通常、プロトコルによってタスクの配信と協力が駆動され、暗号的なインセンティブメカニズムを利用して貢献の誠実性を確保します。このモデルが直面する主な課題には以下が含まれます:

  • デバイスの異種性と分割の難しさ:異種デバイスの調整が難しく、タスクの分割効率が低い;
  • 通信効率のボトルネック:ネットワーク通信が不安定で、勾配同期のボトルネックが明らかである;
  • 信頼できる実行の欠如:信頼できる実行環境が不足しており、ノードが実際に計算に参加しているかどうかを検証するのが難しい;
  • 統一した調整が欠如している:中央のスケジューラがなく、タスクの配信や例外のロールバックメカニズムが複雑である。

分散化トレーニングは、次のように理解できます:世界中のボランティアのグループがそれぞれ計算能力を提供してモデルを協調的にトレーニングしますが、「実際に機能する大規模な分散化トレーニング」は、システムアーキテクチャ、通信プロトコル、暗号セキュリティ、経済メカニズム、モデル検証などの複数のレベルに関わるシステム的なエンジニアリングの課題です。しかし、「協調的に効果的 + 誠実にインセンティブを与える + 結果が正しい」かどうかは、まだ初期のプロトタイプ探索段階にあります。

フェデラルラーニングは、分散型と分散化の間の過渡的な形態として、データのローカル保持とモデルパラメータの集中的な集約を強調し、プライバシーコンプライアンスを重視するシナリオ(医療、金融など)に適しています。フェデラルラーニングは、分散トレーニングのエンジニアリング構造とローカルな協調能力を持ち、同時に分散化トレーニングのデータ分散の利点も兼ね備えていますが、信頼できる調整者に依存しており、完全なオープン性や検閲耐性を持っているわけではありません。プライバシーコンプライアンスシナリオにおける"制御された分散化"の一形態と見なすことができ、トレーニングタスク、信頼構造、および通信メカニズムにおいて比較的穏やかであり、産業界の過渡的なデプロイメントアーキテクチャとしてより適しています。

分散型トレーニングの境界、機会、現実

トレーニングのパラダイムから見ると、分散化トレーニングはすべてのタスクタイプに適しているわけではありません。特定のシナリオでは、タスクの構造が複雑で、リソースの需要が非常に高い、または協力の難易度が高いため、異なる、信頼性のないノード間で効率的に完了することが自然に適していません。例えば、大規模モデルのトレーニングはしばしば高いメモリ、低遅延、高速バンド幅に依存しており、オープンネットワークで効果的に分割および同期することは困難です。データのプライバシーと主権の制限が強いタスク(医療、金融、機密データなど)は、法的なコンプライアンスと倫理的な制約に制約されており、オープンに共有することができません。また、協力のインセンティブの基盤が乏しいタスク(企業のクローズドソースモデルや内部プロトタイプトレーニングなど)は、外部の参加動機が欠けています。これらの境界は、現在の分散化トレーニングの現実的な制限を共同で構成しています。

しかし、これが分散化トレーニングが偽命題であることを意味するわけではありません。実際、構造が軽量で、並列化が容易で、インセンティブのあるタスクタイプにおいて、分散化トレーニングは明確な応用の可能性を示しています。これには、LoRA微調整、行動整合型の後トレーニングタスク(RLHF、DPOなど)、データクラウドソーシングトレーニングおよびラベリングタスク、リソース制御された小型基礎モデルのトレーニング、そしてエッジデバイスが参加する協調トレーニングシナリオが含まれます。これらのタスクは一般に高い並列性、低い結合性、および異種計算能力に対する耐性の特徴を持ち、P2Pネットワーク、Swarmプロトコル、分散型オプティマイザーなどを通じて協力的なトレーニングを行うのに非常に適しています。

! AIトレーニングパラダイムの進化:中央集権的な制御から分散型のコラボレーションへの技術革命

分散化トレーニングクラシックプロジェクト解析

現在、分散化トレーニングとフェデラルラーニングの最前線分野において、代表的なブロックチェーンプロジェクトにはPrime Intellect、Pluralis.ai、Gensyn、Nous Research、Flock.ioが含まれます。技術革新性とエンジニアリング実現の難易度の観点から、Prime Intellect、Nous Research、Pluralis.aiはシステムアーキテクチャとアルゴリズム設計において多くの独創的な探求を提案しており、現在の理論研究の最前線を代表しています。一方、GensynとFlock.ioの実現経路は比較的明確で、初歩的なエンジニアリングの進展が見られます。本稿では、これら5つのプロジェクトの背後にあるコア技術とエンジニアリングアーキテクチャの道を順次解析し、分散化AIトレーニングシステムにおけるその違いと相補性についてさらに探討します。

プライムインテレクト:トレーニング軌跡検証可能な強化学習協調ネットワークの先駆者

Prime Intellectは、誰もがトレーニングに参加でき、その計算貢献に対して信頼できる報酬を得られる、信頼不要のAIトレーニングネットワークの構築に取り組んでいます。Prime Intellectは、PRIME-RL + TOPLOC + SHARDCASTの3つの主要モジュールを通じて、検証可能性、オープン性、インセンティブメカニズムが完全なAI分散化トレーニングシステムを構築することを目指しています。

Prime Intellectは2025年5月にINTELLECT-2を発表しました。これは、世界初の非同期で信頼を必要としない分散化ノードによる協力訓練で構築された強化学習大モデルで、パラメータ規模は32Bに達します。INTELLECT-2モデルは、三大陸に広がる100以上のGPU異種ノードによって協力訓練され、完全非同期アーキテクチャを使用し、訓練時間は400時間を超え、非同期協力ネットワークの実現可能性と安定性を示しました。このモデルは、性能のブレークスルーだけでなく、Prime Intellectが提唱する"訓練即共識"のパラダイムが初めてシステム的に実現されたことを示しています。INTELLECT-2は、PRIME-RL(非同期訓練構造)、TOPLOC(訓練行動検証)、SHARDCAST(非同期重み集約)などのコアプロトコルモジュールを統合しており、分散化訓練ネットワークが初めて訓練プロセスのオープン化、検証性、経済的インセンティブのクローズドループを実現したことを示しています。

性能面では、INTELLECT-2はQwQ-32Bを基に訓練され、コードと数学において特別なRL訓練が行われ、現在のオープンソースRL微調整モデルの最前線に位置しています。GPT-4やGeminiのようなクローズドモデルを超えてはいないものの、その真の意義は、世界初の完全な訓練プロセスが再現可能、検証可能、監査可能な分散型モデル実験であることです。Prime Intellectはモデルをオープンソース化するだけでなく、訓練プロセス自体をオープンソース化したことが重要であり、訓練データ、戦略更新の軌跡、検証プロセスと集約ロジックはすべて透明で確認可能であり、誰もが参加でき、信頼できる協力と利益を共有する分散型訓練ネットワークのプロトタイプを構築しました。

! AIトレーニングパラダイムの進化:中央集権的な制御から分散型のコラボレーションへの技術革命

Prime Intellectは、2025年2月にFounders Fundが主導し、Menlo Ventures、Andrej Karpathy、Clem Delangue、Dylan Patel、Balaji Srinivasan、Emad Mostaque、Sandeep Nailwalなどが参加する1,500万ドルのシードラウンドを完了しました。 以前、このプロジェクトは2024年4月に550万ドルの早期資金調達ラウンドを終了し、CoinFundとDistributed Globalが共同で主導し、Compound VC、Collab + Currency、Protocol Labsなどが参加しました。 現在までに、Prime Intellectは2,000万ドル以上を調達しています。

Prime Intellectの共同創設者はVincent WeisserとJohannes Hagemannで、チームメンバーの背景はAIとWeb3の分野にまたがっています。コアメンバーはMeta AI、Google Research、OpenAI、Flashbots、Stability AI及びEthereum Foundationから来ており、システムアーキテクチャ設計と分散型エンジニアリングの実現において深い能力を有しています。現在、真の分散化された大規模モデルのトレーニングを成功裏に完了した数少ない実行型チームの一つです。

Pluralis: 非同期モデルの並列圧縮と構造圧縮の協調学習のためのパラダイムエクスプローラー

Pluralisは「信頼できる協調訓練ネットワーク」に特化したWeb3 AIプロジェクトであり、その核心目標は分散化、オープン参加、長期的インセンティブメカニズムを備えたモデル訓練のパラダイムを推進することです。現在の主流の集中型または閉鎖型の訓練経路とは異なり、PluralisはProtocol Learning(プロトコル学習)と呼ばれる全く新しい概念を提案しています:モデル訓練プロセスを「プロトコル化」し、検証可能な協力メカニズムとモデル所有権マッピングを通じて、内生的インセンティブのクローズドループを備えたオープン訓練システムを構築します。

Pluralisが提案したプロトコル学習は、三つの重要な支柱を含んでいます:

  • 引き出せないモデル (Unmaterializable Models):モデルは複数のノード間で断片的に分散されており、単一のノードでは完全な重みを復元できず、クローズドソースのままです。この設計により、モデルは自然に「プロトコル内資産」となり、アクセス証明書の制御、漏洩防止、収益の帰属のバインディングを実現できます。
  • インターネットに基づくモデルの分散化トレーニング (Model-parallel Training over Internet):非同期パイプラインモデル分散化メカニズム(SWARMアーキテクチャ)を通じて、異なるノードは部分的な重みのみを保持し、低帯域幅ネットワークを介して協力してトレーニングまたは推論を完了します。
  • 貢献に基づいてモデルの所有権を分配 (インセンティブのための部分的所有権):すべての参加ノードは、そのトレーニングへの貢献に応じてモデルの部分的所有権を取得し、将来の利益分配およびプロトコルガバナンスの権利を享受します。

Pluralisは「非同期モデル並行」を核心方向として明確にし、データ並行に対して以下の利点を強調しています:

  • 低帯域幅ネットワークと非一貫性ノードをサポート;
  • デバイスの異種適合性、コンシューマ向けGPUの参加を許可;
  • 自然に弾力的なスケジューリング能力を備え、ノードの頻繁なオンライン/オフラインをサポートします; *構造圧縮+非同期更新+重量非抽出性を3つのブレークスルーポイントとして。

現在、公式ウェブサイトに公開されている6篇の技術ブログ文書に基づいて、論理構造は以下の3つの主線に統合されています:

  • Philosophy & Vision: "A Third Path: Protocol Learning", "Why Decentralized Training Matters" (第3の道:プロトコル学習)、"Why Decentralized Training Matters" *技術詳細:「SWARMパラレル」、「Beyond Top-K」、「非同期更新」 ・制度的イノベーションの探求:「Unmaterializable Models」と「Partial Ownership Protocols」

現在、Pluralisはまだ製品、テストネット、またはコードのオープンソースを開始していません。その理由は、選択した技術的な道筋が非常に挑戦的であるためです。まずは、基盤システムアーキテクチャ、通信プロトコル、重みの不可逆性といったシステムレベルの問題を解決する必要があり、その後に製品サービスを構築できる可能性があります。

2025年6月にPluralis Researchが発表した新しい論文では、その分散化トレーニングフレームワークをモデルの事前トレーニングから

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 6
  • 共有
コメント
0/400
BlockchainBardvip
· 13時間前
ハッシュカードを引いて分散化しましょう!
原文表示返信0
HorizonHuntervip
· 07-10 05:51
これってあまりにも複雑すぎるんじゃない?誰が耐えられるの?
原文表示返信0
MidnightSnapHuntervip
· 07-09 09:41
これ誰が書いたの?翻訳口調が強すぎるんじゃない?
原文表示返信0
DaoTherapyvip
· 07-09 09:19
誰がAIは集中管理されなければならないと言ったのか
原文表示返信0
fren.ethvip
· 07-09 09:18
ああ、またaiの概念を炒めているのか。カモにされるということだね。
原文表示返信0
MemeKingNFTvip
· 07-09 09:16
オンチェーンの状況は大波が砂を淘汰するように、分散化は必ずすべての中央集権を飲み込むだろう
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)