OpenLedgerはOP Stack+EigenDAに基づくAIモデルインセンティブチェーンを発表し、コンポーザブルエージェント経済を構築します。

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルが組み合わせ可能なエージェント経済を構築する

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデルと算力は AI インフラの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)は欠かせないものとして類比されます。従来の AI 業界のインフラ進化の道筋に似て、Crypto AI 分野も同様の段階を経ています。2024 年初頭には、市場が去中心化 GPU プロジェクトに一時的に主導され、( 一部のプラットフォームなどが、一般的に「算力を競う」粗放な成長論理を強調していました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が底層リソースの競争からより持続可能で応用価値のある中間構築へと移行することを示しています。

) General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)のトレーニングは、大規模なデータセットと複雑な分散アーキテクチャに高度に依存し、パラメータの規模は70B~500Bに達することが多く、1回のトレーニングコストは数百万ドルに達することもあります。SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量ファインチューニングのパラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データおよびLoRAなどの技術を組み合わせて、特定の分野知識を持つ専門モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に削減します。

注目すべきは、SLMはLLMの重みの中に統合されるのではなく、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットプラグ、RAG(リトリーバル強化生成)などの方法でLLMと協調して動作することです。このアーキテクチャは、LLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーションインテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。核心的な理由は

  • 技術的ハードルが高すぎる:Foundation Modelをトレーニングするために必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大で、現在のところアメリカ(特定の企業など)や中国(特定の企業など)などのテクノロジー大手のみが相応の能力を持っています。
  • オープンソースエコシステムの限界:主流の基盤モデルである LLaMA や Mixtral がオープンソース化されている一方で、モデルのブレークスルーを促進する鍵は依然として研究機関やクローズドエンジニアリングシステムに集中しており、ブロックチェーンプロジェクトのコアモデルレイヤーへの関与の余地は限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは依然として、特化した言語モデル(SLM)をファインチューニングし、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値を拡張することができる。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に現れる:

  • 信頼できる検証層:オンチェーンでモデル生成のパス、データ貢献と使用状況を記録することにより、AI出力の可追跡性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデルの呼び出し、エージェント(Agent)の実行などの行動を促進し、モデルの訓練とサービスの正の循環を構築します。

AIモデルタイプ分類とブロックチェーン適用性分析

これにより、モデル型 Crypto AI プロジェクトの実行可能な落ち点は、主に小型 SLM の軽量化チューニング、RAG アーキテクチャのオンチェーンデータの接続と検証、そして Edge モデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Crypto はこれらの中低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成することができます。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献元を明確で改ざん不可能なオンチェーン記録として提供し、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出される際に自動的に報酬分配をトリガーし、AI 行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデル性能を評価し、ルールの策定と反復に参加し、分散型ガバナンス構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA]###https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6(

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在市場において数少ないデータとモデルのインセンティブメカニズムに焦点を当てたブロックチェーンAIプロジェクトです。「Payable AI」の概念を初めて提唱し、公平で透明性があり、組み合わせ可能なAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてオンチェーンの利益を得ることを促進します。

OpenLedgerは「データ提供」から「モデルデプロイメント」、さらには「呼び出し分配」の全チェーンクローズドループを提供しており、そのコアモジュールには次のものが含まれています:

  • モデルファクトリー:プログラミング不要で、オープンソースのLLMに基づいてLoRA微調整トレーニングを行い、カスタマイズモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードすることで、デプロイコストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティによる協力構築と検証が行われる;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルコンポーザブルな「エージェント経済インフラ」を構築し、AIバリューチェーンのチェーン上化を推進しました。

そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OPスタックに基づく:Optimism技術スタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの清算: 取引の安全性と資産の完全性を確保する;
  • EVM互換:開発者がSolidityに基づいて迅速にデプロイし、拡張するのに便利;
  • EigenDAはデータ可用性のサポートを提供します:ストレージコストを大幅に削減し、データの検証可能性を確保します。

NEARのようなより基盤的で、データ主権を主打とした「AI Agents on BOS」アーキテクチャの汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しがチェーン上で追跡可能で、組み合わせ可能で、持続可能な価値の閉ループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブインフラであり、特定のプラットフォーム型のモデルホスティング、特定のプラットフォーム型の使用料金、特定のプラットフォーム型のチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現への道を推進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA])https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24(

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

) 3.1 モデルファクトリー,コード不要のモデルファクトリー

ModelFactoryは、OpenLedgerエコシステム内の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactoryは純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールやAPI統合は不要です。ユーザーは、OpenLedger上で完了した承認と審査のデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニングおよびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査・承認し、データが自動的にモデルトレーニングインターフェースに接続される。
  • モデルの選択と設定:主流の LLM(LLaMA、Mistral など)をサポートし、GUI を通じてハイパーパラメータを設定します。
  • 軽量化微調: 内蔵 LoRA / QLoRA エンジン、リアルタイムでトレーニング進捗を表示。
  • モデル評価とデプロイ: 内蔵の評価ツール、エクスポートデプロイまたはエコシステム共有呼び出しをサポート。
  • インタラクティブ検証インターフェース: チャット形式のインターフェースを提供し、モデルの問答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出所を引用した回答により、信頼性と監査可能性を向上させる。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAGトレーサビリティを通じて、6つの主要モジュールを含み、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA]###https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3(

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在の最も主流なオープンソース基盤モデルの1つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシナリオに適しています。
  • Qwen:ある会社の製品で、中国語のタスクのパフォーマンスが優れており、総合能力が高く、国内の開発者に最適です。
  • ChatGLM:中文対話効果が優れており、特化型カスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れた性能を示し、スマート開発支援ツールに適しています。
  • Gemma:ある企業が発売した軽量モデルで、構造が明確で、素早く扱ったり実験したりするのが容易です。
  • Falcon:かつてはパフォーマンスのベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しました。
  • BLOOM:多言語サポートが強いが、推論性能は弱く、言語カバレッジ型の研究に適している。
  • GPT-2:古典的な初期モデルで、教育と検証用途にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は古くはなく、チェーン上のデプロイメントにおける現実的な制約(推論コスト、RAG適応、LoRA互換、EVM環境)に基づく「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明機構が内蔵されており、データ提供者とモデル開発者の権益を確保しています。低いハードル、収益化可能性、および組み合わせ可能性の利点があり、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供;
  • プラットフォームについて:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーションユーザー向け:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA])https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193(

) 3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、事前学習済みの大規模モデルに「低秩行列」を挿入して新しいタスクを学習することで、元のモデルのパラメータを変更することなく、効率的にパラメータ微調整を行う方法です。これにより、トレーニングコストとストレージ要件を大幅に削減できます。従来の大規模言語モデル(例えば、LLaMA、GPT-3)は通常数十億、あるいは千億のパラメータを持っています。これらを特定のタスク(例えば、法律に関する質問応答、医療相談)に使用するには、微調整(fine-tuning)が必要です。LoRAの核心戦略は:「元の大規模モデルのパラメータを固定し、新しく挿入されたパラメータ行列のみを訓練する。」であり、そのパラメータ効率性、迅速な訓練、柔軟な展開により、Web3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法となっています。

OpenLoRA は OpenLedger が構築した、複数のモデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在の AI モデルデプロイメントにおける一般的な高コスト、低再利用、GPU リソースの浪費などの問題を解決し、「支払可能な AI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデル展開および呼び出し能力を実現します。

  • LoRAアダプターストレージモジュール ###LoRAアダプターストレージ(:微調整されたLoRAアダプターはOpenLedgerにホスティングされ、オンデマンドでロードされるため、すべてのモデルを事前にロードすることを避けます。
OP-6.82%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 7
  • 共有
コメント
0/400
MindsetExpandervip
· 14時間前
一波通貨の初心者人をカモにする罢了
原文表示返信0
MEVSandwichvip
· 14時間前
おじいちゃんに中国語の要約をしてあげてよ
原文表示返信0
MaticHoleFillervip
· 14時間前
私はこの波でAIを信じています。
原文表示返信0
OnchainSnipervip
· 14時間前
またコンピューティングパワーの一日です
原文表示返信0
RugpullAlertOfficervip
· 14時間前
スマートコントラクトのラグプルに進む
原文表示返信0
BlockchainTherapistvip
· 14時間前
見た目がとても美しいので、試してみてください。
原文表示返信0
MidnightSellervip
· 14時間前
この時代に瓶詰めのソースがなくてAIプロジェクトができるのか?
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)