OpenLedgerはデータ駆動型のAIチェーンを構築し、モデルの資産化とコンポーザブルなエージェント経済を実現します。

OpenLedgerデプス研報:データ駆動型でモデルが組み合わせ可能なエージェント経済の構築

一、引言 | Crypto AI のモデルレイヤーの飛躍

データ、モデルとデプスは AI インフラの三大核心要素であり、欠かすことはできません。従来の AI 業界のインフラ進化パスに似て、Crypto AI 分野も同様の段階を経てきました。2024 年初頭、市場は一時去中心化 GPU プロジェクトに主導され、「算力の競争」の粗放な成長ロジックが一般的に強調されました。しかし、2025 年に入ると、業界の関心は徐々にモデルとデータ層に移行し、Crypto AI が基盤リソースの競争からより持続可能で応用価値のある中層構築へと移行することを示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)の訓練は、大規模データセットと複雑な分散アーキテクチャに高度に依存しており、パラメータ規模は70B~500Bに達し、訓練1回のコストは数百万ドルに上ることが常です。その一方で、SLM(Specialized Language Model)は再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常LLaMA、Mistral、DeepSeekなどのオープンソースモデルをベースにし、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に低減します。

注目すべきは、SLMはLLMの重みの中に統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットスワップ、RAG(リトリーバル強化生成)などの方法でLLMと協力して動作することです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しながら、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビネーションインテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大言語モデル(LLM)のコア能力を直接向上させることが難しい。コアの理由は、

  • 技術的なハードルが高すぎる:Foundation Modelを訓練するために必要なデータ規模、計算リソース、エンジニアリング能力は非常に膨大であり、現在はテクノロジーの巨人のみがその能力を持っています。
  • オープンソースエコシステムの限界:主流の基盤モデルであるLLaMAやMixtralは既にオープンソース化されていますが、モデルの突破を推進する真の鍵は依然として研究機関とクローズドソースのエンジニアリングシステムに集中しています。ブロックチェーンプロジェクトはコアモデル層への参加の余地が限られています。

しかし、オープンソースの基盤モデルの上で、Crypto AIプロジェクトは、微調整された特化型言語モデル(SLM)を通じて、Web3の検証可能性とインセンティブメカニズムを組み合わせて価値の拡張を実現することができます。AI産業チェーンの「周辺インターフェース層」として、二つのコア方向に具現化されます:

  • 信頼できる検証層:オンチェーンでモデル生成経路、データの貢献と使用状況を記録することで、AI出力の追跡可能性と改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データのアップロード、モデル呼び出し、エージェント(Agent)実行などの行動を奨励し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプの分類とブロックチェーンの適用性分析

これにより、モデルタイプのCrypto AIプロジェクトの実現可能なポイントは、主に小型SLMの軽量化微調整、RAGアーキテクチャのオンチェーンデータの接続と検証、そしてEdgeモデルのローカル展開とインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中小資源モデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献源について明確で改ざん不可能なオンチェーン記録を行うことができ、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データやモデルが呼び出される際に自動的に報酬分配をトリガーし、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価したり、ルールの策定と反復に参加したりして、分散型ガバナンスの構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在の市場で数少ないデータとモデルインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。これは「Payable AI」という概念を提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データ提供者、モデル開発者、AIアプリケーションビルダーが同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の報酬を得られるようにします。

OpenLedgerは「データ提供」から「モデルデプロイ」さらには「呼び出し分配」までの全チェーンのクローズドループを提供しており、そのコアモジュールには次のものが含まれます:

  • モデルファクトリー:プログラミングなしで、オープンソースLLMを基にLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、デプロイコストを大幅に削減します;
  • PoA(アトリビューションの証明):オンチェーンコール記録を通じて貢献度の測定と報酬の分配を実現する;
  • Datanets:垂直シーン向けの構造化データネットワークで、コミュニティによる協力と検証によって構築される;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能で、呼び出し可能で、支払い可能なオンチェーンモデル市場。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルの組み合わせが可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのオンチェーン化を推進しています。

そして、ブロックチェーン技術の採用において、OpenLedger は OP Stack + EigenDA を基盤として、AI モデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OP Stackに基づいて構築:Optimism技術スタックに基づき、高いスループットと低い手数料の実行をサポート;
  • イーサリアムメインネットでの決済: 取引の安全性と資産の完全性を確保する;
  • EVM 互換:開発者がSolidityを基に迅速にデプロイおよび拡張することができます;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を保証します。

より基盤的でデータ主権と「AI Agents on BOS」アーキテクチャを主打とする汎用AIチェーンと比較して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値の閉ループを実現することに取り組んでいます。それはWeb3の世界におけるモデルインセンティブの基盤インフラであり、モデルホスティング、使用課金、チェーン上の組み合わせ可能なインターフェースを組み合わせ、「モデルは資産である」という実現の道筋を促進します。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステムの下にある大規模な言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger での承認と審査を完了したデータセットに基づいてモデルを微調整できます。データの承認、モデルのトレーニング、およびデプロイメントの統合ワークフローを実現しており、そのコアプロセスには以下が含まれます:

  • データアクセス制御:ユーザーがデータリクエストを提出し、提供者が審査して承認し、データが自動的にモデル訓練インターフェースに接続される。
  • モデル選択と設定:主流の LLM(例えば LLaMA、Mistral)をサポートし、GUI を通じてハイパーパラメータを設定します。
  • 軽量化微調整:内蔵のLoRA / QLoRAエンジンで、トレーニングの進捗をリアルタイムで表示。
  • モデル評価とデプロイ:内蔵の評価ツールがあり、デプロイまたはエコシェア呼び出しをエクスポートすることをサポートしています。
  • インタラクティブ検証インターフェース:チャット形式のインターフェースを提供し、モデルの質問応答能力を直接テストするのに便利です。
  • RAG生成トレーサビリティ:出所の引用を伴う回答で、信頼性と監査可能性を高めます。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG トレーサビリティを通じて、6 つの主要モジュールで構成されており、安全で制御可能、リアルタイムインタラクション、持続可能なマネタイズを実現する統合モデルサービスプラットフォームを構築します。

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広範で、コミュニティが活発で、汎用性能が高く、現在最も主流なオープンソース基盤モデルの1つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟な展開やリソースが限られたシナリオに適しています。
  • Qwen:中文タスクのパフォーマンスが優れていて、総合能力が高く、国内の開発者に最適です。
  • ChatGLM:中文対話の効果が突出しており、垂直型のカスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、スマート開発支援ツールに適しています。
  • Gemma:Google が提供する軽量モデルで、構造が明確で、迅速に習得し実験するのが容易です。
  • フェルコン:かつての性能の基準で、基礎研究や比較テストに適していましたが、コミュニティの活性度は低下しています。
  • BLOOM:多言語サポートが強いですが、推論性能は弱めで、言語カバレッジ型の研究に適しています。
  • GPT-2:古典的な初期モデルで、教育や検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていませんが、その戦略は時代遅れではなく、オンチェーンデプロイメントの現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされています。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データの貢献者とモデルの開発者の権利を確保しています。低い敷居、収益化可能性、組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供します;
  • プラットフォームについて:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーション利用者に対して:モデルやエージェントをAPIを呼び出すように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(ローランク適応)は、事前学習済みの大規模モデルに「低ランク行列」を挿入することで新しいタスクを学習する効率的なパラメータ微調整方法であり、元のモデルパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデルは通常、数十億から数百億のパラメータを持っています。これらを特定のタスクに使用するには、微調整が必要です。LoRAの核心的な戦略は:「元の大規模モデルのパラメータを凍結し、挿入された新しいパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、トレーニングの速さ、展開の柔軟さから、現在のWeb3モデルの展開と組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAは、OpenLedgerが構築した、複数モデルのデプロイとリソース共有のために設計された軽量推論フレームワークです。その核心目標は、現在のAIモデルデプロイメントで一般的な高コスト、低再利用、GPUリソースの無駄遣いなどの問題を解決し、「支払い可能なAI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントで、モジュール設計に基づいており、モデルのストレージ、推論の実行、リクエストのルーティングなどの重要な部分をカバーし、効率的で低コストのマルチモデルのデプロイと呼び出し能力を実現します:

  • LoRAアダプターストレージモジュール:ファインチューニングされたLoRAアダプターはOpenLedgerにホスティングされ、オンデマンドでロードされるため、すべてのモデルを事前にVRAMにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックフュージョンレイヤー:すべてのファインチューニングモデルは基本の大モデルを共有し、推論時にLoRAアダプタが動的に統合され、複数のアダプタによる共同推論をサポートし、パフォーマンスを向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
  • リクエストルーティングとストリーミング出力モジュール: リクエストに必要なモデルに基づいて正しいアダプターにダイナミックにルーティングし、最適化されたコアを通じてトークンレベルのストリーミング生成を実現する。

OpenLoRA の推論プロセスは、技術的な側面で「成熟一般」のモデルサービスプロセスに属します。以下の通りです:

  • 基本モデルのロード:システムは LLaMA 3、Mistral などの基本大モデルを事前にロードします
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 5
  • 共有
コメント
0/400
GasFeeBarbecuevip
· 15時間前
Arbitrumのコピーですか
原文表示返信0
TokenomicsTinfoilHatvip
· 15時間前
AIチェーン、犬も遊ばない
原文表示返信0
MEVSandwichvip
· 15時間前
流行に乗ったAIがまた概念を作り出した。
原文表示返信0
GasFeeCriervip
· 16時間前
もうやめて、これ明らかにGPTの文書じゃん
原文表示返信0
P2ENotWorkingvip
· 16時間前
モデル通貨が始まったよ
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)