従来の大規模言語モデル(LLM)のトレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存し、パラメータの規模は70B〜500Bに達することが多く、1回のトレーニングコストは数百万ドルに達することがあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門家モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。
データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献源を明確かつ改ざん不可能な形でオンチェーン記録し、データの信頼性とモデルトレーニングのトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出される際に自動的に報酬配分がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定や改訂に参加し、分散型ガバナンスアーキテクチャを改善することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
あるブロックチェーンに比べて、データの主権と「AI Agents on BOS」アーキテクチャを主打とするより基盤的な汎用型AIチェーンに対して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、あるモデルホスティングプラットフォームのようなモデルホスティング、ある決済プラットフォームのような使用課金、あるインフラプラットフォームのようなチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現への道筋を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactory は、OpenLedger エコシステム内の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルユーザーインターフェースを提供し、コマンドラインツールや API 統合は不要です。ユーザーは、OpenLedger 上で権限を取得し、審査を受けたデータセットに基づいてモデルを微調整できます。データの権限取得、モデルのトレーニング、デプロイメントを統合したワークフローを実現しており、そのコアプロセスには以下が含まれます:
Model Factory のシステムアーキテクチャは、6 つの主要モジュールで構成されており、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAG トレーサビリティを通じて、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、収益化可能性、および組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:
開発者向け:モデルのインキュベーション、配布、収益の完全なパスを提供します;
プラットフォームに対して:モデル資産の流通と組み合わせのエコシステムを形成する;
アプリケーター向け:モデルまたはエージェントをAPIを呼び出すように組み合わせて使用できます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
OpenLedgerはデータ駆動型のスマートエコノミーを構築します。OP StackとEigenDAを基盤としています。
OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデルが組み合わさるスマートエージェント経済を構築
一、引言 | Crypto AI のモデルレイヤーの飛躍
データ、モデルと算力はAIインフラストラクチャの三大核心要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせません。従来のAI業界のインフラ進化パスに似て、Crypto AI分野も同様の段階を経てきました。2024年初頭、市場は一時去中心化GPUプロジェクトに主導され、(いくつかの去中心化GPU計算プラットフォームなど)、一般的に「拼算力」の粗放型成長論理を強調していました。しかし2025年以降、業界の関心は徐々にモデルとデータ層に移行し、Crypto AIが底層資源競争からより持続可能で応用価値のある中層構築へと移行することを示しています。
General Large Model(LLM)とSpecialized Model(SLM)
従来の大規模言語モデル(LLM)のトレーニングは、大規模データセットと複雑な分散アーキテクチャに高度に依存し、パラメータの規模は70B〜500Bに達することが多く、1回のトレーニングコストは数百万ドルに達することがあります。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はLLaMA、Mistral、DeepSeekなどのオープンソースモデルに基づき、少量の高品質な専門データとLoRAなどの技術を組み合わせて、特定の分野の知識を持つ専門家モデルを迅速に構築し、トレーニングコストと技術的ハードルを大幅に低減します。
注目すべきは、SLM が LLM の重みの中に統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRA モジュールのホットスワップ、RAG(リトリーバル強化生成)などの方法で LLM と協力して動作することです。このアーキテクチャは、LLM の広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを向上させ、高度に柔軟なコンビネーション型インテリジェンスシステムを形成しています。
Crypto AI のモデル層における価値と境界
Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)のコア能力を直接向上させることが難しい。その核心的な理由は、
しかし、オープンソースの基盤モデルの上に、Crypto AI プロジェクトは依然として特化した言語モデル(SLM)を微調整し、Web3 の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI 産業チェーンの「周辺インターフェース層」として、2 つのコア方向に具現化されています:
AIモデルタイプの分類とブロックチェーンの適用性分析
ここからわかるように、モデル系のCrypto AIプロジェクトの実行可能な落点は主に、小型SLMの軽量化調整、RAGアーキテクチャのチェーン上データの接続と検証、そしてEdgeモデルのローカルデプロイとインセンティブに集中しています。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中小リソースモデルシナリオに特有の価値を提供し、AIの"インターフェース層"の差別化された価値を形成します。
データとモデルに基づくブロックチェーン AI チェーンは、各データおよびモデルの貢献源を明確かつ改ざん不可能な形でオンチェーン記録し、データの信頼性とモデルトレーニングのトレーサビリティを大幅に向上させます。同時に、スマートコントラクトメカニズムを通じて、データまたはモデルが呼び出される際に自動的に報酬配分がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブシステムを構築します。さらに、コミュニティユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定や改訂に参加し、分散型ガバナンスアーキテクチャを改善することができます。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)
二、プロジェクト概要 | OpenLedger の AI チェーンビジョン
OpenLedgerは現在の市場で数少ないデータとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。"Payable AI"の概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目的としており、データ提供者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の利益を得ることを促進します。
OpenLedgerは、「データ提供」から「モデルデプロイ」さらには「呼び出し分配」に至る全チェーンのクローズドループを提供しており、そのコアモジュールには次のものが含まれます:
上記のモジュールを通じて、OpenLedgerはデータ駆動型、モデルコンバイナブルな"スマートエージェント経済基盤"を構築し、AIバリューチェーンのチェーン化を推進しています。
そして、ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。
あるブロックチェーンに比べて、データの主権と「AI Agents on BOS」アーキテクチャを主打とするより基盤的な汎用型AIチェーンに対して、OpenLedgerはデータとモデルのインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しをチェーン上で追跡可能、組み合わせ可能、持続可能な価値のクローズドループを実現することを目指しています。これはWeb3の世界におけるモデルインセンティブの基盤インフラであり、あるモデルホスティングプラットフォームのようなモデルホスティング、ある決済プラットフォームのような使用課金、あるインフラプラットフォームのようなチェーン上の組み合わせ可能なインターフェースを組み合わせて、「モデルは資産である」という実現への道筋を推進しています。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)
三、OpenLedger のコアコンポーネントと技術アーキテクチャ
3.1 モデルファクトリー、コード不要のモデルファクトリー
ModelFactory は、OpenLedger エコシステム内の大規模言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋なグラフィカルユーザーインターフェースを提供し、コマンドラインツールや API 統合は不要です。ユーザーは、OpenLedger 上で権限を取得し、審査を受けたデータセットに基づいてモデルを微調整できます。データの権限取得、モデルのトレーニング、デプロイメントを統合したワークフローを実現しており、そのコアプロセスには以下が含まれます:
Model Factory のシステムアーキテクチャは、6 つの主要モジュールで構成されており、アイデンティティ認証、データ権限、モデル微調整、評価デプロイメント、RAG トレーサビリティを通じて、安全で制御可能、リアルタイムインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築します。
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)
ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:
OpenLedgerのモデルコンビネーションは最新の高性能MoEモデルやマルチモーダルモデルを含んでいませんが、その戦略は時代遅れではなく、オンチェーンでのデプロイにおける現実的な制約(推論コスト、RAG適応、LoRA互換性、EVM環境)に基づいた"実用優先"の構成を行っています。
Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明メカニズムが組み込まれており、データ貢献者とモデル開発者の権利を確保しています。低いハードル、収益化可能性、および組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:
! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA、微調整モデルのオンチェーン資産化
LoRA(Low-Rank Adaptation)は、効率的なパラメータ微調整手法であり、事前学習された大規模モデルに「低秩行列」を挿入することで新しいタスクを学習し、元のモデルパラメータを変更することなく、トレーニングコストとストレージ要件を大幅に削減します。従来の大規模言語モデル(例えば、LLaMA、GPT-3)は、数十億やさらには千億のパラメータを持つことが一般的です。それらを特定のタスク(法律の質問応答、医療相談など)に使用するためには、微調整(fine-tuning)が必要です。LoRAの核心戦略は、「元の大規模モデルのパラメータをフリーズし、新しく挿入されたパラメータ行列のみをトレーニングする。」であり、そのパラメータ効率、トレーニングの速さ、デプロイの柔軟性から、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整手法です。
OpenLoRAは、OpenLedgerによって構築された、複数のモデルのデプロイメントとリソースの共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルのデプロイメントにおける一般的な高コスト、低再利用、GPUリソースの浪費などの問題を解決し、"可支付AI"(Payable AI)の実現を推進することです。
OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーし、高効率で低コストのマルチモデル展開と呼び出し能力を実現しています。