OpenLedger : Construire une économie d'agents intelligents modulaires basée sur les données

Rapport de recherche approfondi OpenLedger : construire une économie d'agents intelligente, pilotée par les données et modulable, sur la base de OP Stack + EigenDA

I. Introduction | La transition de la couche modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparables au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), tous indispensables. Comme pour l'évolution de l'infrastructure dans l'industrie traditionnelle de l'IA, le domaine de l'IA Crypto a également traversé des étapes similaires. Au début de 2024, le marché a été dominé par des projets GPU décentralisés, mettant généralement l'accent sur la logique de croissance extensive basée sur la « puissance de calcul ». Cependant, à partir de 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de l'IA Crypto d'une compétition pour les ressources de base à une construction intermédiaire plus durable et ayant une valeur d'application.

Modèle général (LLM) vs Modèle spécialisé (SLM)

Les modèles de langage traditionnels (LLM) reposent fortement sur des ensembles de données massifs et des architectures distribuées complexes, avec des tailles de paramètres allant de 70B à 500B, et le coût d'une seule formation peut atteindre plusieurs millions de dollars. En revanche, le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source, combinant une petite quantité de données professionnelles de haute qualité et des technologies telles que LoRA, permettant de construire rapidement des modèles d'experts possédant des connaissances spécifiques à un domaine, tout en réduisant considérablement les coûts de formation et les barrières techniques.

Il convient de noter que le SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec le LLM via l'architecture Agent, le système de plugins pour le routage dynamique, le module LoRA en hot-plug et RAG (génération améliorée par la recherche). Cette architecture préserve la capacité de large couverture du LLM tout en renforçant la performance professionnelle grâce à des modules de réglage fin, formant ainsi un système intelligent modulaire hautement flexible.

Crypto AI dans la valeur et les limites du niveau modèle

Les projets Crypto AI sont essentiellement difficiles à améliorer directement les capacités fondamentales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Barrière technologique trop élevée : l'ampleur des données, des ressources de calcul et des capacités d'ingénierie nécessaires pour entraîner un modèle fondamental est extrêmement importante, et seules des géants technologiques comme les États-Unis et la Chine possèdent actuellement cette capacité.
  • Limites de l'écosystème open source : Bien que des modèles de base mainstream comme LLaMA et Mixtral soient open source, la véritable clé pour faire progresser les modèles reste concentrée dans les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets en chaîne au niveau du modèle central est limité.

Cependant, sur la base des modèles fondamentaux open source, les projets Crypto AI peuvent encore réaliser une extension de valeur grâce à l'ajustement fin des modèles de langage spécialisés (SLM), en combinant la vérifiabilité et les mécanismes d'incitation de Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie AI, cela se manifeste dans deux directions clés :

  • Couche de vérification fiable : en enregistrant en chaîne les chemins de génération de modèles, les contributions de données et les cas d'utilisation, elle renforce la traçabilité et la résistance à la falsification des sorties de l'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution d'agents (Agent), etc., construire un cycle vertueux de formation et de service des modèles.

Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain

Il en ressort que les points d'ancrage viables des projets de type Crypto AI se concentrent principalement sur le réglage léger des SLM de petite taille, l'intégration et la validation des données on-chain dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de token, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, formant ainsi une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne AI basée sur des données et des modèles de blockchain peut enregistrer de manière claire et immuable la source de contribution de chaque donnée et modèle sur la chaîne, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. De plus, grâce au mécanisme de contrats intelligents, des récompenses sont automatiquement distribuées lorsque des données ou des modèles sont appelés, transformant le comportement de l'IA en une valeur tokenisée mesurable et échangeable, construisant un système d'incitation durable. En outre, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le vote avec des tokens, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

OpenLedger Depth Rapport d'étude : construire une économie d'agents intelligents, axée sur les données et modulable, avec OP Stack + EigenDA comme base

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets d'IA blockchain sur le marché actuel, axé sur les mécanismes d'incitation liés aux données et aux modèles. Il a été le premier à proposer le concept de « Payable AI », visant à construire un environnement d'exécution d'IA équitable, transparent et combinable, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications IA à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger offre une boucle fermée complète allant de « la fourniture de données » à « le déploiement de modèles » puis à « l'appel des partages de bénéfices », dont les modules principaux incluent :

  • Model Factory : sans programmation, vous pouvez utiliser le LLM open source pour effectuer un entraînement de fine-tuning avec LoRA et déployer des modèles personnalisés ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses via l'enregistrement des appels en chaîne ;
  • Datanets : Réseau de données structurées destiné aux scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : un marché de modèles en chaîne qui est combinable, appelable et payant.

Grâce aux modules ci-dessus, OpenLedger a construit une « infrastructure économique des agents intelligents » basée sur des données et modélisable, favorisant la chaîne de valeur de l'IA sur la blockchain.

Et en matière d'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats à haute performance, à faible coût et vérifiable pour les modèles d'IA.

  • Construire sur OP Stack : basé sur la technologie Optimism, prend en charge un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • Compatibilité EVM : permet aux développeurs de déployer et d'étendre rapidement sur la base de Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé aux chaînes d'IA généralistes comme NEAR, qui sont plus axées sur les couches de base et mettent l'accent sur la souveraineté des données ainsi que sur l'architecture « AI Agents on BOS », OpenLedger se concentre davantage sur la construction de chaînes dédiées à l'IA orientées vers les incitations liées aux données et aux modèles. Elle s'efforce de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne, réalisant ainsi une boucle de valeur. C'est une infrastructure d'incitation pour les modèles dans le monde du Web3, combinant l'hébergement de modèles, la facturation à l'utilisation et des interfaces combinables sur la chaîne, favorisant le chemin vers la réalisation de « modèles en tant qu'actifs ».

OpenLedger Depth Report : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et combinable par modèles

Trois, les composants clés et l'architecture technique d'OpenLedger

Usine de Modèle 3.1, usine de modèle sans code

ModelFactory est une plateforme de micro-ajustement de modèle de langage (LLM) à grande échelle sous l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans nécessiter d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent ajuster les modèles sur la base de jeux de données autorisés et vérifiés complétés sur OpenLedger. Cela réalise un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés comprennent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur l'examine et l'approuve, les données sont automatiquement intégrées à l'interface d'entraînement du modèle.
  • Sélection et configuration du modèle : prend en charge les principaux LLM (comme LLaMA, Mistral) et configure les hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : Outils d'évaluation intégrés, prenant en charge l'exportation du déploiement ou l'appel partagé dans l'écosystème.
  • Interface de vérification interactive : Fournit une interface de type chat, facilitant le test direct des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : réponses avec des références de source, renforçant la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, couvrant l'authentification des identités, les droits d'accès aux données, le réglage fin des modèles, le déploiement des évaluations et la traçabilité RAG, créant une plateforme de service de modèle intégrée, sécurisée, contrôlable, interactive en temps réel et durable pour la monétisation.

OpenLedger Depth Research Report : Construire une économie d'agents intelligents, axée sur les données et modélisable, sur la base de OP Stack + EigenDA

Le tableau ci-dessous présente un résumé des capacités des grands modèles de langage actuellement supportés par ModelFactory :

  • Série LLaMA : avec un écosystème très large, une communauté active et de solides performances générales, c'est l'un des modèles de base open-source les plus populaires actuellement.
  • Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios de déploiement flexibles et de ressources limitées.
  • Qwen : Produit par Alibaba, performance exceptionnelle sur les tâches en chinois, compétences globales solides, idéal pour les développeurs nationaux.
  • ChatGLM : l'effet de conversation en chinois est remarquable, adapté aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par Google, avec une structure claire, facile à prendre en main rapidement et à expérimenter.
  • Falcon : Autrefois un étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : un bon support multilingue, mais des performances d'inférence relativement faibles, adapté à la recherche axée sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, uniquement adapté à des fins pédagogiques et de validation, déconseillé pour une utilisation en déploiement réel.

Bien que le portefeuille de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas obsolète, mais plutôt une configuration « axée sur l'utilité » basée sur les contraintes de déploiement en chaîne (coût d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM).

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un parcours complet pour l'incubation, la distribution et les revenus du modèle ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modèles ;
  • Pour les utilisateurs : il est possible de combiner les modèles ou les agents comme si vous appeliez une API.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligente, pilotée par les données et modulable à partir de OP Stack + EigenDA

3.2 OpenLoRA, l'assetisation on-chain des modèles de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage des paramètres efficace, qui apprend de nouvelles tâches en insérant une « matrice de faible rang » dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) ont généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme les questions juridiques, les consultations médicales), un réglage (fine-tuning) est nécessaire. La stratégie centrale de LoRA est : « Geler les paramètres du grand modèle d'origine et n'entraîner que les nouvelles matrices de paramètres insérées. » Ses paramètres efficaces, son entraînement rapide et son déploiement flexible en font la méthode de réglage la plus adaptée au déploiement et à l'appel combiné de modèles Web3.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, spécialement conçu pour le déploiement multi-modèles et le partage de ressources. Son objectif principal est de résoudre les problèmes courants de coût élevé, de faible réutilisation et de gaspillage de ressources GPU dans le déploiement des modèles d'IA, tout en favorisant l'exécution de l'« IA payante » (Payable AI).

Composants clés de l'architecture système OpenLoRA, basés sur une conception modulaire, couvrant le stockage de modèles, l'exécution d'inférence, le routage des demandes et d'autres étapes clés, réalisant des capacités de déploiement et d'appel de plusieurs modèles de manière efficace et à faible coût :

  • Module de stockage LoRA Adapter (LoRA Adapters Storage) : L'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande, évitant de précharger tous les modèles dans la mémoire vidéo, économisant ainsi des ressources.
  • Hébergement de modèles et couche de fusion d'adaptateurs (Hébergement de modèles & Couche de fusion d'adaptateurs) : tous les modèles ajustés partagent le modèle de base (base model), lors de l'inférence
OP-2.79%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
airdrop_whisperervip
· Il y a 36m
Encore en train de surfer sur la vague de l'IA...
Voir l'originalRépondre0
MondayYoloFridayCryvip
· Il y a 10h
Ce marché est vraiment trop fou...
Voir l'originalRépondre0
MentalWealthHarvestervip
· Il y a 10h
Machine de surveillance des pigeons coûteuse
Voir l'originalRépondre0
CantAffordPancakevip
· Il y a 10h
l'univers de la cryptomonnaie premier investisseur détaillant dans la confusion !
Voir l'originalRépondre0
fren.ethvip
· Il y a 10h
Écrire autant n'est qu'une simple opération de spéculation.
Voir l'originalRépondre0
SmartContractWorkervip
· Il y a 10h
Il semble qu'il faille encore se battre pendant quelques années.
Voir l'originalRépondre0
Blockblindvip
· Il y a 10h
La puissance de calcul finira par refroidir tôt ou tard.
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)