OpenLedger construit une économie d'agents intelligents pilotée par les données avec OP Stack et EigenDA comme base.

OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, axée sur les données et avec des modèles combinables.

I. Introduction | La transition de la couche modèle de Crypto AI

Les données, les modèles et la puissance de calcul sont les trois éléments clés de l'infrastructure de l'IA, comparable au carburant (données), au moteur (modèles) et à l'énergie (puissance de calcul), aucun ne peut être omis. Comme pour l'évolution de l'infrastructure de l'industrie de l'IA traditionnelle, le domaine de la Crypto IA a également traversé des phases similaires. Au début de 2024, le marché a été dominé par des projets de GPU décentralisés ( certains d'entre eux des plateformes de calcul GPU décentralisées, soulignant généralement une logique de croissance expansive "basée sur la puissance de calcul". En entrant en 2025, l'attention de l'industrie se déplace progressivement vers les couches de modèles et de données, marquant la transition de la Crypto IA d'une compétition pour les ressources de base vers une construction de niveau intermédiaire plus durable et ayant une valeur d'application.

) Modèles généraux (LLM) vs Modèles spécialisés (SLM)

Les modèles de langage traditionnels (LLM) dépendent fortement de jeux de données à grande échelle et d'architectures distribuées complexes, avec une taille de paramètres allant de 70B à 500B, et le coût d'une seule formation atteignant souvent plusieurs millions de dollars. Le SLM (Specialized Language Model), en tant que paradigme de réglage léger d'un modèle de base réutilisable, est généralement basé sur des modèles open source tels que LLaMA, Mistral, DeepSeek, et combine une petite quantité de données professionnelles de haute qualité et des technologies comme LoRA pour construire rapidement des modèles d'experts possédant des connaissances dans des domaines spécifiques, réduisant ainsi considérablement les coûts de formation et les barrières techniques.

Il est important de noter que SLM ne sera pas intégré dans les poids LLM, mais fonctionnera en collaboration avec LLM grâce à des appels via l'architecture Agent, un système de plugins pour le routage dynamique, le module LoRA pour le branchement à chaud, et RAG (génération augmentée par récupération). Cette architecture conserve la large capacité de couverture de LLM tout en améliorant les performances professionnelles grâce à des modules de réglage fin, formant ainsi un système intelligent combiné hautement flexible.

La valeur et les limites de l'AI Crypto au niveau du modèle

Les projets Crypto AI ont essentiellement du mal à améliorer directement les capacités centrales des modèles de langage de grande taille (LLM), la raison principale étant que

  • Seuil technologique trop élevé : l'échelle des données, des ressources de calcul et des capacités d'ingénierie nécessaires pour entraîner un modèle de fondation est extrêmement vaste ; actuellement, seuls des géants technologiques comme ceux des États-Unis (certaines entreprises d'IA, etc.) et de Chine (certaines entreprises d'IA, etc.) disposent des capacités adéquates.
  • Limites de l'écosystème open source : Bien que des modèles de base majeurs tels que LLaMA et Mixtral soient disponibles en open source, la clé pour faire progresser véritablement les modèles reste concentrée sur les institutions de recherche et les systèmes d'ingénierie fermés, l'espace de participation des projets sur la chaîne au niveau des modèles de base est limité.

Cependant, sur la base des modèles fondamentaux open source, le projet Crypto AI peut encore réaliser une extension de valeur en affinant des modèles de langage spécialisés (SLM), tout en combinant la vérifiabilité et les mécanismes d'incitation du Web3. En tant que "couche d'interface périphérique" de la chaîne de l'industrie de l'IA, cela se manifeste dans deux directions principales :

  • Couche de vérification fiable : enregistre sur la chaîne les chemins de génération de modèles, les contributions de données et les cas d'utilisation, renforçant ainsi la traçabilité et la résistance aux falsifications des sorties d'IA.
  • Mécanisme d'incitation : Grâce au Token natif, utilisé pour inciter le téléchargement de données, l'appel de modèles, l'exécution des agents (Agent), construire un cycle positif de formation et de service des modèles.

Classification des types de modèles d'IA et analyse de l'applicabilité de la blockchain

Il en ressort que les points de chute viables des projets de type Crypto AI se concentrent principalement sur l'allégement et le réglage fin des SLM de petite taille, l'intégration et la vérification des données en chaîne dans l'architecture RAG, ainsi que le déploiement local et l'incitation des modèles Edge. En combinant la vérifiabilité de la blockchain et le mécanisme de jetons, Crypto peut offrir une valeur unique pour ces scénarios de modèles à ressources moyennes et faibles, créant une valeur différenciée pour la "couche d'interface" de l'IA.

La chaîne AI basée sur les données et les modèles de blockchain peut enregistrer de manière claire et immuable l'origine des contributions de chaque donnée et modèle sur la chaîne, améliorant ainsi de manière significative la crédibilité des données et la traçabilité de l'entraînement des modèles. En même temps, grâce au mécanisme des contrats intelligents, des récompenses sont automatiquement distribuées lors de l'appel de données ou de modèles, transformant les comportements AI en valeur tokenisée mesurable et échangeable, et construisant un système d'incitation durable. De plus, les utilisateurs de la communauté peuvent également évaluer les performances des modèles par le biais de votes sur les jetons, participer à l'élaboration et à l'itération des règles, et améliorer l'architecture de gouvernance décentralisée.

![OpenLedger Depth Rapport de recherche : en utilisant OP Stack + EigenDA comme base, construire une économie d'agents intelligents, axée sur les données et modélable]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(

II. Aperçu du projet | La vision de la chaîne AI d'OpenLedger

OpenLedger est l'un des rares projets de blockchain AI sur le marché actuellement axé sur les mécanismes d'incitation des données et des modèles. Il a été le premier à proposer le concept de "Payable AI", visant à construire un environnement opérationnel AI équitable, transparent et composé, incitant les contributeurs de données, les développeurs de modèles et les constructeurs d'applications AI à collaborer sur la même plateforme et à obtenir des revenus en chaîne en fonction de leurs contributions réelles.

OpenLedger fournit une boucle fermée de bout en bout allant de "fourniture de données" à "déploiement de modèles" puis à "appel de partage des profits", ses modules principaux comprennent :

  • Model Factory : sans programmation, utilisez LoRA pour l'ajustement fin et le déploiement de modèles personnalisés basés sur LLM open source ;
  • OpenLoRA : prend en charge la coexistence de milliers de modèles, chargement dynamique à la demande, réduisant considérablement les coûts de déploiement ;
  • PoA (Proof of Attribution) : mesure de contribution et distribution des récompenses grâce aux enregistrements d'appels sur la chaîne ;
  • Datanets : un réseau de données structuré axé sur des scénarios verticaux, construit et vérifié par la collaboration de la communauté ;
  • Plateforme de proposition de modèle (Model Proposal Platform) : marché de modèles en chaîne combinables, appelables et payables.

Grâce aux modules ci-dessus, OpenLedger a construit une "infrastructure économique des agents intelligents" axée sur les données et modulable, favorisant la chaîne de valeur de l'IA sur la blockchain.

Dans l'adoption de la technologie blockchain, OpenLedger utilise OP Stack + EigenDA comme base pour construire un environnement d'exécution de données et de contrats performant, à faible coût et vérifiable pour les modèles d'IA.

  • Construit sur OP Stack : Basé sur la technologie Optimism, il prend en charge un haut débit et une exécution à faible coût ;
  • Règlement sur le réseau principal Ethereum : Assurer la sécurité des transactions et l'intégrité des actifs ;
  • EVM compatible : permet aux développeurs de déployer et d'étendre rapidement des applications basées sur Solidity ;
  • EigenDA fournit un support de disponibilité des données : réduit considérablement les coûts de stockage et garantit la vérifiabilité des données.

Comparé à une blockchain comme celle-ci, qui est plus axée sur les couches inférieures, mettant en avant la souveraineté des données et l'architecture "AI Agents on BOS", OpenLedger se concentre davantage sur la construction d'une chaîne AI dédiée aux incitations basées sur les données et les modèles, s'efforçant de rendre le développement et l'appel des modèles traçables, combinables et durables sur la chaîne. C'est une infrastructure d'incitation de modèle dans le monde Web3, combinant l'hébergement de modèles d'une plateforme d'hébergement de modèles, la facturation d'utilisation d'une plateforme de paiement et des interfaces combinables sur la chaîne d'une plateforme d'infrastructure, favorisant ainsi la réalisation du concept "le modèle est un actif".

![OpenLedger Depth Report : Construire une économie d'agents intelligente, basée sur OP Stack + EigenDA, axée sur les données et modélisable])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(

Trois, les composants clés et l'architecture technique d'OpenLedger

) 3.1 Modèle d'usine, modèle d'usine sans code

ModelFactory est une plateforme de micro-ajustement de grands modèles de langage (LLM) au sein de l'écosystème OpenLedger. Contrairement aux cadres de micro-ajustement traditionnels, ModelFactory offre une interface entièrement graphique, sans besoin d'outils en ligne de commande ou d'intégration API. Les utilisateurs peuvent ajuster le modèle en fonction des ensembles de données autorisés et vérifiés complétés sur OpenLedger. Cela met en œuvre un flux de travail intégré pour l'autorisation des données, l'entraînement des modèles et le déploiement, dont les processus clés incluent :

  • Contrôle d'accès aux données : L'utilisateur soumet une demande de données, le fournisseur examine et approuve, les données se connectent automatiquement à l'interface de formation du modèle.
  • Sélection et configuration du modèle : prend en charge les LLM populaires (comme LLaMA, Mistral) et permet de configurer les hyperparamètres via l'interface graphique.
  • Ajustement léger : moteur LoRA / QLoRA intégré, affichage en temps réel de la progression de l'entraînement.
  • Évaluation et déploiement des modèles : Outils d'évaluation intégrés, support pour l'exportation du déploiement ou l'appel partagé dans l'écosystème.
  • Interface de validation interactive : Fournit une interface de type chat, facilitant les tests directs des capacités de question-réponse du modèle.
  • RAG génération de traçabilité : Répondre avec des citations de source, renforcer la confiance et l'auditabilité.

L'architecture du système Model Factory comprend six grands modules, englobant l'authentification d'identité, les droits d'accès aux données, le réglage fin des modèles, le déploiement d'évaluation et la traçabilité RAG, créant ainsi une plateforme de services de modèles intégrée, sécurisée, contrôlable, interactive en temps réel et capable de générer des revenus de manière durable.

![OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents basée sur OP Stack + EigenDA, pilotée par les données et modulable]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(

Le tableau ci-dessous résume les capacités des grands modèles de langage actuellement pris en charge par ModelFactory :

  • Série LLaMA : avec l'écosystème le plus large, une communauté active et de fortes performances générales, c'est l'un des modèles de base open-source les plus courants actuellement.
  • Mistral : architecture efficace, performance d'inférence excellente, adaptée aux scénarios déployés de manière flexible et avec des ressources limitées.
  • Qwen : Produit par une certaine entreprise, excellent en performance sur des tâches en chinois, avec de fortes capacités globales, idéal pour les développeurs nationaux.
  • ChatGLM : performances de conversation en chinois remarquables, adaptées aux services clients de niche et aux scénarios de localisation.
  • Deepseek : excelle dans la génération de code et le raisonnement mathématique, adapté aux outils d'assistance au développement intelligent.
  • Gemma : un modèle léger lancé par une entreprise, avec une structure claire, facile à prendre en main et à expérimenter.
  • Falcon : Anciennement un étalon de performance, adapté à la recherche fondamentale ou aux tests comparatifs, mais l'activité de la communauté a diminué.
  • BLOOM : un support multilingue fort, mais des performances d'inférence faibles, adapté aux recherches sur la couverture linguistique.
  • GPT-2 : modèle classique précoce, adapté uniquement à des fins d'enseignement et de validation, déconseillé pour une utilisation en production.

Bien que la combinaison de modèles d'OpenLedger n'inclue pas les derniers modèles MoE haute performance ou les modèles multimodaux, sa stratégie n'est pas dépassée, mais plutôt basée sur des contraintes réelles de déploiement on-chain (coûts d'inférence, adaptation RAG, compatibilité LoRA, environnement EVM) pour une configuration "priorité à l'aspect pratique".

Model Factory en tant qu'outil sans code, tous les modèles intègrent un mécanisme de preuve de contribution, garantissant les droits des contributeurs de données et des développeurs de modèles, avec des avantages de faible barrière à l'entrée, de monétisation et de combinabilité, par rapport aux outils de développement de modèles traditionnels :

  • Pour les développeurs : fournir un chemin complet pour l'incubation, la distribution et les revenus des modèles ;
  • Pour la plateforme : former un écosystème de circulation et de combinaison des actifs modélisés ;
  • Pour les utilisateurs : vous pouvez combiner les modèles ou les agents comme si vous appeliez l'API.

![OpenLedger Depth Rapport d'étude : Construire une économie d'agents intelligents, guidée par les données et modulable, sur la base d'OP Stack + EigenDA])https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(

) 3.2 OpenLoRA, l'assetisation on-chain des modèles de fine-tuning

LoRA (Low-Rank Adaptation) est une méthode de réglage de paramètres efficace qui permet d'apprendre de nouvelles tâches en insérant des "matrices de faible rang" dans un grand modèle pré-entraîné, sans modifier les paramètres du modèle d'origine, ce qui réduit considérablement les coûts d'entraînement et les besoins de stockage. Les grands modèles de langage traditionnels (comme LLaMA, GPT-3) possèdent généralement des dizaines de milliards, voire des centaines de milliards de paramètres. Pour les utiliser pour des tâches spécifiques (comme des questions-réponses juridiques ou des consultations médicales), un réglage fin (fine-tuning) est nécessaire. La stratégie clé de LoRA est : "geler les paramètres du grand modèle d'origine et n'entraîner que la nouvelle matrice de paramètres insérée." Ses paramètres sont efficaces, son entraînement rapide et son déploiement flexible, ce qui en fait la méthode de réglage la plus adaptée au déploiement de modèles Web3 et à l'appel combiné.

OpenLoRA est un cadre d'inférence léger construit par OpenLedger, conçu spécifiquement pour le déploiement multi-modèles et le partage des ressources. Son objectif principal est de résoudre les problèmes courants liés au déploiement des modèles d'IA, tels que les coûts élevés, la faible réutilisation et le gaspillage des ressources GPU, tout en promouvant l'exécution de l'"IA payante" (Payable AI).

OpenLoRA architecture core components, basé sur une conception modulaire, couvrent le stockage de modèles, l'exécution d'inférence, le routage des requêtes et d'autres étapes clés, réalisant une capacité de déploiement et d'appel multi-modèles efficace et à faible coût :

  • Module de stockage LoRA Adapter ###LoRA Adapters Storage( : l'adaptateur LoRA affiné est hébergé sur OpenLedger, permettant un chargement à la demande.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Partager
Commentaire
0/400
MetaDreamervip
· 07-10 06:36
La puissance de calcul du modèle n'est pas importante, seul les données comptent.
Voir l'originalRépondre0
ProxyCollectorvip
· 07-09 23:14
À partir d'aujourd'hui, je vais dessiner BTC.
Voir l'originalRépondre0
NftPhilanthropistvip
· 07-08 16:48
en fait... un autre jour à essayer de tokeniser des réseaux neuronaux smh
Voir l'originalRépondre0
DeepRabbitHolevip
· 07-07 08:27
Vous en avez assez de jouer avec la puissance de calcul, n'est-ce pas ?
Voir l'originalRépondre0
0xSunnyDayvip
· 07-07 08:24
Une fois que la base est bien établie, le financement sera rapide.
Voir l'originalRépondre0
gas_guzzlervip
· 07-07 08:07
J'ai compris, la base est toujours L2.
Voir l'originalRépondre0
gaslight_gasfeezvip
· 07-07 08:03
Faut-il encore discuter du niveau supérieur ou se battre sur la puissance de calcul ?
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)