OpenLedger construye una cadena de IA impulsada por datos para lograr la monetización de modelos y una economía de agentes inteligentes combinables.

Informe profundo de OpenLedger: Construyendo una economía de agentes inteligentes impulsada por datos y modelos combinables

I. Introducción | La transición de la capa de modelo de Crypto AI

Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, y no se puede prescindir de ninguno. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados, que enfatizaban en gran medida la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a medida que entramos en 2025, el enfoque de la industria se ha trasladado gradualmente hacia las capas de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción de una capa media con mayor sostenibilidad y valor de aplicación.

Modelo General (LLM) vs Modelo Especializado (SLM)

Los modelos de lenguaje grandes (LLM) tradicionales dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con un tamaño de parámetros que oscila entre 70B y 500B, y el costo de entrenar uno a menudo alcanza varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado) es un paradigma de ajuste ligero de un modelo base reutilizable, que generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimiento en campos específicos, reduciendo significativamente los costos de entrenamiento y la barrera técnica.

Es importante destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de la arquitectura de Agente, el enrutamiento dinámico del sistema de plugins, la conexión en caliente de módulos LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la amplia capacidad de cobertura de LLM y, al mismo tiempo, mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente modular altamente flexible.

Crypto AI en el valor y los límites de la capa del modelo

Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que

  • La barrera técnica es demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un Modelo Fundacional son extremadamente grandes, y actualmente solo los gigantes tecnológicos tienen la capacidad correspondiente.
  • Limitaciones del ecosistema de código abierto: aunque modelos básicos de corriente como LLaMA y Mixtral han sido de código abierto, la clave para impulsar la ruptura del modelo sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, el espacio de participación de los proyectos en cadena en el nivel de modelo central es limitado.

Sin embargo, sobre modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la industria de IA, se manifiesta en dos direcciones centrales:

  • Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
  • Mecanismo de incentivos: Con la ayuda del Token nativo, se utiliza para incentivar la carga de datos, la llamada a modelos, la ejecución de agentes, entre otras acciones, construyendo un ciclo positivo de entrenamiento y servicio del modelo.

Análisis de la aplicabilidad de los tipos de modelos de IA y la blockchain

Por lo tanto, se puede ver que los puntos de enfoque viables para los proyectos de Crypto AI de tipo modelo se concentran principalmente en la optimización ligera de SLM de pequeño tamaño, la integración y verificación de datos en cadena en la arquitectura RAG, así como el despliegue local de modelos Edge y los incentivos asociados. Combinando la verificabilidad de la blockchain y el mecanismo de tokens, Crypto puede ofrecer un valor único en estos escenarios de modelos de recursos medios y bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.

La cadena de bloques de IA basada en datos y modelos puede llevar un registro claro e inmutable de la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contrato inteligente, se activa automáticamente la distribución de recompensas cuando se llama a los datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo así un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo a través de votaciones con tokens, participar en la formulación y la iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Descripción del proyecto | La visión de la cadena AI de OpenLedger

OpenLedger es uno de los pocos proyectos de IA en blockchain en el mercado actual que se centra en los mecanismos de incentivos para datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y componible, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y recibir ingresos en cadena según sus contribuciones reales.

OpenLedger proporciona un ciclo cerrado completo que va desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de participación en beneficios", cuyos módulos centrales incluyen:

  • Fábrica de Modelos: Sin necesidad de programación, se pueden ajustar, entrenar e implementar modelos personalizados basados en LLM de código abierto utilizando LoRA.
  • OpenLoRA: Soporta la coexistencia de miles de modelos, carga dinámica según demanda, lo que reduce significativamente los costos de implementación;
  • PoA (Prueba de Atribución): medir la contribución y distribuir recompensas a través de registros de llamadas en la cadena;
  • Datanets: redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
  • Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena combinables, llamables y pagables.

A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.

Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, construyendo un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.

  • Construido sobre OP Stack: basado en la pila de tecnología de Optimism, admite ejecución de alta capacidad y bajo costo;
  • Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
  • Compatible con EVM: permite a los desarrolladores implementar y expandir rápidamente basándose en Solidity;
  • EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.

En comparación con la cadena de IA de propósito general que se centra más en la capa inferior, en la soberanía de datos y en la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir una cadena de IA dedicada a la incentivación de datos y modelos, comprometida a lograr que el desarrollo y la invocación de modelos se realicen en la cadena de manera rastreable, combinable y sostenible. Es la infraestructura básica de incentivación de modelos en el mundo Web3, combinando la gestión de modelos, la facturación de uso y las interfaces combinables en la cadena, impulsando el camino hacia la realización de "modelo como activo".

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Tres, los componentes centrales y la arquitectura técnica de OpenLedger

3.1 Fábrica de Modelos, fábrica de modelos sin código

ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento del modelo y el despliegue, cuyo proceso central incluye:

  • Control de acceso a datos: El usuario envía una solicitud de datos, el proveedor revisa y aprueba, y los datos se conectan automáticamente a la interfaz de entrenamiento del modelo.
  • Selección y configuración del modelo: Soporta LLM de vanguardia (como LLaMA, Mistral), configurando hiperparámetros a través de la GUI.
  • Ajuste ligero: motor LoRA / QLoRA incorporado, muestra en tiempo real el progreso de entrenamiento.
  • Evaluación y despliegue del modelo: Herramientas de evaluación integradas, que soportan la exportación para el despliegue o la llamada compartida en el ecosistema.
  • Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
  • RAG generación de trazabilidad: Respuestas con citas de origen, mejorando la confianza y la auditabilidad.

La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación de implementación y trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura y controlable, con interacción en tiempo real y capacidad de monetización sostenible.

A continuación se muestra un resumen de las capacidades de los modelos de lenguaje grande que ModelFactory admite actualmente:

  • LLaMA系列: el ecosistema más amplio, comunidad activa y gran rendimiento general, es uno de los modelos básicos de código abierto más populares en la actualidad.
  • Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de implementación flexible y recursos limitados.
  • Qwen: El rendimiento en tareas en chino es excelente, con una fuerte capacidad integral, adecuado como primera opción para desarrolladores nacionales.
  • ChatGLM: El efecto de conversación en chino es destacado, adecuado para servicios al cliente de nicho y escenarios de localización.
  • Deepseek: se desempeña de manera superior en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
  • Gemma: Modelo ligero lanzado por Google, con una estructura clara, fácil de usar y experimentar rápidamente.
  • Falcon: Anteriormente fue un referente de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
  • BLOOM: Soporte multilingüe fuerte, pero rendimiento de inferencia débil, adecuado para investigaciones de cobertura de idiomas.
  • GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en implementación real.

Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones de implementación en la cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración de "prioridad práctica".

Model Factory como una cadena de herramientas sin código, todos los modelos tienen un mecanismo de prueba de contribución incorporado, que garantiza los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:

  • Para los desarrolladores: proporcionar un camino completo para la incubación, distribución y generación de ingresos del modelo;
  • Para la plataforma: formar un ecosistema de circulación y combinación de activos de modelo;
  • Para los usuarios: se pueden combinar modelos o agentes como si se llamara a una API.

OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, la tokenización de activos en la cadena del modelo de ajuste fino.

LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un gran modelo preentrenado, sin modificar los parámetros del modelo original, lo que reduce considerablemente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas, es necesario realizar un ajuste fino. La estrategia central de LoRA es: "congelar los parámetros del gran modelo original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y flexibilidad de implementación lo convierten en el método de ajuste fino más adecuado para la implementación y la llamada combinada de modelos Web3.

OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es resolver los problemas comunes de alto costo, baja reutilización y el desperdicio de recursos de GPU en el despliegue actual de modelos de IA, promoviendo la ejecución de "IA pagable" (Payable AI).

El componente central de la arquitectura del sistema OpenLoRA, basado en un diseño modular, abarca el almacenamiento de modelos, la ejecución de inferencias, el enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y de bajo costo.

  • Módulo de almacenamiento de LoRA Adapter: el adaptador LoRA ajustado se aloja en OpenLedger, lo que permite la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video y ahorrando recursos.
  • Alojamiento de modelos y capa de fusión dinámica: todos los modelos de ajuste fino comparten un modelo base grande, durante la inferencia se fusionan dinámicamente los adaptadores LoRA, soportando la inferencia conjunta de múltiples adaptadores, mejorando el rendimiento.
  • Motor de inferencia: integra múltiples tecnologías de optimización CUDA como Flash-Attention, Paged-Attention y SGMV.
  • Módulo de enrutamiento de solicitudes y salida en flujo: enrutamiento dinámico al adaptador correcto según el modelo requerido en la solicitud, logrando la generación en flujo a nivel de token mediante la optimización del núcleo.

El proceso de inferencia de OpenLoRA pertenece al nivel técnico de un proceso de servicio de modelo "maduro y general", como se muestra a continuación:

  • Carga del modelo base: el sistema pre carga modelos grandes como LLaMA 3, Mistral, etc. hasta
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 7
  • Compartir
Comentar
0/400
LiquidatedDreamsvip
· hace13h
la gpu está hecha un desastre, ¿y aún aprovechan la tendencia de la IA?
Ver originalesResponder0
AllInAlicevip
· 07-13 17:45
Otra vez un modelo combinable, ¿hay perspectivas valiosas?
Ver originalesResponder0
GasFeeBarbecuevip
· 07-12 04:26
¿Es un plagio de Arbitrum?
Ver originalesResponder0
TokenomicsTinfoilHatvip
· 07-12 04:24
AI cadena, ni siquiera los perros juegan con eso
Ver originalesResponder0
MEVSandwichvip
· 07-12 04:23
Ahora vienen a hacer conceptos siguiendo la tendencia de la IA.
Ver originalesResponder0
GasFeeCriervip
· 07-12 04:18
Deja de fingir, esto es claramente un texto de GPT.
Ver originalesResponder0
P2ENotWorkingvip
· 07-12 04:17
La moneda del modelo ha comenzado a rodar.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)