I. Introducción | La transición de la capa de modelos de Crypto AI
Los datos, modelos y poder de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (poder de cálculo) que son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados ( ciertas plataformas de computación GPU descentralizadas, que enfatizaban de manera general la lógica de crecimiento extensivo de "competir en poder de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha trasladado gradualmente a la capa de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a una construcción de medio nivel más sostenible y con valor aplicable.
) Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimiento en dominios específicos, reduciendo significativamente los costos de entrenamiento y la barrera técnica.
Es importante señalar que SLM no se integrará en los pesos de LLM, sino que operará en colaboración con LLM a través de la llamada de la arquitectura Agent, el sistema de plugins de enrutamiento dinámico, la conexión en caliente de módulos LoRA, RAG (generación mejorada por recuperación), entre otros. Esta arquitectura mantiene la capacidad de amplia cobertura de LLM, a la vez que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Barreras tecnológicas demasiado altas: La escala de datos, los recursos computacionales y la capacidad de ingeniería necesarios para entrenar un Modelo Base son extremadamente grandes; actualmente, solo los gigantes tecnológicos de Estados Unidos (como ciertas empresas de IA) y China (como ciertas empresas de IA) tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos básicos de tendencia como LLaMA y Mixtral han sido de código abierto, la clave para impulsar avances en los modelos sigue concentrándose en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo central es limitado.
Sin embargo, sobre los modelos de base de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM) y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la IA, se refleja en dos direcciones centrales:
Capa de verificación confiable: a través de registros en la cadena que documentan la trayectoria de generación de modelos, la contribución de datos y el uso, se mejora la trazabilidad y la capacidad de resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: Aprovechando el Token nativo, se utiliza para incentivar la carga de datos, la llamada a modelos, la ejecución de agentes, etc., construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de la aplicabilidad de blockchain
Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de clase modelo se concentran principalmente en la ligera sintonización de SLM de pequeño tamaño, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y los incentivos de modelos Edge. Combinando la verificabilidad de la blockchain con el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.
La cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado, medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
![Informe de investigación profunda de OpenLedger: construir una economía de agentes impulsada por datos y modelos composables sobre la base de OP Stack + EigenDA]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
II. Resumen del proyecto | La visión de la cadena de OpenLedger basada en IA
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en cadena según sus contribuciones reales.
OpenLedger ofrece un circuito cerrado completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamada de distribución de beneficios", cuyos módulos principales incluyen:
Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para el ajuste fino y entrenamiento de modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, lo que reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: Basado en la pila tecnológica de Optimism, soporta una alta capacidad de procesamiento y ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: Facilita a los desarrolladores implementar y expandir rápidamente sobre Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con ciertas cadenas de bloques que son más de nivel inferior y se centran en la soberanía de los datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos logren un ciclo de valor que sea trazable, combinable y sostenible en la cadena. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos al estilo de una plataforma de gestión de modelos, la facturación de uso al estilo de una plataforma de pagos y la interfaz combinable en la cadena al estilo de una plataforma de infraestructura, promoviendo el camino hacia la realización de "modelo como activo".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
) 3.1 Modelo de Fábrica, fábrica de modelos sin necesidad de código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:
Control de acceso a datos: El usuario envía una solicitud de datos, el proveedor revisa y aprueba, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM populares (como LLaMA, Mistral), configurando hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue de modelos: herramientas de evaluación integradas, soporta la exportación para despliegue o llamadas compartidas en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, lo que facilita la prueba directa de la capacidad de respuesta del modelo.
Generación de trazabilidad RAG: Responde con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicios de modelos integrada que es segura, controlable, interactiva en tiempo real y sostenible en la monetización.
A continuación se muestra un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Serie LLaMA: el ecosistema más amplio, comunidad activa y fuerte rendimiento general, es uno de los modelos básicos de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuada para escenarios de implementación flexible y recursos limitados.
Qwen: Un producto de una empresa, se destaca en tareas en chino, tiene una fuerte capacidad integral, es la mejor opción para los desarrolladores nacionales.
ChatGLM: el efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: sobresale en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: un modelo ligero lanzado por una empresa, con una estructura clara, fácil de usar y experimentar rápidamente.
Falcon: Solía ser un estándar de rendimiento, adecuado para investigación básica o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
GPT-2: modelo clásico temprano, adecuado solo para fines educativos y de verificación, no se recomienda su uso en implementaciones reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no es obsoleta, sino que se basa en una configuración "prioridad práctica" realizada en función de las limitaciones reales del despliegue en cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos cuentan con un mecanismo de prueba de contribución integrado, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
Para los usuarios: se pueden combinar modelos o agentes como si se llamara a una API.
) 3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino.
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en modelos grandes preentrenados, sin modificar los parámetros originales del modelo, lo que reduce drásticamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grande tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable" (Payable AI).
OpenLoRA sistema arquitectónico componente central, basado en diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y de bajo costo:
Módulo de Almacenamiento de Adaptadores LoRA ### Almacenamiento de Adaptadores LoRA (: el adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
24 me gusta
Recompensa
24
7
Compartir
Comentar
0/400
MetaDreamer
· 07-10 06:36
La potencia computacional del modelo no es importante, solo los datos son el rey.
Ver originalesResponder0
ProxyCollector
· 07-09 23:14
Desde hoy se dibuja BTC.
Ver originalesResponder0
NftPhilanthropist
· 07-08 16:48
en realidad... otro día tratando de tokenizar redes neuronales smh
Ver originalesResponder0
DeepRabbitHole
· 07-07 08:27
¿Ya han jugado lo suficiente con la potencia computacional?
Ver originalesResponder0
0xSunnyDay
· 07-07 08:24
Si la infraestructura está bien establecida, la financiación llegará rápidamente.
Ver originalesResponder0
gas_guzzler
· 07-07 08:07
Entendido, el fondo sigue siendo L2.
Ver originalesResponder0
gaslight_gasfeez
· 07-07 08:03
¿Se debe discutir la capa anterior o concentrarse en la potencia computacional?
OpenLedger construye una economía de agentes inteligentes impulsada por datos, utilizando OP Stack y EigenDA como base.
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introducción | La transición de la capa de modelos de Crypto AI
Los datos, modelos y poder de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (poder de cálculo) que son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados ( ciertas plataformas de computación GPU descentralizadas, que enfatizaban de manera general la lógica de crecimiento extensivo de "competir en poder de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha trasladado gradualmente a la capa de modelos y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a una construcción de medio nivel más sostenible y con valor aplicable.
) Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que van de 70B a 500B, y el costo de entrenar uno puede alcanzar varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral y DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimiento en dominios específicos, reduciendo significativamente los costos de entrenamiento y la barrera técnica.
Es importante señalar que SLM no se integrará en los pesos de LLM, sino que operará en colaboración con LLM a través de la llamada de la arquitectura Agent, el sistema de plugins de enrutamiento dinámico, la conexión en caliente de módulos LoRA, RAG (generación mejorada por recuperación), entre otros. Esta arquitectura mantiene la capacidad de amplia cobertura de LLM, a la vez que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa de modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), y la razón principal es que
Sin embargo, sobre los modelos de base de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM) y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la IA, se refleja en dos direcciones centrales:
Clasificación de tipos de modelos de IA y análisis de la aplicabilidad de blockchain
Por lo tanto, se puede ver que los puntos de viabilidad de los proyectos de Crypto AI de clase modelo se concentran principalmente en la ligera sintonización de SLM de pequeño tamaño, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y los incentivos de modelos Edge. Combinando la verificabilidad de la blockchain con el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de la IA.
La cadena de bloques de IA basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento del modelo. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, transformando el comportamiento de la IA en un valor tokenizado, medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
![Informe de investigación profunda de OpenLedger: construir una economía de agentes impulsada por datos y modelos composables sobre la base de OP Stack + EigenDA]###https://img-cdn.gateio.im/webp-social/moments-62b3fa1e810f4772aaba3d91c74c1aa6.webp(
II. Resumen del proyecto | La visión de la cadena de OpenLedger basada en IA
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en la misma plataforma y obtener beneficios en cadena según sus contribuciones reales.
OpenLedger ofrece un circuito cerrado completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamada de distribución de beneficios", cuyos módulos principales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con ciertas cadenas de bloques que son más de nivel inferior y se centran en la soberanía de los datos y la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA dedicadas orientadas a incentivos de datos y modelos, comprometida a hacer que el desarrollo y la invocación de modelos logren un ciclo de valor que sea trazable, combinable y sostenible en la cadena. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando la gestión de modelos al estilo de una plataforma de gestión de modelos, la facturación de uso al estilo de una plataforma de pagos y la interfaz combinable en la cadena al estilo de una plataforma de infraestructura, promoviendo el camino hacia la realización de "modelo como activo".
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济])https://img-cdn.gateio.im/webp-social/moments-19c2276fccc616ccf9260fb7e35c9c24.webp(
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
) 3.1 Modelo de Fábrica, fábrica de modelos sin necesidad de código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar modelos basándose en conjuntos de datos autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyo proceso central incluye:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, permisos de datos, ajuste fino de modelos, evaluación, implementación y trazabilidad RAG, creando una plataforma de servicios de modelos integrada que es segura, controlable, interactiva en tiempo real y sostenible en la monetización.
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济]###https://img-cdn.gateio.im/webp-social/moments-f23f47f09226573b1fcacebdcfb8c1f3.webp(
A continuación se muestra un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no es obsoleta, sino que se basa en una configuración "prioridad práctica" realizada en función de las limitaciones reales del despliegue en cadena (costo de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos cuentan con un mecanismo de prueba de contribución integrado, asegurando los derechos de los contribuyentes de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
![OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济])https://img-cdn.gateio.im/webp-social/moments-909dc3f796ad6aa44a1c97a51ade4193.webp(
) 3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino.
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en modelos grandes preentrenados, sin modificar los parámetros originales del modelo, lo que reduce drásticamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grande tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas y respuestas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3 en la actualidad.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo central es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable" (Payable AI).
OpenLoRA sistema arquitectónico componente central, basado en diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y de bajo costo: