OpenLedger constrói uma economia de agentes inteligentes orientada por dados com OP Stack e EigenDA como base.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição da camada de modelo da Crypto AI

Dados, modelos e poder de computação são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder de computação), todos essenciais. Assim como na trajetória de evolução da infraestrutura da indústria tradicional de IA, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados (, como certas plataformas de computação descentralizada de GPU ), que enfatizavam amplamente a lógica de crescimento extensivo de "competição de poder de computação". No entanto, ao entrar em 2025, o foco da indústria começou a se mover gradualmente para os níveis de modelo e dados, marcando uma transição da competição por recursos de base da Crypto AI para uma construção de meio mais sustentável e com valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que vão de 70B a 500B, e o custo de treinamento pode facilmente ultrapassar milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste leve de um modelo base reutilizável, geralmente é baseado em modelos de código aberto como LLaMA, Mistral, DeepSeek, combinando um pequeno número de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento de domínio específico, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

Vale a pena notar que o SLM não será integrado ao peso do LLM, mas sim operará em colaboração com o LLM por meio de chamadas de arquitetura de agente, roteamento dinâmico do sistema de plugins, hot-plug de módulos LoRA, RAG (Geração Aprimorada por Recuperação), entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente combinável altamente flexível.

Crypto AI no valor e limites da camada de modelo

Os projetos de IA criptográfica, na sua essência, têm dificuldade em melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal

  • Barreiras técnicas excessivas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes, atualmente apenas grandes empresas de tecnologia, como certas empresas de IA nos EUA e na China, possuem a capacidade correspondente.
  • Limitações do ecossistema de código aberto: Embora modelos básicos mainstream como LLaMA e Mixtral tenham sido abertos, a verdadeira chave para impulsionar as quebras de modelo ainda está concentrada em instituições de pesquisa e sistemas de engenharia de código fechado, e o espaço de participação dos projetos na cadeia na camada de modelo central é limitado.

No entanto, em cima de modelos básicos de código aberto, o projeto Crypto AI ainda pode estender seu valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:

  • Camada de validação confiável: através do registro na cadeia do caminho gerado pelo modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a capacidade de resistência a alterações das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelos, execução de agentes, entre outras ações, construindo um ciclo positivo de treino e serviço de modelos.

Classificação de tipos de modelos de IA e análise de aplicabilidade em blockchain

Como pode ser visto, os pontos viáveis para projetos de AI Crypto do tipo modelo concentram-se principalmente na afinação leve de pequenos SLM, na integração e verificação de dados em cadeia da arquitetura RAG, e na implementação e incentivo local do modelo Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciado da "camada de interface" de AI.

A cadeia de AI baseada em dados e modelos de blockchain pode registrar claramente e de forma imutável a origem da contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, ao serem chamados dados ou modelos, a distribuição de recompensas é automaticamente acionada, transformando o comportamento da AI em um valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votos com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Cadeia de IA da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivo para dados e modelos. Ele foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de AI justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de AI a colaborarem na mesma plataforma e a receberem ganhos na cadeia com base em suas contribuições reais.

A OpenLedger oferece um ciclo fechado completo que vai desde "fornecimento de dados" até "desdobramento de modelos" e "chamada de distribuição de lucros", sendo que os módulos principais incluem:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para ajuste fino e treinamento de modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduz significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através de registros de chamadas em cadeia;
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas por meio da colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, invocável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chain do valor da cadeia de IA.

E na adoção da tecnologia blockchain, a OpenLedger usa OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído com OP Stack: Baseado na stack de tecnologia Optimism, suporta alta taxa de transferência e execução de baixo custo;
  • Liquidar na rede principal do Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita o desenvolvimento para que os programadores possam implantar e expandir rapidamente com base no Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a certas blockchains que são mais voltadas para a camada inferior, focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de uma cadeia de AI dedicada à incentivação de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos na cadeia um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivo a modelos no mundo Web3, combinando um modelo de hospedagem semelhante a uma plataforma de hospedagem de modelos, uma cobrança de uso semelhante a uma plataforma de pagamentos e uma interface combinável na cadeia semelhante a uma plataforma de infraestrutura, promovendo o caminho para a realização da "modelo como ativo".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica da OpenLedger

3.1 Modelo de Fábrica, modelo de fábrica sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface de operação totalmente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados que foram autorizados e revisados na OpenLedger. Implementa um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo fluxo central inclui:

  • Controle de acesso a dados: O usuário submete um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento de modelos.
  • Seleção e configuração de modelo: Suporta LLMs populares (como LLaMA, Mistral), configuração de hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA integrado, mostrando o progresso do treinamento em tempo real.
  • Avaliação e Implementação de Modelos: Ferramentas de avaliação integradas, suportando exportação para implementação ou chamada de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG de rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura e controlável, com interação em tempo real e monetização sustentável.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

O quadro resumo das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory é o seguinte:

  • Série LLaMA: o ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos básicos de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Produto de uma empresa, apresenta um desempenho excepcional em tarefas em chinês, com forte capacidade geral, adequado para ser a escolha preferencial dos desenvolvedores nacionais.
  • ChatGLM: O efeito de conversa em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Um modelo leve lançado por uma empresa, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Foi uma referência de desempenho, adequada para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilingue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em implantação real.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está ultrapassada, mas sim baseada nas restrições de implementação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM) que resultam em uma configuração "prática em primeiro lugar".

Model Factory como uma cadeia de ferramentas sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuintes de dados e dos desenvolvedores de modelos, apresentando vantagens de baixo acesso, potencial de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar a circulação de ativos de modelo e ecossistema de combinação;
  • Para os utilizadores: podem combinar modelos ou Agentes como se estivessem a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, assetização em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros que aprende novas tarefas ao inserir "matrizes de baixo rank" em modelos grandes pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente têm dezenas de bilhões ou até centenas de bilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original, treinando apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, tornando-o o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é uma estrutura de inferência leve construída pela OpenLedger, projetada especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução de "IA Pagável" (Payable AI).

OpenLoRA arquitetura do sistema componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de requisições e outros aspectos chave, alcançando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:

  • Módulo de Armazenamento de Adaptadores LoRA (Armazenamento de Adaptadores LoRA): o adaptador LoRA ajustado é hospedado no OpenLedger, permitindo o carregamento sob demanda.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Partilhar
Comentar
0/400
MetaDreamervip
· 07-10 06:36
O poder de computação do modelo não é importante, só os dados é que são rei.
Ver originalResponder0
ProxyCollectorvip
· 07-09 23:14
A partir de hoje, vou desenhar BTC.
Ver originalResponder0
NftPhilanthropistvip
· 07-08 16:48
na verdade... mais um dia tentando tokenizar redes neurais smh
Ver originalResponder0
DeepRabbitHolevip
· 07-07 08:27
Já chega de brincar com o poder de computação.
Ver originalResponder0
0xSunnyDayvip
· 07-07 08:24
Uma boa base para o financiamento será rapidamente estabelecida.
Ver originalResponder0
gas_guzzlervip
· 07-07 08:07
Entendeu bem, a base ainda é L2.
Ver originalResponder0
gaslight_gasfeezvip
· 07-07 08:03
Estamos discutindo sobre o nível anterior ou estamos a competir em poder de computação?
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)