OpenLedger Глубина исследования: на базе OP Stack + EigenDA построить экономику интеллектуальных агентов, управляемую данными и совместимую с моделями
Один. Введение | Переход модельного слоя Crypto AI
Данные, модели и вычислительная мощность являются тремя основными ключевыми элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), без которых невозможно обойтись. Подобно эволюционному пути инфраструктуры традиционной ИИ-индустрии, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок на некоторое время был под контролем децентрализованных GPU проектов (, таких как некоторые децентрализованные платформы GPU вычислений ), которые в целом подчеркивали логику грубого роста "конкуренции вычислительной мощности". Однако, начиная с 2025 года, внимание отрасли постепенно смещается к уровням модели и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному с точки зрения применения среднему уровню построения.
Общая модель (LLM) против специализированной модели (SLM)
Традиционные крупномасштабные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры; объем параметров колеблется от 70B до 500B, а стоимость одной тренировки часто составляет миллионы долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесную парадигму тонкой настройки повторно используемой базовой модели, обычно основанную на открытых моделях, таких как LLaMA, Mistral, DeepSeek, в сочетании с небольшим количеством качественных специализированных данных и такими технологиями, как LoRA, что позволяет быстро создавать экспертные модели с конкретными знаниями в области, значительно снижая затраты на обучение и технические барьеры.
Следует отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру Agent, динамическую маршрутизацию через систему плагинов, горячую замену модулей LoRA и RAG (улучшенная генерация с поиском). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные качества через модули тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Crypto AI в модели ценности и границах
Крипто-AI проекты по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина в том, что
Слишком высокий технологический барьер: объем данных, вычислительных ресурсов и инженерных навыков, необходимых для обучения Foundation Model, крайне большой. В настоящее время только такие технологические гиганты, как США (некоторые AI-компании и т. д.) и Китай (некоторые AI-компании и т. д.), обладают соответствующими возможностями.
Ограничения открытой экосистемы: хотя такие основные модели, как LLaMA и Mixtral, уже открыты, ключ к реальному прорыву моделей все еще сосредоточен в научно-исследовательских учреждениях и закрытых инженерных системах, а участие цепочных проектов на уровне основных моделей ограничено.
Однако на основе открытых моделей, проекты Crypto AI все еще могут реализовать расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" в цепочке поставок AI это проявляется в двух основных направлениях:
Доверенный уровень проверки: через запись на цепи пути генерации модели, данные о вкладе и использовании, увеличивается прослеживаемость и устойчивость к подделкам выходов AI.
Механизм стимулирования: с помощью родного токена для стимулирования таких действий, как загрузка данных, вызов модели, выполнение агента, создается положительный цикл обучения модели и обслуживания.
Классификация типов AI моделей и анализ применимости блокчейна
Таким образом, можно увидеть, что жизнеспособные точки приложения моделей Crypto AI в основном сосредоточены на облегченной настройке небольших SLM, интеграции и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимуляции Edge моделей. В сочетании с проверяемостью блокчейна и механизмом токенов, Crypto может предоставить уникальную ценность для этих сценариев с ограниченными ресурсами, формируя дифференцированную ценность "интерфейсного слоя" AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить ясную, неизменяемую запись источников вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, благодаря механизму смарт-контрактов, при вызове данных или моделей автоматически инициируется распределение вознаграждений, превращая действия AI в измеримую, торгуемую токенизированную ценность и создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут голосовать токенами для оценки производительности моделей, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger - это один из немногих блокчейн AI проектов на текущем рынке, сосредоточенный на механизмах стимулов для данных и моделей. Он первым предложил концепцию "Payable AI", целью которой является создание справедливой, прозрачной и совместимой среды для работы с AI, которая стимулирует участников, вносящих данные, разработчиков моделей и создателей AI приложений, сотрудничать на одной платформе и получать доход на цепочке в зависимости от их фактического вклада.
OpenLedger предоставляет полный цепной цикл от "предоставления данных" до "развертывания модели" и "вызова распределения прибыли", его основные модули включают:
Модельная фабрика: без необходимости программирования, можно использовать LoRA для настройки, обучения и развертывания пользовательских моделей на основе открытых LLM;
OpenLoRA: поддержка совместного использования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через записи вызовов в блокчейне;
Datanets: структурированная сеть данных, ориентированная на вертикальные сценарии, построенная и проверенная сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и платёжный рынок моделей на блокчейне.
С помощью вышеуказанных модулей, OpenLedger построила "инфраструктуру экономики агентов", основанную на данных и модели, которая способствует онлайнизации ценностной цепочки ИИ.
А в принятии технологий блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы для создания высокопроизводительной, низкозатратной и проверяемой среды выполнения данных и контрактов для моделей ИИ.
Построено на основе OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
Расчет в основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
EVM совместимость: удобно для разработчиков быстро развертывать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает стоимость хранения, гарантирует проверяемость данных.
В отличие от некоторых блокчейнов, которые больше ориентированы на нижний уровень, отдают предпочтение суверенитету данных и архитектуре "AI Agents on BOS", OpenLedger более сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинации и устойчивого замкнутого цикла ценности для разработки и вызова моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, объединяющая элементы платформы для размещения моделей, платформы для платежей с использованием тарифов и интерфейсы для комбинирования на цепочке, способствующая реализации пути "модель как актив".
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и техническая архитектура OpenLedger
3.1 Модельный завод, не требует кодирования модельного завода
ModelFactory — это крупная платформа для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков тонкой настройки, ModelFactory предлагает интерфейс с чистой графикой, не требующий инструментов командной строки или интеграции API. Пользователи могут настраивать модели на основе данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и развертывание, который состоит из следующих ключевых этапов:
Контроль доступа к данным: Пользователь отправляет запрос на данные, поставщик проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
Легкая настройка: встроенный движок LoRA / QLoRA, показывающий прогресс обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддержка экспорта развертывания или обмена вызовами в экосистеме.
Интерфейс проверки взаимодействия: предоставляет чат-интерфейс для удобного тестирования способности модели отвечать на вопросы.
Генерация RAG-трассировки: ответы с ссылкой на источник, повышающие доверие и возможность аудита.
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию身份, управление данными, микронастройку моделей, оценку и развертывание, а также RAG трассировку, создавая интегрированную платформу сервисов моделей с безопасным и контролируемым, реальным взаимодействием и устойчивой монетизацией.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности крупных языковых моделей:
Серия LLaMA: самый широкий экосистема, активное сообщество, сильная универсальная производительность, является одной из самых распространенных открытых базовых моделей на данный момент.
Mistral: Эффективная архитектура, отличная производительность вывода, подходит для гибкого развертывания в условиях ограниченных ресурсов.
Qwen: Выпущен определенной компанией, превосходно выполняет задания на китайском языке, обладает высокой综合能力,подходит для отечественных разработчиков в качестве первого выбора.
ChatGLM: Выдающиеся результаты на китайском языке, подходит для узкоспециализированного обслуживания клиентов и локализованных сценариев.
Deepseek:выдающиеся результаты в генерации кода и математическом выводе, подходит для инструментов помощи в интеллектуальной разработке.
Gemma: легкая модель, разработанная компанией, с четкой структурой, легко осваиваемая и удобная для экспериментов.
Falcon: Ранее был эталоном производительности, подходит для фундаментальных исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: поддержка множества языков довольно сильная, но производительность вывода слабая, подходит для исследований, охватывающих языки.
GPT-2:Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для практического развертывания.
Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на "приоритетах практичности", которые учитывают реальные ограничения развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Модельный завод как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, что обеспечивает права данных участников и разработчиков моделей, обладает низким порогом входа, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути к инкубации моделей, распространению и доходам;
Для платформы: формирование экосистемы циркуляции и комбинирования модельных активов;
Для пользователей: можно комбинировать использование модели или агента так же, как при вызове API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активизация цепочечных активов модели дообучения
LoRA (Low-Rank Adaptation) — это эффективный метод настройки параметров, который позволяет изучать новые задачи, вставляя "низкоранговые матрицы" в предварительно обученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов, а то и сотни миллиардов параметров. Чтобы использовать их для конкретных задач (таких как юридические вопросы и медицинские консультации), необходимо провести настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: "заморозить параметры оригинальной большой модели, обучая только вставленные новые параметры матрицы." Этот метод эффективен по параметрам, быстро обучается и гибко разворачивается, что делает его наиболее подходящим для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем развертывания AI моделей, таких как высокие затраты, низкая степень повторного использования и неэффективное использование ресурсов GPU, что способствует реализации "платежеспособного AI" (Payable AI).
Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые моменты, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т. д., обеспечивая эффективные и недорогие возможности развертывания и вызова нескольких моделей:
Модуль хранения LoRA Adapter (LoRA Adapters Storage): дообученный адаптер LoRA размещается на OpenLedger, обеспечивая загрузку по мере необходимости.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
24 Лайков
Награда
24
7
Поделиться
комментарий
0/400
MetaDreamer
· 07-10 06:36
Модельная вычислительная мощность не важна, главное - данные.
Посмотреть ОригиналОтветить0
ProxyCollector
· 07-09 23:14
С сегодняшнего дня начинаем рисовать BTC.
Посмотреть ОригиналОтветить0
NftPhilanthropist
· 07-08 16:48
на самом деле... еще один день, пытаясь токенизировать нейронные сети, смх
Посмотреть ОригиналОтветить0
DeepRabbitHole
· 07-07 08:27
Достаточно поиграли с вычислительной мощностью?
Посмотреть ОригиналОтветить0
0xSunnyDay
· 07-07 08:24
Если основа будет хорошей, финансирование придет быстро.
Посмотреть ОригиналОтветить0
gas_guzzler
· 07-07 08:07
Понял в чем дело, база все равно L2.
Посмотреть ОригиналОтветить0
gaslight_gasfeez
· 07-07 08:03
Все-таки обсуждаем верхний уровень или сосредоточимся на вычислительной мощности?
OpenLedger строит экономику интеллектуальных агентов, основанную на данных, с использованием OP Stack и EigenDA.
OpenLedger Глубина исследования: на базе OP Stack + EigenDA построить экономику интеллектуальных агентов, управляемую данными и совместимую с моделями
Один. Введение | Переход модельного слоя Crypto AI
Данные, модели и вычислительная мощность являются тремя основными ключевыми элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель) и энергии (вычислительная мощность), без которых невозможно обойтись. Подобно эволюционному пути инфраструктуры традиционной ИИ-индустрии, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок на некоторое время был под контролем децентрализованных GPU проектов (, таких как некоторые децентрализованные платформы GPU вычислений ), которые в целом подчеркивали логику грубого роста "конкуренции вычислительной мощности". Однако, начиная с 2025 года, внимание отрасли постепенно смещается к уровням модели и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивому и ценному с точки зрения применения среднему уровню построения.
Общая модель (LLM) против специализированной модели (SLM)
Традиционные крупномасштабные языковые модели (LLM) сильно зависят от больших наборов данных и сложной распределенной архитектуры; объем параметров колеблется от 70B до 500B, а стоимость одной тренировки часто составляет миллионы долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесную парадигму тонкой настройки повторно используемой базовой модели, обычно основанную на открытых моделях, таких как LLaMA, Mistral, DeepSeek, в сочетании с небольшим количеством качественных специализированных данных и такими технологиями, как LoRA, что позволяет быстро создавать экспертные модели с конкретными знаниями в области, значительно снижая затраты на обучение и технические барьеры.
Следует отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру Agent, динамическую маршрутизацию через систему плагинов, горячую замену модулей LoRA и RAG (улучшенная генерация с поиском). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает профессиональные качества через модули тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Crypto AI в модели ценности и границах
Крипто-AI проекты по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина в том, что
Однако на основе открытых моделей, проекты Crypto AI все еще могут реализовать расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве "периферийного интерфейсного слоя" в цепочке поставок AI это проявляется в двух основных направлениях:
Классификация типов AI моделей и анализ применимости блокчейна
Таким образом, можно увидеть, что жизнеспособные точки приложения моделей Crypto AI в основном сосредоточены на облегченной настройке небольших SLM, интеграции и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимуляции Edge моделей. В сочетании с проверяемостью блокчейна и механизмом токенов, Crypto может предоставить уникальную ценность для этих сценариев с ограниченными ресурсами, формируя дифференцированную ценность "интерфейсного слоя" AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить ясную, неизменяемую запись источников вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, благодаря механизму смарт-контрактов, при вызове данных или моделей автоматически инициируется распределение вознаграждений, превращая действия AI в измеримую, торгуемую токенизированную ценность и создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут голосовать токенами для оценки производительности моделей, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
Два, Обзор проекта | Видение AI цепи OpenLedger
OpenLedger - это один из немногих блокчейн AI проектов на текущем рынке, сосредоточенный на механизмах стимулов для данных и моделей. Он первым предложил концепцию "Payable AI", целью которой является создание справедливой, прозрачной и совместимой среды для работы с AI, которая стимулирует участников, вносящих данные, разработчиков моделей и создателей AI приложений, сотрудничать на одной платформе и получать доход на цепочке в зависимости от их фактического вклада.
OpenLedger предоставляет полный цепной цикл от "предоставления данных" до "развертывания модели" и "вызова распределения прибыли", его основные модули включают:
С помощью вышеуказанных модулей, OpenLedger построила "инфраструктуру экономики агентов", основанную на данных и модели, которая способствует онлайнизации ценностной цепочки ИИ.
А в принятии технологий блокчейна OpenLedger использует OP Stack + EigenDA в качестве основы для создания высокопроизводительной, низкозатратной и проверяемой среды выполнения данных и контрактов для моделей ИИ.
В отличие от некоторых блокчейнов, которые больше ориентированы на нижний уровень, отдают предпочтение суверенитету данных и архитектуре "AI Agents on BOS", OpenLedger более сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинации и устойчивого замкнутого цикла ценности для разработки и вызова моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, объединяющая элементы платформы для размещения моделей, платформы для платежей с использованием тарифов и интерфейсы для комбинирования на цепочке, способствующая реализации пути "модель как актив".
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и техническая архитектура OpenLedger
3.1 Модельный завод, не требует кодирования модельного завода
ModelFactory — это крупная платформа для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков тонкой настройки, ModelFactory предлагает интерфейс с чистой графикой, не требующий инструментов командной строки или интеграции API. Пользователи могут настраивать модели на основе данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и развертывание, который состоит из следующих ключевых этапов:
Архитектура системы Model Factory включает шесть основных модулей, охватывающих аутентификацию身份, управление данными, микронастройку моделей, оценку и развертывание, а также RAG трассировку, создавая интегрированную платформу сервисов моделей с безопасным и контролируемым, реальным взаимодействием и устойчивой монетизацией.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности крупных языковых моделей:
Хотя модельный набор OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на "приоритетах практичности", которые учитывают реальные ограничения развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Модельный завод как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, что обеспечивает права данных участников и разработчиков моделей, обладает низким порогом входа, возможностью монетизации и комбинирования, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активизация цепочечных активов модели дообучения
LoRA (Low-Rank Adaptation) — это эффективный метод настройки параметров, который позволяет изучать новые задачи, вставляя "низкоранговые матрицы" в предварительно обученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов, а то и сотни миллиардов параметров. Чтобы использовать их для конкретных задач (таких как юридические вопросы и медицинские консультации), необходимо провести настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: "заморозить параметры оригинальной большой модели, обучая только вставленные новые параметры матрицы." Этот метод эффективен по параметрам, быстро обучается и гибко разворачивается, что делает его наиболее подходящим для развертывания и комбинированного вызова моделей Web3.
OpenLoRA — это легковесный фреймворк для инференса, разработанный OpenLedger, специально для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем развертывания AI моделей, таких как высокие затраты, низкая степень повторного использования и неэффективное использование ресурсов GPU, что способствует реализации "платежеспособного AI" (Payable AI).
Ядро архитектуры системы OpenLoRA, основанное на модульном дизайне, охватывает ключевые моменты, такие как хранение моделей, выполнение вывода, маршрутизация запросов и т. д., обеспечивая эффективные и недорогие возможности развертывания и вызова нескольких моделей: