Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Модельный уровень Crypto AI
Данные, модели и вычислительные мощности являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модели) и энергии (вычислительные мощности), которые необходимы друг другу. Подобно эволюции инфраструктуры традиционной ИИ-отрасли, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок на время был доминирован децентрализованными GPU проектами ( и некоторыми платформами ), которые в основном подчеркивали логику грубого роста, основанную на «сравнении вычислительных мощностей». Однако с наступлением 2025 года внимание отрасли постепенно переместилось на уровень моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивой и ценностной среде среднего уровня.
Универсальная большая модель (LLM) vs Специализированная модель (SLM)
Традиционные большие языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, объем параметров которых колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке, основанный на повторно используемых базовых моделях, обычно использующих такие открытые модели, как LLaMA, Mistral, DeepSeek, в сочетании с небольшим количеством высококачественных специализированных данных и технологиями LoRA, позволяет быстро создавать экспертов с определенными знаниями в области, значительно снижая затраты на обучение и технические барьеры.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру агента, динамическую маршрутизацию в системе плагинов, горячую замену модулей LoRA, RAG (усиленное извлечение и генерация) и другие способы. Эта архитектура сохраняет широкие возможности LLM и улучшает профессиональные показатели через модули тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Crypto AI в модели ценностей и границ
Крипто AI проекты по своей сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том,
Высокий технический барьер: объем данных, вычислительные ресурсы и инженерные способности, необходимые для обучения Фундаментальной Модели, чрезвычайно велики, в настоящее время лишь некоторые технологические гиганты, такие как компании из США и Китая, обладают соответствующими возможностями.
Ограничения открытой экосистемы: несмотря на то, что такие основные модели, как LLaMA и Mixtral, уже открыты, ключевым фактором, способствующим прорыву моделей, по-прежнему остаются научно-исследовательские учреждения и закрытые инженерные системы, а участие проектов на блокчейне на уровне основных моделей ограничено.
Однако, на основе открытых базовых моделей, проект Crypto AI все еще может реализовать расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» в цепочке AI, это проявляется в двух основных направлениях:
Достоверный верификационный уровень: через запись на цепочке путей генерации модели, участия в данных и их использования, усиливает прослеживаемость и устойчивость AI-выходов к изменениям.
Механизм стимулов: с помощью нативного токена для стимулирования таких действий, как загрузка данных, вызов моделей и выполнение агентов, создается положительная обратная связь между обучением моделей и их обслуживанием.
Классификация типов AI моделей и анализ применимости блокчейна
Таким образом, можно увидеть, что жизнеспособные точки применения моделей типа Crypto AI в основном сосредоточены на легкой настройке небольших SLM, интеграции и верификации данных в цепочке с архитектурой RAG, а также на локальном развертывании и стимуляции Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих сценариев моделей с низкими и средними ресурсами, создавая дифференцированную ценность «интерфейсного уровня» AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить четкую и неизменяемую запись источников вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. Кроме того, благодаря механизму смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая действия AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества также могут оценивать производительность моделей с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
II. Обзор проекта | Видение AI Chain OpenLedger
OpenLedger — это один из немногих проектов блокчейн AI на рынке, который сосредоточен на механизмах стимулов для данных и моделей. Он первым предложил концепцию «Payable AI», целью которой является создание справедливой, прозрачной и комбинируемой среды для работы AI, чтобы стимулировать вкладчиков данных, разработчиков моделей и создателей AI-приложений к сотрудничеству на одной платформе и получать цепочечные доходы в зависимости от фактического вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его ключевые модули включают:
Модельная фабрика: без программирования, вы можете использовать LoRA для тонкой настройки, обучения и развертывания пользовательских моделей на основе открытого LLM;
OpenLoRA: поддержка одновременного существования тысяч моделей, динамическая загрузка по мере необходимости, значительное снижение затрат на развертывание;
PoA (Доказательство атрибуции): измерение вклада и распределение вознаграждений через вызовы на блокчейне;
Datanets: структурированные сетевые данные, ориентированные на вертикальные сценарии, создаваемые и проверяемые сообществом;
Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и оплачиваемый рынок моделей на блокчейне.
С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономического агента», основанную на данных и комбинируемой модели, способствуя онтологизации цепочки создания ценности AI.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для данных и выполнения контрактов для AI моделей.
Построено на OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие расходы на выполнение;
Расчет на основной сети Ethereum: Обеспечение безопасности транзакций и целостности активов;
EVM совместимость: удобно для разработчиков быстро разворачивать и расширять на основе Solidity;
EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.
В отличие от NEAR, который более ориентирован на базовый уровень и акцентирует внимание на суверенитете данных и архитектуре «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивой ценности в разработке и вызове моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, которая сочетает в себе некоторые платформенные услуги по хостингу моделей, некоторые платформенные методы расчета за использование и некоторые платформенные интерфейсы для комбинирования на цепочке, способствуя реализации пути «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод, безкодовая модельная фабрика
ModelFactory является крупной платформой для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков для тонкой настройки, ModelFactory предлагает чисто графический интерфейс, не требующий командной строки или интеграции API. Пользователи могут проводить тонкую настройку моделей на основе наборов данных, авторизованных и проверенных в OpenLedger. Это реализует интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и развертывание, его ключевые этапы включают:
Контроль доступа к данным: Пользователь отправляет запрос на данные, Провайдер проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
Выбор и настройка модели: поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
Легкая настройка: встроенный движок LoRA / QLoRA, демонстрирующий процесс обучения в реальном времени.
Оценка и развертывание модели: встроенные инструменты оценки, поддержка экспорта развертывания или вызова для экосистемы.
Интерфейс проверки взаимодействия: предоставляет интерфейс в виде чата, удобный для прямого тестирования способности модели отвечать на вопросы.
Генерация RAG отслеживания: Ответы с указанием источника, усиливающие доверие и возможность аудита.
Архитектура системы Model Factory включает шесть крупных модулей, охватывающих идентификацию, управление данными, тонкую настройку моделей, оценку развертывания и RAG отслеживание, создавая безопасную и контролируемую, интерактивную в реальном времени, устойчивую к монетизации интегрированную платформу сервисов моделей.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности крупных языковых моделей:
Серия LLaMA: самый широкий экосистема, активное сообщество, высокая общая производительность, является одной из самых популярных открытых базовых моделей на сегодняшний день.
Mistral: Архитектура эффективна, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
Qwen: Продукт одной компании, отлично выполняет задачи на китайском языке, обладает высокой综合能力, подходит в качестве первого выбора для отечественных разработчиков.
ChatGLM: выдаёт выдающиеся результаты на китайском языке, подходит для специализированного обслуживания клиентов и локализованных сценариев.
Deepseek: проявляет превосходство в кодогенерации и математическом выводе, подходит для инструментов помощи в интеллектуальной разработке.
Gemma: Легкая модель, выпущенная некоторой компанией, с ясной структурой, легко осваивается и экспериментируется.
Falcon:Ранее был эталоном производительности, подходит для базовых исследований или сравнительных тестов, но активность сообщества снизилась.
BLOOM: поддержка множества языков довольно сильная, но производительность вывода слабая, подходит для исследований, охватывающих языки.
GPT-2: Классическая ранняя модель, подходит только для обучения и верификации, не рекомендуется для реального использования.
Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритетах практичности», исходя из реальных ограничений развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели встроили механизм доказательства вклада, обеспечивая права участников данных и разработчиков моделей, имеет низкий порог, возможность монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:
Для разработчиков: предоставление полного пути к инкубации, распространению и доходам моделей;
Для платформы: формирование экосистемы циркуляции и комбинации модельных активов;
Для пользователей: вы можете комбинировать использование моделей или Агентов так же, как вызываете API.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активизация on-chain модели доработки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет изучать новые задачи, вставляя «низкоранговые матрицы» в предобученные большие модели, не изменяя параметры оригинальной модели, тем самым значительно снижая затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов или даже сотни миллиардов параметров. Чтобы использовать их для конкретных задач (например, юридический вопрос-ответ, медицинская консультация), необходимо провести тонкую настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Она высокоэффективна по параметрам, быстро обучается и гибко развертывается, что делает её наиболее подходящим современным методом тонкой настройки для развертывания и комбинированного вызова Web3 моделей.
OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основная цель — решить распространенные проблемы, возникающие при развертывании AI моделей, такие как высокие затраты, низкая повторная использование, растрата ресурсов GPU и т. д., способствуя реализации «платежеспособного ИИ» (Payable AI).
Основные компоненты архитектуры системы OpenLoRA, основанные на модульном дизайне, охватывают ключевые этапы хранения моделей, выполнения вывода, маршрутизации запросов и т.д., обеспечивая эффективные и низкозатратные возможности развертывания и вызова множества моделей:
Модуль хранения LoRA адаптера (LoRA Adapters Storage): дообученный LoRA адаптер размещается на OpenLedger, что позволяет загружать по мере необходимости, избегая предварительной загрузки всех моделей.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
6 Лайков
Награда
6
7
Поделиться
комментарий
0/400
MindsetExpander
· 14ч назад
Просто разыгрывайте людей как лохов на волне токенов.
Посмотреть ОригиналОтветить0
MEVSandwich
· 14ч назад
Сделай краткое резюме на китайском.
Посмотреть ОригиналОтветить0
MaticHoleFiller
· 14ч назад
Я верю в ИИ в этот раз.
Посмотреть ОригиналОтветить0
OnchainSniper
· 14ч назад
Снова день вычислительной мощности.
Посмотреть ОригиналОтветить0
RugpullAlertOfficer
· 14ч назад
快进到智能体 Мошенничество
Посмотреть ОригиналОтветить0
BlockchainTherapist
· 14ч назад
Смотрится красиво, давай попробуем.
Посмотреть ОригиналОтветить0
MidnightSeller
· 14ч назад
В это время без бутылки соусом можно ли делать проекты AI?
OpenLedger запустил цепочку стимулов AI модели на основе OP Stack+EigenDA для создания комбинируемой экономики интеллектуальных агентов
Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA
Один. Введение | Модельный уровень Crypto AI
Данные, модели и вычислительные мощности являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модели) и энергии (вычислительные мощности), которые необходимы друг другу. Подобно эволюции инфраструктуры традиционной ИИ-отрасли, область Crypto AI также прошла через аналогичные этапы. В начале 2024 года рынок на время был доминирован децентрализованными GPU проектами ( и некоторыми платформами ), которые в основном подчеркивали логику грубого роста, основанную на «сравнении вычислительных мощностей». Однако с наступлением 2025 года внимание отрасли постепенно переместилось на уровень моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивой и ценностной среде среднего уровня.
Универсальная большая модель (LLM) vs Специализированная модель (SLM)
Традиционные большие языковые модели (LLM) сильно зависят от масштабных наборов данных и сложной распределенной архитектуры, объем параметров которых колеблется от 70B до 500B, а стоимость одной тренировки часто достигает нескольких миллионов долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесный подход к тонкой настройке, основанный на повторно используемых базовых моделях, обычно использующих такие открытые модели, как LLaMA, Mistral, DeepSeek, в сочетании с небольшим количеством высококачественных специализированных данных и технологиями LoRA, позволяет быстро создавать экспертов с определенными знаниями в области, значительно снижая затраты на обучение и технические барьеры.
Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру агента, динамическую маршрутизацию в системе плагинов, горячую замену модулей LoRA, RAG (усиленное извлечение и генерация) и другие способы. Эта архитектура сохраняет широкие возможности LLM и улучшает профессиональные показатели через модули тонкой настройки, формируя высоко гибкую комбинированную интеллектуальную систему.
Crypto AI в модели ценностей и границ
Крипто AI проекты по своей сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), основная причина заключается в том,
Однако, на основе открытых базовых моделей, проект Crypto AI все еще может реализовать расширение ценности через тонкую настройку специализированных языковых моделей (SLM) и сочетание с проверяемостью и механизмами стимулов Web3. В качестве «периферийного интерфейсного слоя» в цепочке AI, это проявляется в двух основных направлениях:
Классификация типов AI моделей и анализ применимости блокчейна
Таким образом, можно увидеть, что жизнеспособные точки применения моделей типа Crypto AI в основном сосредоточены на легкой настройке небольших SLM, интеграции и верификации данных в цепочке с архитектурой RAG, а также на локальном развертывании и стимуляции Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих сценариев моделей с низкими и средними ресурсами, создавая дифференцированную ценность «интерфейсного уровня» AI.
Блокчейн AI цепь на основе данных и моделей может обеспечить четкую и неизменяемую запись источников вклада каждой единицы данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. Кроме того, благодаря механизму смарт-контрактов, при вызове данных или модели автоматически инициируется распределение вознаграждений, превращая действия AI в измеримую и торгуемую токенизированную ценность, создавая устойчивую систему стимулов. Кроме того, пользователи сообщества также могут оценивать производительность моделей с помощью голосования токенами, участвовать в разработке и итерации правил, улучшая архитектуру децентрализованного управления.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)
II. Обзор проекта | Видение AI Chain OpenLedger
OpenLedger — это один из немногих проектов блокчейн AI на рынке, который сосредоточен на механизмах стимулов для данных и моделей. Он первым предложил концепцию «Payable AI», целью которой является создание справедливой, прозрачной и комбинируемой среды для работы AI, чтобы стимулировать вкладчиков данных, разработчиков моделей и создателей AI-приложений к сотрудничеству на одной платформе и получать цепочечные доходы в зависимости от фактического вклада.
OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», его ключевые модули включают:
С помощью вышеуказанных модулей OpenLedger создала «инфраструктуру экономического агента», основанную на данных и комбинируемой модели, способствуя онтологизации цепочки создания ценности AI.
А в применении технологии блокчейн OpenLedger использует OP Stack + EigenDA в качестве основы, создавая высокопроизводительную, низкозатратную и проверяемую среду для данных и выполнения контрактов для AI моделей.
В отличие от NEAR, который более ориентирован на базовый уровень и акцентирует внимание на суверенитете данных и архитектуре «AI Agents on BOS», OpenLedger больше сосредоточен на создании специализированной цепочки AI, ориентированной на стимулы для данных и моделей, стремясь обеспечить возможность отслеживания, комбинирования и устойчивой ценности в разработке и вызове моделей на цепочке. Это инфраструктура стимулов для моделей в мире Web3, которая сочетает в себе некоторые платформенные услуги по хостингу моделей, некоторые платформенные методы расчета за использование и некоторые платформенные интерфейсы для комбинирования на цепочке, способствуя реализации пути «модель как актив».
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)
Три, основные компоненты и технологическая архитектура OpenLedger
3.1 Модельный завод, безкодовая модельная фабрика
ModelFactory является крупной платформой для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков для тонкой настройки, ModelFactory предлагает чисто графический интерфейс, не требующий командной строки или интеграции API. Пользователи могут проводить тонкую настройку моделей на основе наборов данных, авторизованных и проверенных в OpenLedger. Это реализует интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и развертывание, его ключевые этапы включают:
Архитектура системы Model Factory включает шесть крупных модулей, охватывающих идентификацию, управление данными, тонкую настройку моделей, оценку развертывания и RAG отслеживание, создавая безопасную и контролируемую, интерактивную в реальном времени, устойчивую к монетизации интегрированную платформу сервисов моделей.
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)
Модельный завод в настоящее время поддерживает следующие возможности крупных языковых моделей:
Хотя комбинация моделей OpenLedger не включает в себя последние высокопроизводительные модели MoE или мультимодальные модели, его стратегия не устарела, а основана на «приоритетах практичности», исходя из реальных ограничений развертывания на блокчейне (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).
Model Factory как инструмент без кода, все модели встроили механизм доказательства вклада, обеспечивая права участников данных и разработчиков моделей, имеет низкий порог, возможность монетизации и компоновки, по сравнению с традиционными инструментами разработки моделей:
! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA, активизация on-chain модели доработки
LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который позволяет изучать новые задачи, вставляя «низкоранговые матрицы» в предобученные большие модели, не изменяя параметры оригинальной модели, тем самым значительно снижая затраты на обучение и требования к хранению. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов или даже сотни миллиардов параметров. Чтобы использовать их для конкретных задач (например, юридический вопрос-ответ, медицинская консультация), необходимо провести тонкую настройку (fine-tuning). Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметрические матрицы». Она высокоэффективна по параметрам, быстро обучается и гибко развертывается, что делает её наиболее подходящим современным методом тонкой настройки для развертывания и комбинированного вызова Web3 моделей.
OpenLoRA — это легковесный фреймворк для вывода, разработанный OpenLedger, специально предназначенный для развертывания нескольких моделей и совместного использования ресурсов. Его основная цель — решить распространенные проблемы, возникающие при развертывании AI моделей, такие как высокие затраты, низкая повторная использование, растрата ресурсов GPU и т. д., способствуя реализации «платежеспособного ИИ» (Payable AI).
Основные компоненты архитектуры системы OpenLoRA, основанные на модульном дизайне, охватывают ключевые этапы хранения моделей, выполнения вывода, маршрутизации запросов и т.д., обеспечивая эффективные и низкозатратные возможности развертывания и вызова множества моделей: