Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої координації технологічної революції
У повній вартісній ланцюзі AI, навчання моделей є етапом, що споживає найбільше ресурсів і має найвищий технологічний бар'єр, що безпосередньо визначає межі можливостей моделі та реальні результати застосування. На відміну від легковагих викликів на етапі висновків, процес навчання вимагає постійних великих вкладень обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що є справжньою «важкою промисловістю» для побудови систем AI. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, на якому зосереджена ця стаття.
Централізоване навчання є найбільш поширеним традиційним способом, який реалізується єдиною установою на локальному високопродуктивному кластері, де всі етапи навчання, від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчальної рамки, координуються єдиною системою контролю. Така глибоко синхронізована архітектура забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini, має переваги високої ефективності та контрольованих ресурсів, але також існують проблеми, такі як монополія даних, бар'єри для ресурсів, споживання енергії та ризик єдиної точки відмови.
Розподілене навчання є основним методом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп’ютері. Хоча фізично має «розподілені» характеристики, загалом воно все ще контролюється централізованою установою, яка відповідає за управління та синхронізацію, зазвичай працює в середовищі швидкісної локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує виконання підзадач. Основні методи включають:
Дані паралельності: кожен вузол навчає різні дані, параметри спільні, потрібно співвіднести ваги моделі
Модельна паралельність: розгортання різних частин моделі на різних вузлах для досягнення сильної масштабованості
Паралельне виконання: поетапне послідовне виконання, підвищує пропускну здатність
Тензорна паралельність: уточнене розділення матричних обчислень, підвищення паралельної градації
Розподілене навчання є комбінацією «централізованого контролю + розподіленого виконання», аналогічно тому, як один і той же керівник дистанційно керує співпрацею кількох «офісних» працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька недовірливих вузлів співпрацюють для виконання навчальних завдань без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, і за допомогою криптостимулів, які забезпечують чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв та складнощі розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
Проблема ефективності зв'язку: нестабільний мережевий зв'язок, помітна проблема синхронізації градієнтів
Відсутність надійного виконання: відсутність надійного середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у обчисленнях.
Відсутність єдиного координаційного механізму: немає центрального диспетчера, розподіл завдань, механізм відкату помилок складний
Децентралізація тренування може бути зрозуміла як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але «справді дієва масштабна децентралізація тренування» все ще є системною інженерною проблемою, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей та інші аспекти, але чи можливо «спільно ефективно + стимулювати чесність + отримати правильний результат» все ще перебуває на етапі раннього прототипування.
Федеративне навчання як перехідна форма між розподіленим і децентралізованим підходами підкреслює збереження даних локально та централізоване агрегування параметрів моделі, що підходить для сценаріїв, де важлива конфіденційність. Федеративне навчання має інженерну структуру розподіленого навчання та можливості локальної співпраці, одночасно володіючи перевагами розподілених даних децентралізованого навчання, але все ще залежить від надійної координуючої сторони і не має повністю відкритих і антикорупційних характеристик. Може розглядатися як «контрольована децентралізація» у сценаріях з конфіденційністю, де завдання навчання, структура довіри та комунікаційні механізми є відносно помірними, що робить його більш підходящим для промислової перехідної архітектури.
Децентралізація тренувань: межі, можливості та реальні шляхи
З точки зору тренувальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких ситуаціях, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високошвидкісної пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені юридичними нормами та етичними вимогами, не можуть бути відкрито поділені; а завдання, що не мають бази для співпраці, не мають зовнішнього стимулу для участі. Ці межі разом становлять реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдозадачею. Насправді, у випадках, коли структура легка, легко паралелізується і має стимули, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючи: тонке налаштування LoRA, завдання після навчання з вирівнювання поведінки, навчання та маркування на основі краудсорсингу, навчання малих базових моделей з контрольованими ресурсами, а також сцени кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і здатність до терпимості до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
Децентралізація тренування класичних проектів аналіз
Наразі в галузі децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічних інновацій та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи передові напрямки теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io відносно чіткі, вже можна побачити початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано основні технології та інженерну архітектуру цих п'яти проектів, а також подальше обговорення їхніх відмінностей та взаємодоповнюючих зв'язків у системі децентралізованого AI навчання.
Prime Intellect: тренувальні траєкторії, що підлягають перевірці, посилена навчальна кооперативна мережа піонерів
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, дозволяючи кожному брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з верифікацією, відкритістю та повною механікою заохочення за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
Один, Структура та ключова модульна цінність протоколу Prime Intellect
Друге, детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура задач декомпозованого асинхронного навчання з підкріпленням
PRIME-RL є рамкою моделювання та виконання завдань, налаштованою Prime Intellect для децентралізованих навчальних сцен, спеціально розробленою для гетерогенних мереж та асинхронної участі. Він використовує посилене навчання як пріоритетний адаптаційний об'єкт, структурно розділяючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більш підходить для реалізації еластичного навчання в середовищі без централізованого розподілу, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки тренування
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення того, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а завершує верифікацію легкоструктурних даних, аналізуючи локальну послідовність послідовності «спостереження↔оновлення стратегії». Вперше він перетворює поведінкові траєкторії в процесі навчання на перевірені об'єкти, що є ключовою інновацією для реалізації розподілу нагород за навчання без довіри, забезпечуючи можливий шлях для створення аудиторських та мотиваційних децентралізованих мереж співпраці.
SHARDCAST: Асинхронний зважений агрегат та протокол поширення
SHARDCAST є протоколом вагового розповсюдження та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм розповсюдження gossip з локальною синхронізацією, дозволяючи кільком вузлам продовжувати подавати часткові оновлення у різних станах синхронізації, що забезпечує поступову конвергенцію ваг та еволюцію з кількома версіями. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo:розріджена асинхронна комунікаційна структура
OpenDiLoCo є незалежною реалізацією та відкритим кодом фреймворку оптимізації зв'язку, створеним командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, що часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільцева, розширювальна, малосвітова, вона уникає високих витрат на комунікацію, пов’язаних з глобальною синхронізацією, і для виконання спільного навчання моделі покладається лише на сусідні локальні вузли. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайовим пристроям стабільно брати участь у навчальних завданнях, що значно підвищує можливість участі у глобальному кооперативному навчанні, і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
PCCL:Бібліотека спільної комунікації
PCCL є легковаговою комунікаційною бібліотекою, створеною Prime Intellect для децентралізованого середовища навчання ШІ, яка має на меті вирішення адаптаційних вузьких місць традиційних комунікаційних бібліотек у гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з місця переривання, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронну комунікаційну здатність протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності та сумісність пристроїв у навчальних мережах, прокладаючи «останню милю» комунікаційної інфраструктури для створення справді відкритих, без довіри, мереж співпраці.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, яка не потребує дозволу, є перевірною та має економічний механізм стимулювання, що дозволяє кожному брати участь у завданнях і отримувати винагороду на основі реального внеску. Протокол функціонує на основі трьох основних ролей:
Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та стандарт валідації
Навчальний вузол: виконання локального навчання, подання оновлень ваг та спостережуваних траєкторій
Вузли верифікації: використання механізму TOPLOC для перевірки істинності навчальної поведінки та участі в розрахунках винагороди та агрегації стратегій
Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, формуючи стимулюючий замкнутий цикл навколо «справжньої навчальної поведінки».
Чотири, INTELLECT-2: перший перевіряємий децентралізований навчальний модельний випуск
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель посиленого навчання, що була натренована за участю асинхронних, без довіри децентралізованих вузлів, з параметрами обсягом 32B. Модель INTELLECT-2 була натренована за допомогою 100+ гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, тривалість навчання перевищила 400 годин, демонструючи життєздатність і стабільність асинхронної кооперативної мережі. Ця модель є не лише проривом у продуктивності, але й першим системним втіленням парадигми «навчання як консенсус», запропонованої Prime Intellect. INTELLECT-2 інтегрує такі ключові протокольні модулі, як PRIME-RL, TOPLOC і SHARDCAST, що знаменує собою перше досягнення децентралізованої навчальної мережі.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
13 лайків
Нагородити
13
5
Поділіться
Прокоментувати
0/400
BlockchainBard
· 07-15 23:48
Знову побачив, як група про грає з накопиченням ресурсів.
Переглянути оригіналвідповісти на0
FundingMartyr
· 07-15 13:51
Федеративне навчання, здається, також не викликає довіри... вимагає грошей і життя.
Переглянути оригіналвідповісти на0
GasFeeAssassin
· 07-15 13:49
Стимулювати AI потрібно через децентралізацію
Переглянути оригіналвідповісти на0
DefiOldTrickster
· 07-15 13:47
Хе-хе, як у 19 році, коли Децентралізовані фінанси тільки почали набирати популярність. Дуже скоро всі почнуть займатися Арбітражем.
Переглянути оригіналвідповісти на0
PanicSeller
· 07-15 13:36
Усе це лише паперовий тигр, скільки ще може бути падіння?
Революція в навчанні штучного інтелекту: від централізованого контролю до децентралізованої співпраці в технологічній еволюції
Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої координації технологічної революції
У повній вартісній ланцюзі AI, навчання моделей є етапом, що споживає найбільше ресурсів і має найвищий технологічний бар'єр, що безпосередньо визначає межі можливостей моделі та реальні результати застосування. На відміну від легковагих викликів на етапі висновків, процес навчання вимагає постійних великих вкладень обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що є справжньою «важкою промисловістю» для побудови систем AI. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, на якому зосереджена ця стаття.
Централізоване навчання є найбільш поширеним традиційним способом, який реалізується єдиною установою на локальному високопродуктивному кластері, де всі етапи навчання, від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчальної рамки, координуються єдиною системою контролю. Така глибоко синхронізована архітектура забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini, має переваги високої ефективності та контрольованих ресурсів, але також існують проблеми, такі як монополія даних, бар'єри для ресурсів, споживання енергії та ризик єдиної точки відмови.
Розподілене навчання є основним методом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп’ютері. Хоча фізично має «розподілені» характеристики, загалом воно все ще контролюється централізованою установою, яка відповідає за управління та синхронізацію, зазвичай працює в середовищі швидкісної локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує виконання підзадач. Основні методи включають:
Розподілене навчання є комбінацією «централізованого контролю + розподіленого виконання», аналогічно тому, як один і той же керівник дистанційно керує співпрацею кількох «офісних» працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька недовірливих вузлів співпрацюють для виконання навчальних завдань без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, і за допомогою криптостимулів, які забезпечують чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація тренування може бути зрозуміла як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але «справді дієва масштабна децентралізація тренування» все ще є системною інженерною проблемою, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей та інші аспекти, але чи можливо «спільно ефективно + стимулювати чесність + отримати правильний результат» все ще перебуває на етапі раннього прототипування.
Федеративне навчання як перехідна форма між розподіленим і децентралізованим підходами підкреслює збереження даних локально та централізоване агрегування параметрів моделі, що підходить для сценаріїв, де важлива конфіденційність. Федеративне навчання має інженерну структуру розподіленого навчання та можливості локальної співпраці, одночасно володіючи перевагами розподілених даних децентралізованого навчання, але все ще залежить від надійної координуючої сторони і не має повністю відкритих і антикорупційних характеристик. Може розглядатися як «контрольована децентралізація» у сценаріях з конфіденційністю, де завдання навчання, структура довіри та комунікаційні механізми є відносно помірними, що робить його більш підходящим для промислової перехідної архітектури.
Децентралізація тренувань: межі, можливості та реальні шляхи
З точки зору тренувальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких ситуаціях, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високошвидкісної пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені юридичними нормами та етичними вимогами, не можуть бути відкрито поділені; а завдання, що не мають бази для співпраці, не мають зовнішнього стимулу для участі. Ці межі разом становлять реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдозадачею. Насправді, у випадках, коли структура легка, легко паралелізується і має стимули, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючи: тонке налаштування LoRA, завдання після навчання з вирівнювання поведінки, навчання та маркування на основі краудсорсингу, навчання малих базових моделей з контрольованими ресурсами, а також сцени кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і здатність до терпимості до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
Децентралізація тренування класичних проектів аналіз
Наразі в галузі децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічних інновацій та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи передові напрямки теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io відносно чіткі, вже можна побачити початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано основні технології та інженерну архітектуру цих п'яти проектів, а також подальше обговорення їхніх відмінностей та взаємодоповнюючих зв'язків у системі децентралізованого AI навчання.
Prime Intellect: тренувальні траєкторії, що підлягають перевірці, посилена навчальна кооперативна мережа піонерів
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, дозволяючи кожному брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з верифікацією, відкритістю та повною механікою заохочення за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
Один, Структура та ключова модульна цінність протоколу Prime Intellect
Друге, детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура задач декомпозованого асинхронного навчання з підкріпленням
PRIME-RL є рамкою моделювання та виконання завдань, налаштованою Prime Intellect для децентралізованих навчальних сцен, спеціально розробленою для гетерогенних мереж та асинхронної участі. Він використовує посилене навчання як пріоритетний адаптаційний об'єкт, структурно розділяючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більш підходить для реалізації еластичного навчання в середовищі без централізованого розподілу, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки тренування
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення того, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а завершує верифікацію легкоструктурних даних, аналізуючи локальну послідовність послідовності «спостереження↔оновлення стратегії». Вперше він перетворює поведінкові траєкторії в процесі навчання на перевірені об'єкти, що є ключовою інновацією для реалізації розподілу нагород за навчання без довіри, забезпечуючи можливий шлях для створення аудиторських та мотиваційних децентралізованих мереж співпраці.
SHARDCAST: Асинхронний зважений агрегат та протокол поширення
SHARDCAST є протоколом вагового розповсюдження та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм розповсюдження gossip з локальною синхронізацією, дозволяючи кільком вузлам продовжувати подавати часткові оновлення у різних станах синхронізації, що забезпечує поступову конвергенцію ваг та еволюцію з кількома версіями. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo:розріджена асинхронна комунікаційна структура
OpenDiLoCo є незалежною реалізацією та відкритим кодом фреймворку оптимізації зв'язку, створеним командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, що часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільцева, розширювальна, малосвітова, вона уникає високих витрат на комунікацію, пов’язаних з глобальною синхронізацією, і для виконання спільного навчання моделі покладається лише на сусідні локальні вузли. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайовим пристроям стабільно брати участь у навчальних завданнях, що значно підвищує можливість участі у глобальному кооперативному навчанні, і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
PCCL:Бібліотека спільної комунікації
PCCL є легковаговою комунікаційною бібліотекою, створеною Prime Intellect для децентралізованого середовища навчання ШІ, яка має на меті вирішення адаптаційних вузьких місць традиційних комунікаційних бібліотек у гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з місця переривання, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронну комунікаційну здатність протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності та сумісність пристроїв у навчальних мережах, прокладаючи «останню милю» комунікаційної інфраструктури для створення справді відкритих, без довіри, мереж співпраці.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, яка не потребує дозволу, є перевірною та має економічний механізм стимулювання, що дозволяє кожному брати участь у завданнях і отримувати винагороду на основі реального внеску. Протокол функціонує на основі трьох основних ролей:
Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, формуючи стимулюючий замкнутий цикл навколо «справжньої навчальної поведінки».
Чотири, INTELLECT-2: перший перевіряємий децентралізований навчальний модельний випуск
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель посиленого навчання, що була натренована за участю асинхронних, без довіри децентралізованих вузлів, з параметрами обсягом 32B. Модель INTELLECT-2 була натренована за допомогою 100+ гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, тривалість навчання перевищила 400 годин, демонструючи життєздатність і стабільність асинхронної кооперативної мережі. Ця модель є не лише проривом у продуктивності, але й першим системним втіленням парадигми «навчання як консенсус», запропонованої Prime Intellect. INTELLECT-2 інтегрує такі ключові протокольні модулі, як PRIME-RL, TOPLOC і SHARDCAST, що знаменує собою перше досягнення децентралізованої навчальної мережі.