Святий Грааль Crypto AI: передові дослідження децентралізованого навчання
У всьому ціновому ланцюзі ШІ, навчання моделей є найбільш ресурсомістким і має найвищий технологічний бар'єр етапом, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. На відміну від легковагового виклику на етапі висновку, процес навчання вимагає постійних великих витрат обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що є справжньою "важкою промисловістю" у будівництві систем ШІ. З точки зору архітектурних парадигм, способи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчального фреймворку координується єдиною системою контролю. Така глибока кооперація в архітектурі дозволяє досягти оптимальної ефективності в спільному використанні пам'яті, синхронізації градієнтів та механізмах відмовостійкості, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini тощо, з високою ефективністю та контрольованими ресурсами, але водночас існують проблеми монополії на дані, бар'єрів для ресурсів, споживання енергії та ризиків єдиної точки.
Розподілене навчання є основним способом навчання великих моделей на сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одному комп'ютері. Незважаючи на фізичні "розподілені" особливості, в цілому все ще контролюється централізованими організаціями, які відповідають за планування та синхронізацію, зазвичай працює у середовищі високошвидкісної локальної мережі, через технологію NVLink для високошвидкісних комунікацій, головний вузол координує всі підзавдання. Основні методи включають:
Паралелізм даних: кожен вузол навчає різні дані, параметри діляться, потрібно зіставити ваги моделі
Модельна паралельність: розміщення різних частин моделі на різних вузлах для досягнення високої розширюваності.
Паралельне оброблення: поетапне послідовне виконання, підвищення пропускної здатності
Тензорне паралельне виконання: тонка сегментація матричних обчислень, підвищення паралельної гранулярності
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками з кількох "офісів" для виконання завдань. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA та інші ) навчаються саме таким чином.
Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька взаємно недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайовими пристроями ), які спільно виконують завдання тренування без центрального координатора, зазвичай через протокол, що керує розподілом завдань і співпрацею, і за допомогою механізму криптостимулів забезпечують чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв і труднощі сегментації: висока складність координації гетерогенних пристроїв, низька ефективність сегментації завдань
Відсутність довіреного виконання: недостатність довіреного середовища виконання, важко перевірити, чи дійсно вузол бере участь у обчисленнях.
Відсутність єдиного координації: немає центрального диспетчера, розподіл завдань та механізм відкату помилок складний
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але "дійсно життєздатне масштабне децентралізоване тренування" все ще є системною інженерною задачею, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші множинні аспекти, проте чи можливо "спільне ефективне + заохочення чесності + правильний результат" поки що перебуває на ранній стадії прототипування.
Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює локальне збереження даних, концентрацію агрегації параметрів моделі, що підходить для сцен, що акцентують увагу на відповідності конфіденційності, таких як медицина, фінанси (. Федеративне навчання має інженерну структуру розподіленого навчання та місцеві коопераційні можливості, одночасно маючи переваги розподілених даних в децентралізованому навчанні, але все ще залежить від надійних координуючих сторін, не має повністю відкритих та антикорупційних характеристик. Його можна розглядати як "контрольовану децентралізацію" в умовах відповідності конфіденційності, яке є відносно м'яким у навчальних завданнях, структурах довіри та механізмах зв'язку, що робить його більш придатним для промислової перехідної архітектури.
![Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентралізація тренування: межі, можливості та реальні шляхи
З точки зору навчальної парадигми, децентралізоване навчання не підходить для всіх типів завдань. У певних ситуаціях, через складну структуру завдання, високі вимоги до ресурсів або велику складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, децентралізованими вузлами. Наприклад, навчання великих моделей зазвичай потребує великої відеопам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету ), такі як медичні, фінансові та дані з обмеженим доступом (, обмежені юридичними та етичними нормами, не можуть бути відкрито поділені; а завдання ), які не мають основи для стимулювання співпраці, такі як закриті моделі підприємств або навчання внутрішніх прототипів (, не мають зовнішньої мотивації для участі. Ці межі разом утворюють реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, у типах завдань з легким структурою, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: мікронастройка LoRA, завдання після навчання з приведенням поведінки ), такі як RLHF, DPO (, завдання навчання та маркування даних з краудсорсингом, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання за участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
![Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
Децентралізація тренування класичних проектів аналіз
Наразі в галузі децентралізованого навчання та федеративного навчання провідними проектами блокчейн є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності інженерної реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному проектуванні, представляючи передові напрямки теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно зрозумілими, вже можна побачити попередні інженерні досягнення. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури за цими п'ятьма проектами, а також буде додатково розглянуто їхні відмінності та взаємодоповнюючі стосунки в системі децентралізованого AI навчання.
) Prime Intellect: тренувальні траєкторії, що підлягають перевірці, посилена навчальна кооперативна мережа піонерів
Prime Intellect прагне створити AI тренувальну мережу без необхідності довіри, що дозволяє кожному брати участь у тренуванні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається за допомогою трьох основних модулів PRIME-RL + TOPLOC + SHARDCAST створити AI децентралізовану тренувальну систему з перевіркою, відкритістю та повноцінним механізмом стимулювання.
01、Структура стеку протоколу Prime Intellect та цінність ключових модулів
![Святий Грааль Crypto AI: Децентралізація тренування на передовій]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(
)# 02、Детальний опис ключових механізмів навчання Prime Intellect
#PRIME-RL: Архітектура завдань асинхронного підкріплювального навчання з розв'язуванням
PRIME-RL є моделлю завдань та виконавчим фреймворком, розробленим компанією Prime Intellect для децентралізованих навчальних сценаріїв, спеціально розробленим для гетерогенних мереж і асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структурно декомпонуючи процеси навчання, інферування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL краще підходить для реалізації гнучкого навчання в середовищі без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.
#TOPLOC:Легка система верифікації поведінки тренування
TOPLOC###Довірене спостереження & Перевірка локальності( є основним механізмом перевірки навчання, запропонованим Prime Intellect, для визначення, чи дійсно вузол завершив ефективне навчання політики на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення всієї моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальну послідовність "спостереження↔оновлення політики". Вперше він перетворює поведінкові траєкторії під час навчання на перевіряємий об'єкт, що є ключовою інновацією для реалізації розподілу навчальних винагород без довіри, забезпечуючи життєздатний шлях для створення аудитованої та стимулюючої децентралізованої мережі співпраці в навчанні.
#SHARDCAST: Асинхронна агрегація ваг та протокол розповсюдження
SHARDCAST є протоколом поширення та агрегації ваг, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм поширення gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах несинхронізації, досягаючи поступової згортки ваг та еволюції кількох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo – це незалежно реалізована та з відкритим вихідним кодом платформа оптимізації зв'язку, створена командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розроблена для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто зустрічаються в децентралізованому навчанні. Його архітектура основана на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільце, розширювач, малий світ, що дозволяє уникнути високих витрат на зв'язок, пов'язаних з глобальною синхронізацією, і для спільного навчання моделі використовуються лише сусідні локальні вузли. Поєднуючи асинхронне оновлення та механізми відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі в глобальному спільному навчанні, і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
#PCCL:Бібліотека координаційного зв'язку
PCCL)Prime Collective Communication Library( є легковаговою комунікаційною бібліотекою, спеціально розробленою Prime Intellect для децентралізованого середовища навчання штучного інтелекту, яка має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек), таких як NCCL, Gloo(, в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом для підтримки асинхронних комунікаційних можливостей протоколу OpenDiLoCo. Він значно підвищує витривалість пропускної здатності навчальної мережі та сумісність пристроїв, відкриваючи "остання милю" комунікаційної інфраструктури для створення справді відкритої, не довірчої мережі спільного навчання.
![Святий Грааль Crypto AI: Децентралізація навчання на передовій])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(
)# 03、Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, що не потребує дозволу, є верифікованою та має економічний механізм стимулювання, що дозволяє будь-кому брати участь у завданнях та отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та критерії валідації
Тренувальний вузол: виконати локальне навчання, подати оновлення ваг та спостереження
Вузли верифікації: використовують механізм TOPLOC для перевірки достовірності навчальної поведінки та беруть участь у розрахунку винагороди та агрегуванні стратегій
Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та розподіл винагород, утворюючи інвестиційний замкнутий цикл навколо "реальних навчальних дій".
![Святий Грааль Crypto AI: Децентралізація тренування на передовій]###
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
22 лайків
Нагородити
22
5
Поділіться
Прокоментувати
0/400
TommyTeacher
· 07-17 23:16
Це та сфера, до якої OpenAI не наважується доторкнутися.
Переглянути оригіналвідповісти на0
LiquidityHunter
· 07-17 04:38
3:47am Обчислювальна потужність, справжня можливість арбітражу прийшла
Переглянути оригіналвідповісти на0
quiet_lurker
· 07-15 01:11
Добре, це просто монополія обчислювальної потужності великої кількості компаній.
Переглянути оригіналвідповісти на0
RektButStillHere
· 07-15 01:07
Важко, централізоване навчання все ще споживає забагато ресурсів.
Децентралізація AI тренування: від PRIME-RL до INTELLECT-2
Святий Грааль Crypto AI: передові дослідження децентралізованого навчання
У всьому ціновому ланцюзі ШІ, навчання моделей є найбільш ресурсомістким і має найвищий технологічний бар'єр етапом, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. На відміну від легковагового виклику на етапі висновку, процес навчання вимагає постійних великих витрат обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що є справжньою "важкою промисловістю" у будівництві систем ШІ. З точки зору архітектурних парадигм, способи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчального фреймворку координується єдиною системою контролю. Така глибока кооперація в архітектурі дозволяє досягти оптимальної ефективності в спільному використанні пам'яті, синхронізації градієнтів та механізмах відмовостійкості, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini тощо, з високою ефективністю та контрольованими ресурсами, але водночас існують проблеми монополії на дані, бар'єрів для ресурсів, споживання енергії та ризиків єдиної точки.
Розподілене навчання є основним способом навчання великих моделей на сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одному комп'ютері. Незважаючи на фізичні "розподілені" особливості, в цілому все ще контролюється централізованими організаціями, які відповідають за планування та синхронізацію, зазвичай працює у середовищі високошвидкісної локальної мережі, через технологію NVLink для високошвидкісних комунікацій, головний вузол координує всі підзавдання. Основні методи включають:
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками з кількох "офісів" для виконання завдань. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA та інші ) навчаються саме таким чином.
Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька взаємно недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайовими пристроями ), які спільно виконують завдання тренування без центрального координатора, зазвичай через протокол, що керує розподілом завдань і співпрацею, і за допомогою механізму криптостимулів забезпечують чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але "дійсно життєздатне масштабне децентралізоване тренування" все ще є системною інженерною задачею, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші множинні аспекти, проте чи можливо "спільне ефективне + заохочення чесності + правильний результат" поки що перебуває на ранній стадії прототипування.
Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює локальне збереження даних, концентрацію агрегації параметрів моделі, що підходить для сцен, що акцентують увагу на відповідності конфіденційності, таких як медицина, фінанси (. Федеративне навчання має інженерну структуру розподіленого навчання та місцеві коопераційні можливості, одночасно маючи переваги розподілених даних в децентралізованому навчанні, але все ще залежить від надійних координуючих сторін, не має повністю відкритих та антикорупційних характеристик. Його можна розглядати як "контрольовану децентралізацію" в умовах відповідності конфіденційності, яке є відносно м'яким у навчальних завданнях, структурах довіри та механізмах зв'язку, що робить його більш придатним для промислової перехідної архітектури.
![Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентралізація тренування: межі, можливості та реальні шляхи
З точки зору навчальної парадигми, децентралізоване навчання не підходить для всіх типів завдань. У певних ситуаціях, через складну структуру завдання, високі вимоги до ресурсів або велику складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, децентралізованими вузлами. Наприклад, навчання великих моделей зазвичай потребує великої відеопам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету ), такі як медичні, фінансові та дані з обмеженим доступом (, обмежені юридичними та етичними нормами, не можуть бути відкрито поділені; а завдання ), які не мають основи для стимулювання співпраці, такі як закриті моделі підприємств або навчання внутрішніх прототипів (, не мають зовнішньої мотивації для участі. Ці межі разом утворюють реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, у типах завдань з легким структурою, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: мікронастройка LoRA, завдання після навчання з приведенням поведінки ), такі як RLHF, DPO (, завдання навчання та маркування даних з краудсорсингом, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання за участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
![Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
Децентралізація тренування класичних проектів аналіз
Наразі в галузі децентралізованого навчання та федеративного навчання провідними проектами блокчейн є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності інженерної реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному проектуванні, представляючи передові напрямки теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно зрозумілими, вже можна побачити попередні інженерні досягнення. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури за цими п'ятьма проектами, а також буде додатково розглянуто їхні відмінності та взаємодоповнюючі стосунки в системі децентралізованого AI навчання.
) Prime Intellect: тренувальні траєкторії, що підлягають перевірці, посилена навчальна кооперативна мережа піонерів
Prime Intellect прагне створити AI тренувальну мережу без необхідності довіри, що дозволяє кожному брати участь у тренуванні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається за допомогою трьох основних модулів PRIME-RL + TOPLOC + SHARDCAST створити AI децентралізовану тренувальну систему з перевіркою, відкритістю та повноцінним механізмом стимулювання.
01、Структура стеку протоколу Prime Intellect та цінність ключових модулів
![Святий Грааль Crypto AI: Децентралізація тренування на передовій]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(
)# 02、Детальний опис ключових механізмів навчання Prime Intellect
#PRIME-RL: Архітектура завдань асинхронного підкріплювального навчання з розв'язуванням
PRIME-RL є моделлю завдань та виконавчим фреймворком, розробленим компанією Prime Intellect для децентралізованих навчальних сценаріїв, спеціально розробленим для гетерогенних мереж і асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структурно декомпонуючи процеси навчання, інферування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL краще підходить для реалізації гнучкого навчання в середовищі без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів і еволюції стратегій.
#TOPLOC:Легка система верифікації поведінки тренування
TOPLOC###Довірене спостереження & Перевірка локальності( є основним механізмом перевірки навчання, запропонованим Prime Intellect, для визначення, чи дійсно вузол завершив ефективне навчання політики на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення всієї моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальну послідовність "спостереження↔оновлення політики". Вперше він перетворює поведінкові траєкторії під час навчання на перевіряємий об'єкт, що є ключовою інновацією для реалізації розподілу навчальних винагород без довіри, забезпечуючи життєздатний шлях для створення аудитованої та стимулюючої децентралізованої мережі співпраці в навчанні.
#SHARDCAST: Асинхронна агрегація ваг та протокол розповсюдження
SHARDCAST є протоколом поширення та агрегації ваг, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм поширення gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах несинхронізації, досягаючи поступової згортки ваг та еволюції кількох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
#OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк
OpenDiLoCo – це незалежно реалізована та з відкритим вихідним кодом платформа оптимізації зв'язку, створена командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розроблена для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, які часто зустрічаються в децентралізованому навчанні. Його архітектура основана на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільце, розширювач, малий світ, що дозволяє уникнути високих витрат на зв'язок, пов'язаних з глобальною синхронізацією, і для спільного навчання моделі використовуються лише сусідні локальні вузли. Поєднуючи асинхронне оновлення та механізми відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі в глобальному спільному навчанні, і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
#PCCL:Бібліотека координаційного зв'язку
PCCL)Prime Collective Communication Library( є легковаговою комунікаційною бібліотекою, спеціально розробленою Prime Intellect для децентралізованого середовища навчання штучного інтелекту, яка має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек), таких як NCCL, Gloo(, в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом для підтримки асинхронних комунікаційних можливостей протоколу OpenDiLoCo. Він значно підвищує витривалість пропускної здатності навчальної мережі та сумісність пристроїв, відкриваючи "остання милю" комунікаційної інфраструктури для створення справді відкритої, не довірчої мережі спільного навчання.
![Святий Грааль Crypto AI: Децентралізація навчання на передовій])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(
)# 03、Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, що не потребує дозволу, є верифікованою та має економічний механізм стимулювання, що дозволяє будь-кому брати участь у завданнях та отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та розподіл винагород, утворюючи інвестиційний замкнутий цикл навколо "реальних навчальних дій".
![Святий Грааль Crypto AI: Децентралізація тренування на передовій]###