Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У всьому вартісному ланцюзі ШІ моделювання є етапом з найбільшими витратами ресурсів та найвищими технічними бар'єрами, яке безпосередньо визначає межі можливостей моделі та ефективність її реального застосування. На відміну від легковагового виклику на етапі висновків, процес навчання вимагає безперервних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, методи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою даної статті.
Концентрація навчання є найпоширенішим традиційним способом, який виконується єдиним закладом у локальному високопродуктивному кластері, де весь процес навчання - від апаратного забезпечення, базового програмного забезпечення, системи планування кластерів до всіх компонентів навчальної рамки - координується єдиною системою управління. Така глибока співпраця архітектури дозволяє досягти оптимальної ефективності у спільному використанні пам'яті, синхронізації градієнтів та механізмах відмови, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, енергоспоживання та ризиків єдиного пункту.
Розподілене навчання є основним способом тренування великих моделей сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично має "розподілені" характеристики, але в цілому все ще контролюється централізованими установами для управління та синхронізації, зазвичай працює в середовищі швидкої локальної мережі, через технологію високошвидкісних інтерконектів NVLink, головний вузол координує всі підзавдання. Основні методи включають:
Паралельність даних: кожен вузол тренує різні дані, параметри діляться, потрібно узгодити ваги моделі
Модельна паралельність: розгортання різних частин моделі на різних вузлах для досягнення високої масштабованості
Паралельні трубопроводи: послідовне виконання поетапно, підвищує пропускну здатність
Тензорна паралельність: детальне розділення матричних обчислень, підвищення паралельної гранулярності
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька недовірливих вузлів співпрацюють для виконання навчальних завдань без централізованого координатора, зазвичай за допомогою протоколу, що керує розподілом завдань та співпрацею, а також завдяки механізму крипто-стимулів для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв і складність розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
Відсутність довіреного виконання: відсутність довіреного середовища виконання, важко перевірити, чи дійсно вузли беруть участь у обчисленнях.
Відсутність єдиного координування: немає центрального диспетчера, складний механізм розподілу завдань і повернення помилок
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але "справді здійснене великомасштабне децентралізоване тренування" все ще є системною інженерною проблемою, яка охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але чи можливо "спільно ефективно + стимулювати чесність + результати правильні" все ще знаходиться на стадії раннього прототипування.
Федеративне навчання як перехідна форма між дистрибутивним та децентралізованим навчанням, підкреслює збереження даних локально та централізовану агрегацію параметрів моделі, підходить для сцен, що акцентують на дотриманні приватності. Федеративне навчання має інженерну структуру дистрибутивного навчання та локальні кооперативні можливості, одночасно зберігаючи переваги розподілених даних децентралізованого навчання, але все ще залежить від надійної координуючої сторони, не має повністю відкритих та антицензурних характеристик. Це можна розглядати як "контрольовану децентралізацію" в контексті дотримання приватності, яка є відносно м'якою в аспектах навчальних завдань, структур довіри та механізмів зв'язку, більш підходяща як перехідна архітектура для промислового впровадження.
Порівняльна таблиця парадигм навчання AI( Технічна архітектура × Довіра та стимулювання × Особливості застосування)
Децентралізація тренування меж, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких випадках, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або велику складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, довіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильними обмеженнями конфіденційності даних та суверенітету обмежені юридичною відповідністю та етичними нормами, що заважає відкритому обміну; а завдання, які не мають основи для співпраці, не мають зовнішніх стимулів для участі. Ці межі разом становлять реалістичні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у легких за структурою, легких для паралельного виконання, заохочувальних типах завдань, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: LoRA донавчання, завдання постнавчання для поведінкової синхронізації, завдання навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність та терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
Огляд адаптації навчальних завдань з Децентралізації
Децентралізація тренування класичних проектів аналіз
В даний час у сфері децентралізованого навчання та федеративного навчання провідні блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у проектуванні системи та алгоритмах, представляючи передові напрямки сучасних теоретичних досліджень; в той час як реалізаційні шляхи Gensyn та Flock.io є відносно чіткими, і вже можна побачити початковий прогрес у інженерії. У статті буде поетапно розглянуто основні технології та інженерну архітектуру цих п’яти проектів, а також буде проведено подальше обговорення їхніх відмінностей та взаємодоповнюючих відносин у децентралізованій системі AI-навчання.
Prime Intellect: Тренувальна траєкторія може бути перевірена підсилювальним навчанням у кооперативній мережі.
Prime Intellect прагне створити мережу тренування ШІ, яка не потребує довіри, щоб будь-хто міг брати участь у тренуванні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему тренування ШІ з трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST, яка має верифікованість, відкритість та повну механіку стимулювання.
Од, Структура стеку протоколу Prime Intellect та цінність ключових модулів
Два. Детальний розгляд ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура завдань асинхронного підкріпленого навчання з декомпозицією
PRIME-RL є фреймворком для моделювання завдань та виконання, розробленим компанією Prime Intellect для децентралізованих навчальних сцен, спеціально призначеним для гетерогенних мереж та асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний адаптивний об'єкт, структурно роз'єднуючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами перевірки та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в умовах безцентрового планування, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних операцій і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення того, чи дійсно вузол завершив ефективне навчання стратегій на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а замість цього завершує верифікацію легковажної структури, аналізуючи локально узгоджені траєкторії між "послідовностями спостережень ↔ оновленнями стратегій". Вперше він трансформує траєкторії поведінки під час навчання в об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу навчальних винагород без довіри, забезпечуючи здійсненний шлях для створення аудиторських та стимулюючих децентралізованих кооперативних навчальних мереж.
SHARDCAST: асинхронний ваговий агрегат та протокол поширення
SHARDCAST є протоколом поширення ваги та агрегації, розробленим Prime Intellect, який оптимізовано спеціально для асинхронних, обмежених по пропускній здатності та з мінливим станом вузлів реальних мережевих умов. Він поєднує механізм поширення gossip і стратегію локальної синхронізації, дозволяючи кільком вузлам безперервно подавати часткові оновлення в різних станах синхронізації, що забезпечує поступову конвергенцію ваги та еволюцію кількох версій. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до помилок децентралізованого навчання, будучи основою для побудови стабільного консенсусу ваги та безперервної ітерації навчання.
OpenDiLoCo є незалежною реалізацією та відкритим кодом оптимізаційного фреймворку зв'язку, розробленим командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, які часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Архітектура базується на паралелізмі даних, за допомогою побудови розріджених топологічних структур, таких як Ring, Expander, Small-World, що дозволяє уникнути високих витрат на зв'язок, пов'язаних з глобальною синхронізацією, і здійснювати кооперативне навчання моделі, покладаючись лише на локальних сусідніх вузлів. Завдяки асинхронним оновленням та механізму відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі в глобальному кооперативному навчанні і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
PCCL:Бібліотека координаційного зв'язку
PCCL є легковаговою комунікаційною бібліотекою, створеною Prime Intellect для децентралізованого середовища навчання ШІ, яка має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек у середовищах з гетерогенними пристроями та низькосортними мережами. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з точки переривання, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронні комунікаційні можливості протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності мережі навчання та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для побудови справжньої відкритої, бездосвідної мережі спільного навчання.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу тренувань, що не потребує дозволу, може бути перевірена і має економічні стимули, що дозволяє кожному брати участь у завданнях і отримувати винагороду на основі реального внеску. Протокол функціонує на основі трьох основних ролей:
Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та критерії валідації
Тренувальний вузол: виконання локального тренування, подача оновлень ваг та спостережуваних траєкторій
Вузли верифікації: використовують механізм TOPLOC для перевірки достовірності навчальної поведінки та беруть участь у розрахунку винагороди та агрегації стратегій.
Ядро процесу протоколу включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, утворюючи замкнене коло стимулювання навколо "реальних навчальних дій".
Чотири, INTELLECT-2: перше перевіряється децентралізоване тренувальне моделювання
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель зміцнюючого навчання, створена за допомогою асинхронної, без довіри децентралізованої співпраці вузлів, з параметрами обсягом 32B. Модель INTELLECT-2 була завершена за допомогою співпраці більше 100 гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, тривалість навчання перевищила 400 годин, демонструючи життєздатність і стабільність асинхронної мережі співпраці. Ця модель не лише є проривом у продуктивності, але й першим системним впровадженням парадигми "навчання як консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
6
Поділіться
Прокоментувати
0/400
ColdWalletGuardian
· 07-04 03:09
Знову купа високотехнологічного базікання
Переглянути оригіналвідповісти на0
NFTDreamer
· 07-02 13:28
Гарячі гроші, гаряча обчислювальна потужність, цю стратегію можна спробувати!
Переглянути оригіналвідповісти на0
MainnetDelayedAgain
· 07-01 11:20
Так би мовити, ця пастка навчання ШІ децентралізації знову намалювала новий пиріг, за статистикою, резерви на відтермінування вже заповнені...
Переглянути оригіналвідповісти на0
TheShibaWhisperer
· 07-01 05:54
Смажене курча, що спалює обчислювальну потужність, справді є індустріальною революцією.
Переглянути оригіналвідповісти на0
ChainPoet
· 07-01 05:48
Ланцюговий кінець Децентралізація тільки це справжнє майбутнє!
Переглянути оригіналвідповісти на0
ChainSpy
· 07-01 05:46
Навчання також є Децентралізація? Брат знову придумує нову концепцію.
Еволюція парадигми навчання AI: від централізованого контролю до технологічної революції децентралізованої співпраці
Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У всьому вартісному ланцюзі ШІ моделювання є етапом з найбільшими витратами ресурсів та найвищими технічними бар'єрами, яке безпосередньо визначає межі можливостей моделі та ефективність її реального застосування. На відміну від легковагового виклику на етапі висновків, процес навчання вимагає безперервних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки інтенсивних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, методи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою даної статті.
Концентрація навчання є найпоширенішим традиційним способом, який виконується єдиним закладом у локальному високопродуктивному кластері, де весь процес навчання - від апаратного забезпечення, базового програмного забезпечення, системи планування кластерів до всіх компонентів навчальної рамки - координується єдиною системою управління. Така глибока співпраця архітектури дозволяє досягти оптимальної ефективності у спільному використанні пам'яті, синхронізації градієнтів та механізмах відмови, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, енергоспоживання та ризиків єдиного пункту.
Розподілене навчання є основним способом тренування великих моделей сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично має "розподілені" характеристики, але в цілому все ще контролюється централізованими установами для управління та синхронізації, зазвичай працює в середовищі швидкої локальної мережі, через технологію високошвидкісних інтерконектів NVLink, головний вузол координує всі підзавдання. Основні методи включають:
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька недовірливих вузлів співпрацюють для виконання навчальних завдань без централізованого координатора, зазвичай за допомогою протоколу, що керує розподілом завдань та співпрацею, а також завдяки механізму крипто-стимулів для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але "справді здійснене великомасштабне децентралізоване тренування" все ще є системною інженерною проблемою, яка охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але чи можливо "спільно ефективно + стимулювати чесність + результати правильні" все ще знаходиться на стадії раннього прототипування.
Федеративне навчання як перехідна форма між дистрибутивним та децентралізованим навчанням, підкреслює збереження даних локально та централізовану агрегацію параметрів моделі, підходить для сцен, що акцентують на дотриманні приватності. Федеративне навчання має інженерну структуру дистрибутивного навчання та локальні кооперативні можливості, одночасно зберігаючи переваги розподілених даних децентралізованого навчання, але все ще залежить від надійної координуючої сторони, не має повністю відкритих та антицензурних характеристик. Це можна розглядати як "контрольовану децентралізацію" в контексті дотримання приватності, яка є відносно м'якою в аспектах навчальних завдань, структур довіри та механізмів зв'язку, більш підходяща як перехідна архітектура для промислового впровадження.
Порівняльна таблиця парадигм навчання AI( Технічна архітектура × Довіра та стимулювання × Особливості застосування)
Децентралізація тренування меж, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких випадках, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або велику складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, довіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильними обмеженнями конфіденційності даних та суверенітету обмежені юридичною відповідністю та етичними нормами, що заважає відкритому обміну; а завдання, які не мають основи для співпраці, не мають зовнішніх стимулів для участі. Ці межі разом становлять реалістичні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у легких за структурою, легких для паралельного виконання, заохочувальних типах завдань, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: LoRA донавчання, завдання постнавчання для поведінкової синхронізації, завдання навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність та терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
Огляд адаптації навчальних завдань з Децентралізації
Децентралізація тренування класичних проектів аналіз
В даний час у сфері децентралізованого навчання та федеративного навчання провідні блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у проектуванні системи та алгоритмах, представляючи передові напрямки сучасних теоретичних досліджень; в той час як реалізаційні шляхи Gensyn та Flock.io є відносно чіткими, і вже можна побачити початковий прогрес у інженерії. У статті буде поетапно розглянуто основні технології та інженерну архітектуру цих п’яти проектів, а також буде проведено подальше обговорення їхніх відмінностей та взаємодоповнюючих відносин у децентралізованій системі AI-навчання.
Prime Intellect: Тренувальна траєкторія може бути перевірена підсилювальним навчанням у кооперативній мережі.
Prime Intellect прагне створити мережу тренування ШІ, яка не потребує довіри, щоб будь-хто міг брати участь у тренуванні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему тренування ШІ з трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST, яка має верифікованість, відкритість та повну механіку стимулювання.
Од, Структура стеку протоколу Prime Intellect та цінність ключових модулів
Два. Детальний розгляд ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура завдань асинхронного підкріпленого навчання з декомпозицією
PRIME-RL є фреймворком для моделювання завдань та виконання, розробленим компанією Prime Intellect для децентралізованих навчальних сцен, спеціально призначеним для гетерогенних мереж та асинхронних учасників. Він використовує підкріплювальне навчання як пріоритетний адаптивний об'єкт, структурно роз'єднуючи процеси навчання, висновків та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами перевірки та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в умовах безцентрового планування, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних операцій і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення того, чи дійсно вузол завершив ефективне навчання стратегій на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а замість цього завершує верифікацію легковажної структури, аналізуючи локально узгоджені траєкторії між "послідовностями спостережень ↔ оновленнями стратегій". Вперше він трансформує траєкторії поведінки під час навчання в об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу навчальних винагород без довіри, забезпечуючи здійсненний шлях для створення аудиторських та стимулюючих децентралізованих кооперативних навчальних мереж.
SHARDCAST: асинхронний ваговий агрегат та протокол поширення
SHARDCAST є протоколом поширення ваги та агрегації, розробленим Prime Intellect, який оптимізовано спеціально для асинхронних, обмежених по пропускній здатності та з мінливим станом вузлів реальних мережевих умов. Він поєднує механізм поширення gossip і стратегію локальної синхронізації, дозволяючи кільком вузлам безперервно подавати часткові оновлення в різних станах синхронізації, що забезпечує поступову конвергенцію ваги та еволюцію кількох версій. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до помилок децентралізованого навчання, будучи основою для побудови стабільного консенсусу ваги та безперервної ітерації навчання.
OpenDiLoCo: розріджена асинхронна комунікаційна рамка
OpenDiLoCo є незалежною реалізацією та відкритим кодом оптимізаційного фреймворку зв'язку, розробленим командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, які часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Архітектура базується на паралелізмі даних, за допомогою побудови розріджених топологічних структур, таких як Ring, Expander, Small-World, що дозволяє уникнути високих витрат на зв'язок, пов'язаних з глобальною синхронізацією, і здійснювати кооперативне навчання моделі, покладаючись лише на локальних сусідніх вузлів. Завдяки асинхронним оновленням та механізму відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі в глобальному кооперативному навчанні і є однією з ключових комунікаційних інфраструктур для побудови децентралізованої навчальної мережі.
PCCL:Бібліотека координаційного зв'язку
PCCL є легковаговою комунікаційною бібліотекою, створеною Prime Intellect для децентралізованого середовища навчання ШІ, яка має на меті вирішити проблеми адаптації традиційних комунікаційних бібліотек у середовищах з гетерогенними пристроями та низькосортними мережами. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з точки переривання, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронні комунікаційні можливості протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності мережі навчання та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для побудови справжньої відкритої, бездосвідної мережі спільного навчання.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу тренувань, що не потребує дозволу, може бути перевірена і має економічні стимули, що дозволяє кожному брати участь у завданнях і отримувати винагороду на основі реального внеску. Протокол функціонує на основі трьох основних ролей:
Ядро процесу протоколу включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, утворюючи замкнене коло стимулювання навколо "реальних навчальних дій".
Чотири, INTELLECT-2: перше перевіряється децентралізоване тренувальне моделювання
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель зміцнюючого навчання, створена за допомогою асинхронної, без довіри децентралізованої співпраці вузлів, з параметрами обсягом 32B. Модель INTELLECT-2 була завершена за допомогою співпраці більше 100 гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, тривалість навчання перевищила 400 годин, демонструючи життєздатність і стабільність асинхронної мережі співпраці. Ця модель не лише є проривом у продуктивності, але й першим системним впровадженням парадигми "навчання як консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує