Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюзі AI найбільше ресурсів споживає етап навчання моделей, який має найвищий технологічний бар'єр і безпосередньо визначає верхню межу можливостей моделі та ефективність її застосування. У порівнянні з легкими викликами етапу інференції, процес навчання вимагає постійних масштабних витрат обчислювальних потужностей, складних процесів обробки даних та підтримки високоефективних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" у будівництві AI-систем. З точки зору архітектурних парадигм, способи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, де всі етапи навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи планування кластерів до всіх компонентів навчальної рамки, координуються єдиною системою управління. Така архітектура глибокої співпраці забезпечує максимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контролю ресурсів, але також має проблеми, такі як монополія даних, бар'єри для ресурсів, споживання енергії та ризики єдиного пункту.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає в тому, щоб розбити завдання навчання моделі та розподілити їх між кількома машинами для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично воно має "розподілені" характеристики, загалом все ще контролюється централізованими організаціями для управління та синхронізації, часто працює в середовищі швидкої локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує всі підзадачі. Основні методи включають:
Дані паралельні: кожен вузол навчає різні дані, параметри діляться, необхідно узгодити ваги моделі
Паралельне моделювання: розміщення різних частин моделі на різних вузлах для досягнення високої масштабованості
Паралельне трубопровод: етапне послідовне виконання, підвищення пропускної здатності
Тензорне паралельне обчислення: тонке розподілення матричних обчислень, підвищення паралельної гранулярності
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно до того, як один і той же начальник дистанційно керує співробітниками кількох "офісів", щоб спільно виконувати завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.
Децентралізоване навчання означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька недовірливих вузлів спільно виконують навчальні завдання без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, а також за допомогою механізму криптостимулювання для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв та складнощі розподілу: висока складність координації між гетерогенними пристроями, низька ефективність розподілу завдань
Проблема з ефективністю зв'язку: нестабільність мережевої комунікації, явна проблема синхронізації градієнтів
Відсутність надійного виконання: брак надійного середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у обчисленнях.
Відсутність єдиного координаційного центру: немає центрального диспетчера, складний механізм розподілу завдань та відкату у випадку помилок
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносить свої обчислювальні потужності для спільного навчання моделі, але "справді життєздатне великомасштабне децентралізоване тренування" все ще є системною інженерною проблемою, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей та інші аспекти, але чи можливо "співпрацювати ефективно + стимулювати чесність + отримувати правильні результати" все ще перебуває на ранній стадії прототипування.
Федеративне навчання як перехідна форма між розподіленим та децентралізованим підходами підкреслює локальне збереження даних та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, де важлива конфіденційність. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної кооперації, водночас володіючи перевагами розподілу даних децентралізованого навчання, але все ще залежить від надійних координуючих сторін і не має повністю відкритих або антикорупційних характеристик. Його можна вважати "контрольованим децентралізованим" рішенням у сценаріях, що вимагають конфіденційності, яке є відносно помірним в аспектах навчальних завдань, довірчих структур та комунікаційних механізмів, і краще підходить як перехідна архітектура для промислового впровадження.
Панорамна таблиця порівняння парадигм тренування AI( Технічна архітектура × Довіра та стимулювання × Характеристики застосування)
Децентралізація тренування меж, можливостей та реальних шляхів
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях, через складну структуру завдання, високі вимоги до ресурсів або великі труднощі у співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто потребує великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективний розподіл та синхронізацію в відкритих мережах; завдання, які обмежені правовими та етичними нормами через сильні вимоги до конфіденційності даних та суверенності, не можуть бути відкрито поділені; а завдання, які не мають основи для співпраці, не мають зовнішніх стимулів для участі. Ці межі разом утворюють реальні обмеження нинішнього децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, в умовах легкоструктурованих, легко паралельних і стимулюючих типів завдань, децентралізоване навчання демонструє чіткі перспективи застосування. До них належать, але не обмежуються: доопрацювання LoRA, завдання після навчання з вирівнюванням поведінки, краудсорсинг навчання та маркування даних, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенної обчислювальної потужності, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
Загальний огляд адаптивності навчальних завдань з Децентралізації
Децентралізація тренування класичних проектів аналіз
На даний момент у сфері децентралізації навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували чимало оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, що представляє передові напрямки сучасних теоретичних досліджень; в той час як шляхи реалізації Gensyn та Flock.io є відносно чіткими, вже можна побачити початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури за цими п'ятьма проектами, а також подальше обговорення їхніх відмінностей та взаємодоповнюючих відносин у системі децентралізованого AI-навчання.
Prime Intellect: тренувальна траєкторія, що підлягає перевірці, посилена навчанням кооперативної мережі
Prime Intellect прагне побудувати AI тренувальну мережу без необхідності довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається через три основні модулі PRIME-RL + TOPLOC + SHARDCAST створити AI децентралізовану тренувальну систему з підтверджуваністю, відкритістю та повноцінним механізмом стимулювання.
Одна, структура та ключові модулі цінності Prime Intellect протоколу
Два. Детальний аналіз ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура завдань асинхронного підкріплювального навчання з декомпозицією
PRIME-RL є рамкою моделювання та виконання завдань, спеціально розробленою Prime Intellect для децентралізованих тренувальних сценаріїв, призначеною для гетерогенних мереж і асинхронних учасників. Вона використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структурно декомпонує процеси навчання, висновку та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикл завдання локально та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. На відміну від традиційних процесів контрольованого навчання, PRIME-RL більш підходить для реалізації еластичного навчання в середовищах без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельного виконання кількох завдань і еволюції стратегій.
TOPLOC: легкий механізм перевірки поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторних обчислень повної моделі, а здійснює легку верифікацію структури шляхом аналізу локальної узгодженості траєкторій між "послідовностями спостережень ↔ оновленнями стратегії". Вперше він перетворює поведінкові траєкторії з процесу навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації бездоказового розподілу винагород за навчання, забезпечуючи реальний шлях для побудови аудитованої, мотиваційної децентралізованої мережі співпраці в навчанні.
SHARDCAST: асинхронна вага агрегації та розповсюдження протоколу
SHARDCAST є протоколом зваженого розповсюдження та агрегації, розробленим Prime Intellect, який оптимізовано спеціально для асинхронних, обмежених за пропускною здатністю та з мінливим станом вузлів реальних мережевих умов. Він поєднує механізм розповсюдження gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно надсилати часткові оновлення в умовах асинхронного стану, досягаючи поступової конвергенції ваг та еволюції багатьох версій. Порівняно з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, що є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo є комунікаційним оптимізаційним фреймворком, незалежно реалізованим та відкритим для Prime Intellect команди на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення проблем, які часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологічних структур, таких як Ring, Expander, Small-World, що дозволяє уникнути високих комунікаційних витрат глобальної синхронізації, спираючись лише на сусідні локальні вузли для виконання спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo забезпечує стабільну участь споживчих GPU та крайових пристроїв у навчальних завданнях, значно покращуючи можливість участі в глобальному кооперативному навчанні, що є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.
PCCL:Бібліотека співпраці з комунікацією
PCCL - це легка комунікаційна бібліотека, розроблена Prime Intellect для децентралізованого середовища навчання AI, що має на меті вирішення проблеми адаптації традиційних комунікаційних бібліотек у гетерогенних пристроях та мережах з низькою пропускною спроможністю. PCCL підтримує рідкісну топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронну комунікацію протоколу OpenDiLoCo. Він суттєво покращує пропускну здатність та сумісність обладнання навчальних мереж, прокладаючи "останню милю" комунікаційної інфраструктури для створення по-справжньому відкритих, недовірливих мереж спільного навчання.
Три, мережа Prime Intellect та розподіл ролей
Prime Intellect побудував мережу тренувань, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях та отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ініціатор задачі: визначення навчального середовища, початкової моделі, функції винагороди та стандартів валідації
Навчальний вузол: виконати локальне навчання, надіслати оновлення ваг та спостереження
Вузли перевірки: використовують механізм TOPLOC для перевірки справжності навчальної поведінки та беруть участь у розрахунках винагороди та агрегації стратегій
Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, перевірку траєкторій, агрегування ваг і виплату винагород, що утворює замкнуте коло стимулювання навколо "реальної навчальної поведінки".
Чотири, INTELLECT-2: Перший публічний перевіряємий децентралізований навчальний модель.
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель зміцненого навчання, яка була навчена за допомогою асинхронних, без довіри децентралізованих вузлів. Кількість параметрів досягає 32B. Модель INTELLECT-2 була навчена завдяки співпраці понад 100 гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, час навчання перевищує 400 годин, демонструючи життєздатність та стабільність асинхронної кооперативної мережі. Ця модель не тільки є проривом у продуктивності, але й першим системним втіленням парадигми "навчання як консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує PRIME-RL,
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
18 лайків
Нагородити
18
5
Поділіться
Прокоментувати
0/400
BearMarketBuilder
· 07-10 08:50
Це що, революція? Спосіб обробки невдах змінився, але суть залишилася та ж.
Переглянути оригіналвідповісти на0
NFTRegretter
· 07-10 07:35
Централізація чи децентралізація? Спочатку потрібно розкрутити.
Переглянути оригіналвідповісти на0
HallucinationGrower
· 07-10 07:30
Фу, все це пастки інфраструктури.
Переглянути оригіналвідповісти на0
SilentAlpha
· 07-10 07:15
Добре, AI також має стати децентралізованим.
Переглянути оригіналвідповісти на0
GasWaster
· 07-10 07:13
чесно кажучи, це децентралізоване навчання ШІ нагадує про L2 масштабування знову... великі надії, але комісія за газ рве.
Еволюція парадигм навчання ШІ: від централізації до Децентралізація технологічної революції
Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюзі AI найбільше ресурсів споживає етап навчання моделей, який має найвищий технологічний бар'єр і безпосередньо визначає верхню межу можливостей моделі та ефективність її застосування. У порівнянні з легкими викликами етапу інференції, процес навчання вимагає постійних масштабних витрат обчислювальних потужностей, складних процесів обробки даних та підтримки високоефективних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" у будівництві AI-систем. З точки зору архітектурних парадигм, способи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, де всі етапи навчання, від апаратного забезпечення, програмного забезпечення нижнього рівня, системи планування кластерів до всіх компонентів навчальної рамки, координуються єдиною системою управління. Така архітектура глибокої співпраці забезпечує максимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контролю ресурсів, але також має проблеми, такі як монополія даних, бар'єри для ресурсів, споживання енергії та ризики єдиного пункту.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає в тому, щоб розбити завдання навчання моделі та розподілити їх між кількома машинами для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично воно має "розподілені" характеристики, загалом все ще контролюється централізованими організаціями для управління та синхронізації, часто працює в середовищі швидкої локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує всі підзадачі. Основні методи включають:
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно до того, як один і той же начальник дистанційно керує співробітниками кількох "офісів", щоб спільно виконувати завдання. Наразі майже всі основні великі моделі навчаються саме цим способом.
Децентралізоване навчання означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька недовірливих вузлів спільно виконують навчальні завдання без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, а також за допомогою механізму криптостимулювання для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносить свої обчислювальні потужності для спільного навчання моделі, але "справді життєздатне великомасштабне децентралізоване тренування" все ще є системною інженерною проблемою, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей та інші аспекти, але чи можливо "співпрацювати ефективно + стимулювати чесність + отримувати правильні результати" все ще перебуває на ранній стадії прототипування.
Федеративне навчання як перехідна форма між розподіленим та децентралізованим підходами підкреслює локальне збереження даних та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, де важлива конфіденційність. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної кооперації, водночас володіючи перевагами розподілу даних децентралізованого навчання, але все ще залежить від надійних координуючих сторін і не має повністю відкритих або антикорупційних характеристик. Його можна вважати "контрольованим децентралізованим" рішенням у сценаріях, що вимагають конфіденційності, яке є відносно помірним в аспектах навчальних завдань, довірчих структур та комунікаційних механізмів, і краще підходить як перехідна архітектура для промислового впровадження.
Панорамна таблиця порівняння парадигм тренування AI( Технічна архітектура × Довіра та стимулювання × Характеристики застосування)
Децентралізація тренування меж, можливостей та реальних шляхів
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях, через складну структуру завдання, високі вимоги до ресурсів або великі труднощі у співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто потребує великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективний розподіл та синхронізацію в відкритих мережах; завдання, які обмежені правовими та етичними нормами через сильні вимоги до конфіденційності даних та суверенності, не можуть бути відкрито поділені; а завдання, які не мають основи для співпраці, не мають зовнішніх стимулів для участі. Ці межі разом утворюють реальні обмеження нинішнього децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, в умовах легкоструктурованих, легко паралельних і стимулюючих типів завдань, децентралізоване навчання демонструє чіткі перспективи застосування. До них належать, але не обмежуються: доопрацювання LoRA, завдання після навчання з вирівнюванням поведінки, краудсорсинг навчання та маркування даних, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенної обчислювальної потужності, що робить їх дуже придатними для кооперативного навчання через P2P мережі, протокол Swarm, розподілені оптимізатори тощо.
Загальний огляд адаптивності навчальних завдань з Децентралізації
Децентралізація тренування класичних проектів аналіз
На даний момент у сфері децентралізації навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували чимало оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, що представляє передові напрямки сучасних теоретичних досліджень; в той час як шляхи реалізації Gensyn та Flock.io є відносно чіткими, вже можна побачити початковий прогрес у інженерії. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури за цими п'ятьма проектами, а також подальше обговорення їхніх відмінностей та взаємодоповнюючих відносин у системі децентралізованого AI-навчання.
Prime Intellect: тренувальна траєкторія, що підлягає перевірці, посилена навчанням кооперативної мережі
Prime Intellect прагне побудувати AI тренувальну мережу без необхідності довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається через три основні модулі PRIME-RL + TOPLOC + SHARDCAST створити AI децентралізовану тренувальну систему з підтверджуваністю, відкритістю та повноцінним механізмом стимулювання.
Одна, структура та ключові модулі цінності Prime Intellect протоколу
Два. Детальний аналіз ключових механізмів тренування Prime Intellect
PRIME-RL: архітектура завдань асинхронного підкріплювального навчання з декомпозицією
PRIME-RL є рамкою моделювання та виконання завдань, спеціально розробленою Prime Intellect для децентралізованих тренувальних сценаріїв, призначеною для гетерогенних мереж і асинхронних учасників. Вона використовує підкріплювальне навчання як пріоритетний об'єкт адаптації, структурно декомпонує процеси навчання, висновку та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикл завдання локально та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. На відміну від традиційних процесів контрольованого навчання, PRIME-RL більш підходить для реалізації еластичного навчання в середовищах без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельного виконання кількох завдань і еволюції стратегій.
TOPLOC: легкий механізм перевірки поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторних обчислень повної моделі, а здійснює легку верифікацію структури шляхом аналізу локальної узгодженості траєкторій між "послідовностями спостережень ↔ оновленнями стратегії". Вперше він перетворює поведінкові траєкторії з процесу навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації бездоказового розподілу винагород за навчання, забезпечуючи реальний шлях для побудови аудитованої, мотиваційної децентралізованої мережі співпраці в навчанні.
SHARDCAST: асинхронна вага агрегації та розповсюдження протоколу
SHARDCAST є протоколом зваженого розповсюдження та агрегації, розробленим Prime Intellect, який оптимізовано спеціально для асинхронних, обмежених за пропускною здатністю та з мінливим станом вузлів реальних мережевих умов. Він поєднує механізм розповсюдження gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно надсилати часткові оновлення в умовах асинхронного стану, досягаючи поступової конвергенції ваг та еволюції багатьох версій. Порівняно з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, що є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo: рідкісний асинхронний комунікаційний фреймворк
OpenDiLoCo є комунікаційним оптимізаційним фреймворком, незалежно реалізованим та відкритим для Prime Intellect команди на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення проблем, які часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологічних структур, таких як Ring, Expander, Small-World, що дозволяє уникнути високих комунікаційних витрат глобальної синхронізації, спираючись лише на сусідні локальні вузли для виконання спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo забезпечує стабільну участь споживчих GPU та крайових пристроїв у навчальних завданнях, значно покращуючи можливість участі в глобальному кооперативному навчанні, що є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.
PCCL:Бібліотека співпраці з комунікацією
PCCL - це легка комунікаційна бібліотека, розроблена Prime Intellect для децентралізованого середовища навчання AI, що має на меті вирішення проблеми адаптації традиційних комунікаційних бібліотек у гетерогенних пристроях та мережах з низькою пропускною спроможністю. PCCL підтримує рідкісну топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронну комунікацію протоколу OpenDiLoCo. Він суттєво покращує пропускну здатність та сумісність обладнання навчальних мереж, прокладаючи "останню милю" комунікаційної інфраструктури для створення по-справжньому відкритих, недовірливих мереж спільного навчання.
Три, мережа Prime Intellect та розподіл ролей
Prime Intellect побудував мережу тренувань, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях та отримувати винагороду на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, перевірку траєкторій, агрегування ваг і виплату винагород, що утворює замкнуте коло стимулювання навколо "реальної навчальної поведінки".
Чотири, INTELLECT-2: Перший публічний перевіряємий децентралізований навчальний модель.
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель зміцненого навчання, яка була навчена за допомогою асинхронних, без довіри децентралізованих вузлів. Кількість параметрів досягає 32B. Модель INTELLECT-2 була навчена завдяки співпраці понад 100 гетерогенних вузлів GPU, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, час навчання перевищує 400 годин, демонструючи життєздатність та стабільність асинхронної кооперативної мережі. Ця модель не тільки є проривом у продуктивності, але й першим системним втіленням парадигми "навчання як консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує PRIME-RL,