Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация совместной технической революции
В полной цепочке создания стоимости ИИ этап обучения модели является наиболее ресурсоемким и с наивысшими технологическими барьерами, что напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесного вызова на этапе вывода, процесс обучения требует непрерывных вложений в масштабные вычислительные мощности, сложных процессов обработки данных и поддержки высокоинтенсивных алгоритмов оптимизации, что делает его настоящей "тяжелой промышленностью" в построении систем ИИ. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основной темой данной статьи.
Централизованное обучение является наиболее распространенным традиционным способом, при котором единичная организация завершает весь процесс обучения в локальном высокопроизводительном кластере, от аппаратного обеспечения, нижнего программного обеспечения, системы планирования кластера до всех компонентов обучающего фреймворка, которые координируются единой управляющей системой. Эта архитектура глубокой координации позволяет достичь оптимальной эффективности совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее особенно подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая высокой эффективностью и контролируемыми ресурсами, но одновременно сталкивается с проблемами монополии данных, барьеров для ресурсов, потребления энергии и рисков единой точки.
Распределенное обучение является основным методом обучения больших моделей в настоящее время. Его основа заключается в том, чтобы разбить задачи обучения модели и распределить их на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одной машине. Несмотря на то, что физически присутствует "Децентрализация", в целом управление и синхронизация по-прежнему осуществляется централизованной организацией, часто работающей в среде высокоскоростной локальной сети, с использованием технологии высокоскоростной межсоединительной шины NVLink, где главный узел координирует выполнение подзадач. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры общие, необходимо сопоставить веса модели
Модельное параллелизм: размещение различных частей модели на различных узлах для достижения высокой масштабируемости
Параллельная обработка: поэтапное последовательное выполнение, повышение пропускной способности
Тензорное параллелизм: тонкая сегментация матричных вычислений, повышение параллельной гранулярности
Распределенное обучение является комбинацией "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник дистанционно руководит несколькими сотрудниками "офисов" для совместного выполнения задач. В настоящее время почти все основные большие модели обучаются именно таким образом.
Децентрализация обучения представляет собой более открытую и антикоррупционную траекторию будущего. Основная характеристика заключается в том, что несколько недоверительных узлов совместно выполняют задачи обучения без центрального координатора, обычно через протокол, который управляет распределением задач и сотрудничеством, и с помощью криптостимулов гарантирует честность вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:
Гетерогенность устройств и трудности разделения: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач
Отсутствие доверенной среды выполнения: недостаток доверенной среды выполнения затрудняет проверку того, действительно ли узлы участвуют в вычислениях
Отсутствие единой координации: нет центрального диспетчера, сложное распределение задач и механизмы отката ошибок
Децентрализация тренировки может пониматься как: группа добровольцев со всего мира, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" все еще является системной инженерной задачей, которая охватывает множество аспектов, таких как системная архитектура, протоколы связи, безопасность данных, экономические механизмы, валидация моделей и т.д., но возможность "совместной эффективности + стимулирования честности + правильности результатов" все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное хранение данных и централизованную агрегацию параметров модели, что делает его подходящим для сценариев, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенной тренировки и возможностями локального сотрудничества, в то же время имея преимущества распределенных данных при Децентрализация, но все же зависит от надежной координирующей стороны и не имеет полностью открытых и антикоррекционных характеристик. Это можно рассматривать как "контролируемую Децентрализация" в сценариях соблюдения конфиденциальности, где задачи тренировки, структура доверия и механизмы связи относительно умеренные, что делает его более подходящим в качестве переходной архитектуры развертывания в промышленности.
Полный сравнительный обзор парадигм обучения ИИ ( Техническая архитектура × Стимулирование доверия × Применение характеристик )
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или большой сложности сотрудничества, она естественным образом не подходит для эффективного выполнения между гетерогенными, доверительными узлами. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разбиение и синхронизацию в открытых сетях; задачи, связанные с конфиденциальностью данных и сильными ограничениями суверенитета, ограничены юридическими и этическими нормами, что делает невозможным открытое совместное использование; а задачи, которые лишены основы для стимулирования сотрудничества, испытывают недостаток внешнего мотива для участия. Эти границы формируют текущие реальные ограничения Децентрализации обучения.
Но это не означает, что Децентрализация тренировок является ложной проблемой. На самом деле, в задачах с легкой структурой, легкими для параллелизации и мотивируемыми, Децентрализация тренировок демонстрирует четкие перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения, выравнивающие поведение, краудсорсинг данных для обучения и аннотирования, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием краевых устройств. Эти задачи обычно обладают высокой параллельностью, низкой связностью и устойчивостью к гетерогенной вычислительной мощности, что делает их очень подходящими для кооперативного обучения через P2P сети, протоколы Swarm, распределенные оптимизаторы и т.д.
Обзор адаптивности задач обучения Децентрализация
Децентрализация тренировки классических проектов анализа
В настоящее время в области децентрализованного обучения и федеративного обучения наиболее代表ительными проектами блокчейна являются Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили много оригинальных исследований в области системной архитектуры и проектирования алгоритмов, представляя передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть начальные инженерные достижения. В данной статье будут последовательно проанализированы ключевые технологии и архитектура этих пяти проектов, а также дополнительно изучены их различия и взаимодополняющие отношения в децентрализованной системе обучения ИИ.
Prime Intellect: Тренировочная траектория проверяемой усиленной обучающей кооперативной сети первопроходца
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя любому участвовать в обучении и получать заслуженные награды за свои вычислительные усилия. Prime Intellect надеется создать систему децентрализованного обучения ИИ с проверяемостью, открытостью и полными механизмами стимулирования с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
Структура стеков протокола Prime Intellect и ценность ключевых модулей
Два. Подробное объяснение ключевых механизмов тренировки Prime Intellect
PRIME-RL: Архитектура задач асинхронного обучения с подкреплением с декомпозицией
PRIME-RL является фреймворком моделирования и выполнения задач, разработанным Prime Intellect для Децентрализация тренировочных сценариев, специально созданным для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно разъединяя процессы обучения, вывода и загрузки весов, что позволяет каждому учебному узлу независимо выполнять цикл задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами валидации и агрегации. По сравнению с традиционными процессами обучения с учителем, PRIME-RL более подходит для реализации гибкого обучения в средах без центрального управления, что снижает сложность системы и создает основу для поддержки параллельного выполнения нескольких задач и эволюции стратегий.
TOPLOC: легкий механизм валидации поведения обучения
TOPLOC — это механизм核心可验证性, предложенный Prime Intellect, который используется для определения того, завершил ли узел действительно эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторного вычисления всей модели, а завершает верификацию легковесной структуры, анализируя локальные согласованные траектории между "наблюдательной последовательностью ↔ обновлением стратегии". Впервые он превращает траектории поведения в процессе обучения в объекты, подлежащие верификации, что является ключевым инновационным решением для реализации распределения вознаграждений за обучение без доверия и предоставляет жизнеспособный путь для построения可审计,可激励的 Децентрализация сотрудничества в обучении сети.
SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST – это протокол весового распространения и агрегации, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронностью, ограниченной пропускной способностью и изменяющимся состоянием узлов. Он сочетает в себе механизмы распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, что обеспечивает прогрессивную сходимость весов и многоверсионную эволюцию. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно улучшает масштабируемость и отказоустойчивость децентрализованного обучения, являясь основой для построения стабильного консенсуса весов и непрерывной итерации обучения.
OpenDiLoCo является независимой реализацией и открытым исходным кодом фреймворка оптимизации коммуникаций, разработанным командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Он специально разработан для решения таких проблем, как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы, которые часто возникают в процессе Децентрализации. Его архитектура основана на параллелизме данных и использует разреженные топологические структуры, такие как Ring, Expander и Small-World, чтобы избежать высоких затрат на коммуникацию при глобальной синхронизации, полагаясь только на соседние узлы для выполнения совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и краевым устройствам стабильно участвовать в задачах обучения, значительно повышая доступность глобального совместного обучения и становясь одной из ключевых коммуникационных инфраструктур для построения сети децентрализованного обучения.
PCCL: Библиотека совместной связи
PCCL — это легковесная библиотека связи, разработанная Prime Intellect для Децентрализация AI обучающей среды, которая направлена на решение проблем адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, являясь базовым компонентом, поддерживающим асинхронные коммуникационные возможности протокола OpenDiLoCo. Это значительно повышает толерантность сети к пропускной способности и совместимость устройств, прокладывая "последнюю милю" связи для создания действительно открытой, не требующей доверия сети совместного обучения.
Три, Сеть стимулов Prime Intellect и распределение ролей
Prime Intellect создал обучающую сеть, которая не требует разрешений, является проверяемой и имеет экономические стимулы, позволяя любому участвовать в заданиях и получать вознаграждения на основе реального вклада. Протокол работает на основе трех основных ролей:
Инициатор задачи: определить среду обучения, начальную модель, функцию вознаграждения и стандарты валидации
Обучающие узлы: выполнение локального обучения, отправка обновлений весов и наблюдательных траекторий
Узел проверки: использование механизма TOPLOC для проверки подлинности обучающего поведения и участия в расчете вознаграждений и агрегации стратегий
Основные процессы протокола включают в себя публикацию задач, обучение узлов, верификацию траекторий, агрегирование весов и распределение вознаграждений, что формирует замкнутый цикл стимулов вокруг "реальных тренировочных действий".
Четыре, INTELLECT-2: выпуск первой проверяемой Децентрализация обучающей модели
Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель глубокого обучения, обученная с использованием асинхронных, доверительных узлов, осуществляющих децентрализованную кооперацию, с параметрами размером 32B. Модель INTELLECT-2 была обучена с помощью более 100 гетерогенных узлов GPU, расположенных на трех континентах, с использованием полностью асинхронной архитектуры, продолжительность обучения составила более 400 часов, что продемонстрировало осуществимость и стабильность асинхронной кооперации сети. Эта модель не только является прорывом в производительности, но и представляет собой первую системную реализацию парадигмы "обучение как консенсус", предложенной Prime Intellect. INTELLECT-2 интегрирует PRIME-RL,
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
22 Лайков
Награда
22
7
Поделиться
комментарий
0/400
AltcoinOracle
· 3ч назад
удивительно... мой собственный анализ предполагает, что децентрализованное обучение ИИ может стать следующим парадигмальным сдвигом в вычислениях, как это предсказывали древние шумеры в своих священных текстах, если честно
Посмотреть ОригиналОтветить0
LightningAllInHero
· 5ч назад
挺哈的嗷 全压 эту волну Децентрализация
Посмотреть ОригиналОтветить0
BearMarketBuilder
· 07-10 08:50
Это что, революция? Методы отмывания неудачников поменялись, но суть осталась той же.
Посмотреть ОригиналОтветить0
NFTRegretter
· 07-10 07:35
Централизация или Децентрализация? Сначала нужно разогнать шумиху.
Посмотреть ОригиналОтветить0
HallucinationGrower
· 07-10 07:30
Фу, одни ловушки инфраструктуры.
Посмотреть ОригиналОтветить0
SilentAlpha
· 07-10 07:15
Ну и дела, даже AI собирается стать децентрализованным.
Посмотреть ОригиналОтветить0
GasWaster
· 07-10 07:13
честно говоря, это децентрализованное обучение ИИ напоминает L2 масштабирование снова... большие надежды, но плата за газ рвёт.
Эволюция парадигмы обучения ИИ: от централизованных технологий к Децентрализации
Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация совместной технической революции
В полной цепочке создания стоимости ИИ этап обучения модели является наиболее ресурсоемким и с наивысшими технологическими барьерами, что напрямую определяет предельные возможности модели и фактическую эффективность применения. В отличие от легковесного вызова на этапе вывода, процесс обучения требует непрерывных вложений в масштабные вычислительные мощности, сложных процессов обработки данных и поддержки высокоинтенсивных алгоритмов оптимизации, что делает его настоящей "тяжелой промышленностью" в построении систем ИИ. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основной темой данной статьи.
Централизованное обучение является наиболее распространенным традиционным способом, при котором единичная организация завершает весь процесс обучения в локальном высокопроизводительном кластере, от аппаратного обеспечения, нижнего программного обеспечения, системы планирования кластера до всех компонентов обучающего фреймворка, которые координируются единой управляющей системой. Эта архитектура глубокой координации позволяет достичь оптимальной эффективности совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее особенно подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая высокой эффективностью и контролируемыми ресурсами, но одновременно сталкивается с проблемами монополии данных, барьеров для ресурсов, потребления энергии и рисков единой точки.
Распределенное обучение является основным методом обучения больших моделей в настоящее время. Его основа заключается в том, чтобы разбить задачи обучения модели и распределить их на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одной машине. Несмотря на то, что физически присутствует "Децентрализация", в целом управление и синхронизация по-прежнему осуществляется централизованной организацией, часто работающей в среде высокоскоростной локальной сети, с использованием технологии высокоскоростной межсоединительной шины NVLink, где главный узел координирует выполнение подзадач. Основные методы включают:
Распределенное обучение является комбинацией "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник дистанционно руководит несколькими сотрудниками "офисов" для совместного выполнения задач. В настоящее время почти все основные большие модели обучаются именно таким образом.
Децентрализация обучения представляет собой более открытую и антикоррупционную траекторию будущего. Основная характеристика заключается в том, что несколько недоверительных узлов совместно выполняют задачи обучения без центрального координатора, обычно через протокол, который управляет распределением задач и сотрудничеством, и с помощью криптостимулов гарантирует честность вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:
Децентрализация тренировки может пониматься как: группа добровольцев со всего мира, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" все еще является системной инженерной задачей, которая охватывает множество аспектов, таких как системная архитектура, протоколы связи, безопасность данных, экономические механизмы, валидация моделей и т.д., но возможность "совместной эффективности + стимулирования честности + правильности результатов" все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное хранение данных и централизованную агрегацию параметров модели, что делает его подходящим для сценариев, акцентирующих внимание на соблюдении конфиденциальности. Федеративное обучение обладает инженерной структурой распределенной тренировки и возможностями локального сотрудничества, в то же время имея преимущества распределенных данных при Децентрализация, но все же зависит от надежной координирующей стороны и не имеет полностью открытых и антикоррекционных характеристик. Это можно рассматривать как "контролируемую Децентрализация" в сценариях соблюдения конфиденциальности, где задачи тренировки, структура доверия и механизмы связи относительно умеренные, что делает его более подходящим в качестве переходной архитектуры развертывания в промышленности.
Полный сравнительный обзор парадигм обучения ИИ ( Техническая архитектура × Стимулирование доверия × Применение характеристик )
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или большой сложности сотрудничества, она естественным образом не подходит для эффективного выполнения между гетерогенными, доверительными узлами. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разбиение и синхронизацию в открытых сетях; задачи, связанные с конфиденциальностью данных и сильными ограничениями суверенитета, ограничены юридическими и этическими нормами, что делает невозможным открытое совместное использование; а задачи, которые лишены основы для стимулирования сотрудничества, испытывают недостаток внешнего мотива для участия. Эти границы формируют текущие реальные ограничения Децентрализации обучения.
Но это не означает, что Децентрализация тренировок является ложной проблемой. На самом деле, в задачах с легкой структурой, легкими для параллелизации и мотивируемыми, Децентрализация тренировок демонстрирует четкие перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения, выравнивающие поведение, краудсорсинг данных для обучения и аннотирования, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием краевых устройств. Эти задачи обычно обладают высокой параллельностью, низкой связностью и устойчивостью к гетерогенной вычислительной мощности, что делает их очень подходящими для кооперативного обучения через P2P сети, протоколы Swarm, распределенные оптимизаторы и т.д.
Обзор адаптивности задач обучения Децентрализация
Децентрализация тренировки классических проектов анализа
В настоящее время в области децентрализованного обучения и федеративного обучения наиболее代表ительными проектами блокчейна являются Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили много оригинальных исследований в области системной архитектуры и проектирования алгоритмов, представляя передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть начальные инженерные достижения. В данной статье будут последовательно проанализированы ключевые технологии и архитектура этих пяти проектов, а также дополнительно изучены их различия и взаимодополняющие отношения в децентрализованной системе обучения ИИ.
Prime Intellect: Тренировочная траектория проверяемой усиленной обучающей кооперативной сети первопроходца
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя любому участвовать в обучении и получать заслуженные награды за свои вычислительные усилия. Prime Intellect надеется создать систему децентрализованного обучения ИИ с проверяемостью, открытостью и полными механизмами стимулирования с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
Два. Подробное объяснение ключевых механизмов тренировки Prime Intellect
PRIME-RL: Архитектура задач асинхронного обучения с подкреплением с декомпозицией
PRIME-RL является фреймворком моделирования и выполнения задач, разработанным Prime Intellect для Децентрализация тренировочных сценариев, специально созданным для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно разъединяя процессы обучения, вывода и загрузки весов, что позволяет каждому учебному узлу независимо выполнять цикл задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами валидации и агрегации. По сравнению с традиционными процессами обучения с учителем, PRIME-RL более подходит для реализации гибкого обучения в средах без центрального управления, что снижает сложность системы и создает основу для поддержки параллельного выполнения нескольких задач и эволюции стратегий.
TOPLOC: легкий механизм валидации поведения обучения
TOPLOC — это механизм核心可验证性, предложенный Prime Intellect, который используется для определения того, завершил ли узел действительно эффективное обучение стратегии на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторного вычисления всей модели, а завершает верификацию легковесной структуры, анализируя локальные согласованные траектории между "наблюдательной последовательностью ↔ обновлением стратегии". Впервые он превращает траектории поведения в процессе обучения в объекты, подлежащие верификации, что является ключевым инновационным решением для реализации распределения вознаграждений за обучение без доверия и предоставляет жизнеспособный путь для построения可审计,可激励的 Децентрализация сотрудничества в обучении сети.
SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST – это протокол весового распространения и агрегации, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронностью, ограниченной пропускной способностью и изменяющимся состоянием узлов. Он сочетает в себе механизмы распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в условиях несинхронизированного состояния, что обеспечивает прогрессивную сходимость весов и многоверсионную эволюцию. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно улучшает масштабируемость и отказоустойчивость децентрализованного обучения, являясь основой для построения стабильного консенсуса весов и непрерывной итерации обучения.
OpenDiLoCo: Разреженная асинхронная коммуникационная рамка
OpenDiLoCo является независимой реализацией и открытым исходным кодом фреймворка оптимизации коммуникаций, разработанным командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Он специально разработан для решения таких проблем, как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы, которые часто возникают в процессе Децентрализации. Его архитектура основана на параллелизме данных и использует разреженные топологические структуры, такие как Ring, Expander и Small-World, чтобы избежать высоких затрат на коммуникацию при глобальной синхронизации, полагаясь только на соседние узлы для выполнения совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и краевым устройствам стабильно участвовать в задачах обучения, значительно повышая доступность глобального совместного обучения и становясь одной из ключевых коммуникационных инфраструктур для построения сети децентрализованного обучения.
PCCL: Библиотека совместной связи
PCCL — это легковесная библиотека связи, разработанная Prime Intellect для Децентрализация AI обучающей среды, которая направлена на решение проблем адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, являясь базовым компонентом, поддерживающим асинхронные коммуникационные возможности протокола OpenDiLoCo. Это значительно повышает толерантность сети к пропускной способности и совместимость устройств, прокладывая "последнюю милю" связи для создания действительно открытой, не требующей доверия сети совместного обучения.
Три, Сеть стимулов Prime Intellect и распределение ролей
Prime Intellect создал обучающую сеть, которая не требует разрешений, является проверяемой и имеет экономические стимулы, позволяя любому участвовать в заданиях и получать вознаграждения на основе реального вклада. Протокол работает на основе трех основных ролей:
Основные процессы протокола включают в себя публикацию задач, обучение узлов, верификацию траекторий, агрегирование весов и распределение вознаграждений, что формирует замкнутый цикл стимулов вокруг "реальных тренировочных действий".
Четыре, INTELLECT-2: выпуск первой проверяемой Децентрализация обучающей модели
Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель глубокого обучения, обученная с использованием асинхронных, доверительных узлов, осуществляющих децентрализованную кооперацию, с параметрами размером 32B. Модель INTELLECT-2 была обучена с помощью более 100 гетерогенных узлов GPU, расположенных на трех континентах, с использованием полностью асинхронной архитектуры, продолжительность обучения составила более 400 часов, что продемонстрировало осуществимость и стабильность асинхронной кооперации сети. Эта модель не только является прорывом в производительности, но и представляет собой первую системную реализацию парадигмы "обучение как консенсус", предложенной Prime Intellect. INTELLECT-2 интегрирует PRIME-RL,