Эволюция парадигм обучения ИИ: от централизованного управления к Децентрализация совместной технической революции
В полной цепочке ценностей ИИ обучение моделей является этапом с наибольшими затратами ресурсов и высоким технологическим барьером, который напрямую определяет верхний предел возможностей модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянного крупномасштабного вычислительного ресурса, сложных процессов обработки данных и поддержки интенсивных алгоритмов оптимизации, что делает его настоящей "тяжелой промышленностью" в построении систем ИИ. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализация, на которой сосредоточено внимание данной статьи.
Централизованное обучение — это наиболее распространенный традиционный способ, при котором единый орган выполняет весь процесс обучения на локальном высокопроизводительном кластере. Все компоненты, начиная от аппаратного обеспечения, базового программного обеспечения, системы управления кластером и заканчивая фреймворком обучения, координируются единой управляющей системой. Эта архитектура глубокой кооперации обеспечивает максимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает её особенно подходящей для обучения масштабных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контролируемых ресурсов, но при этом сталкиваясь с проблемами, такими как монополия на данные, барьеры для ресурсов, потребление энергии и риски единой точки отказа.
Распределенное обучение является основным способом обучения больших моделей в настоящее время. Его суть заключается в разбиении задач обучения модели и распределении их на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Несмотря на наличие "распределенных" характеристик в физическом плане, в целом процесс все еще контролируется централизованной организацией, которая управляет планированием и синхронизацией. Обычно он работает в среде высокоскоростной локальной сети и использует технологию высокоскоростной межсоединительной шины NVLink для координации подзадач через главный узел. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры общего доступа, необходимо сопоставить веса модели
Параллельное моделирование: размещение различных частей модели на разных узлах для достижения высокой масштабируемости;
Параллельные каналы: поэтапное последовательное выполнение для повышения пропускной способности;
Тензорное параллелизм: тонкая сегментация матричных вычислений, повышение гранулярности параллелизма.
Распределенное обучение — это сочетание "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет работой сотрудников нескольких "офисов" для выполнения задач. В настоящее время почти все основные большие модели обучаются таким образом.
Децентрализация обучения представляет собой более открытую и устойчивую к цензуре дорожную карту будущего. Его ключевые характеристики заключаются в следующем: несколько недоверяющих друг другу узлов (возможно, домашние компьютеры, облачные GPU или периферийные устройства) совместно выполняют задачи обучения без центрального координатора, обычно управляя распределением задач и сотрудничеством с помощью протоколов, и используя механизмы крипто-стимулирования для обеспечения честности вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:
Проблемы с гетерогенностью устройств и разделением задач: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач;
Узкие места в эффективности связи: нестабильная сетевая связь, явные узкие места в синхронизации градиентов;
Отсутствие доверенной среды выполнения: недостаток доверенной среды выполнения затрудняет проверку того, действительно ли узлы участвуют в вычислениях;
Недостаток единой координации: отсутствие центрального диспетчера, сложное распределение задач и механизм отката в случае исключений.
Децентрализация обучения можно понимать как: группа глобальных волонтеров, которые вносят свой вклад в вычислительную мощность для совместного обучения модели, но "реально осуществимое крупномасштабное децентрализованное обучение" все еще является системной инженерной задачей, охватывающей архитектуру систем, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, валидацию моделей и другие аспекты, но вопрос о том, сможет ли это быть "совместным эффективным + стимулирующим честность + корректным результатом", все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное хранение данных и централизованную агрегацию параметров модели, что делает его подходящим для сцен, акцентирующих внимание на соблюдении конфиденциальности (например, в медицине и финансах). Федеративное обучение обладает инженерной структурой распределенного обучения и локальными кооперативными возможностями, одновременно обладая преимуществами распределенных данных в Децентрализация, но все же зависит от надежного координирующего лица и не обладает полностью открытыми и антикоррупционными характеристиками. Его можно рассматривать как "контролируемую Децентрализация" в контексте соблюдения конфиденциальности, с относительно умеренными требованиями к задачам обучения, структуре доверия и механизмам связи, что делает его более подходящим для переходной архитектуры развертывания в промышленности.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших трудностей в сотрудничестве, она по своей природе не подходит для эффективного выполнения на разнородных, доверительных узлах. Например, обучение больших моделей часто зависит от высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи с сильными ограничениями на конфиденциальность данных и суверенитет (например, медицинские, финансовые, связанные с конфиденциальными данными) ограничены правовыми и этическими нормами и не могут быть открыто поделены; а задачи, которые не имеют основ для сотрудничества (например, закрытые модели компаний или внутреннее прототипирование) лишены внешней мотивации для участия. Эти границы вместе составляют реальные ограничения текущего Децентрализованного обучения.
Но это не означает, что Децентрализация тренировки является ложным утверждением. На самом деле, в задачах с легкой структурой, простых для параллелизации и мотивируемых, Децентрализация тренировки демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения, связанные с выравниванием поведения (такие как RLHF, DPO), задачи обучения и аннотирования с краудсорсингом данных, тренировка малых базовых моделей с контролируемыми ресурсами, а также сценарии совместной тренировки с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и терпимостью к гетерогенной вычислительной мощности, что делает их очень подходящими для совместной тренировки через P2P сети, протоколы Swarm, распределенные оптимизаторы и т.д.
Децентрализация тренировка классических проектов анализа
В настоящее время в области децентрализованного обучения и федеративного обучения представительные блокчейн-проекты включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в системной архитектуре и алгоритмическом дизайне, что представляет собой передовые направления теоретических исследований; в то время как путь реализации Gensyn и Flock.io относительно ясен, и уже можно наблюдать первоначальные успехи в инженерной реализации. В этой статье будет последовательно проанализирована основная технология и инженерная архитектура этих пяти проектов, а также будет дополнительно обсуждено их различие и взаимодополнение в системе децентрализованного AI-обучения.
Prime Intellect: Пионер кооперативных сетей глубокого обучения с верифицируемыми траекториями обучения
Prime Intellect стремится создать сеть тренировки ИИ, которая не требует доверия, позволяя каждому участвовать в тренировке и получать заслуженные награды за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему тренировки ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
В мае 2025 года Prime Intellect выпустил INTELLECT-2, первую в мире модель глубокого обучения, созданную на основе асинхронного, не требующего доверия, сотрудничества децентрализованных узлов. Масштаб параметров достигает 32B. Модель INTELLECT-2 была совместно обучена более чем на 100 GPU гетерогенных узлах, расположенных на трех континентах, с использованием полностью асинхронной архитектуры; время обучения превысило 400 часов, что продемонстрировало жизнеспособность и стабильность асинхронной сети сотрудничества. Эта модель не только представляет собой прорыв в производительности, но и является первой системной реализацией парадигмы "обучение как консенсус", предложенной Prime Intellect. INTELLECT-2 интегрирует основные протоколы, такие как PRIME-RL (асинхронная структура обучения), TOPLOC (верификация обучающих действий) и SHARDCAST (асинхронная агрегация весов), что знаменует собой первую реализацию открытости, верифицируемости и экономической стимуляции в процессе тренировки децентрализованной сети.
В плане производительности, INTELLECT-2 основан на QwQ-32B и прошел специализированное обучение RL как в коде, так и в математике, находясь на переднем крае текущих открытых RL моделей. Хотя он еще не превзошел закрытые модели, такие как GPT-4 или Gemini, его истинное значение заключается в том, что это первая в мире полностью реплицируемая, проверяемая и подлежащая аудиту модель эксперимента с Децентрализация. Prime Intellect не только открыл модель, но еще более важно, открыл сам процесс обучения - данные для обучения, траектории обновления стратегий, процессы валидации и логика агрегации прозрачны и доступны для проверки, создав прототип децентрализованной сети обучения, в которой каждый может участвовать, доверительно сотрудничать и делиться доходами.
Prime Intellect завершила посевной раунд финансирования на 15 миллионов долларов в феврале 2025 года, возглавляемый Founders Fund, с участием таких отраслевых лидеров, как Menlo Ventures, Andrej Karpathy, Clem Delangue, Dylan Patel, Balaji Srinivasan, Emad Mostaque и Sandeep Nailwal. Ранее проект завершил ранний раунд финансирования на 5,5 миллионов долларов в апреле 2024 года, который был совместно возглавлен CoinFund и Distributed Global, а также в нем участвовали такие организации, как Compound VC, Collab + Currency и Protocol Labs. В настоящее время общий объем финансирования Prime Intellect превышает 20 миллионов долларов.
Соучредителями Prime Intellect являются Vincent Weisser и Johannes Hagemann, члены команды имеют опыт в области ИИ и Web3, ключевые участники пришли из Meta AI, Google Research, OpenAI, Flashbots, Stability AI и фонда Ethereum, обладая глубокими навыками системного архитектурного проектирования и реализации распределенных инженерных решений, они являются одной из немногих успешно завершивших обучение реальной Децентрализации больших моделей команд.
Pluralis: Исследователь парадигмы совместного обучения асинхронных моделей параллельно с структурным сжатием
Pluralis - это проект Web3 AI, сосредоточенный на "доверительном совместном обучении сетей", основная цель которого - продвигать модель обучения, которая является децентрализованной, открытой для участия и обладает долгосрочными механизмами стимулов. В отличие от текущих популярных централизованных или закрытых путей обучения, Pluralis предлагает новую концепцию под названием Protocol Learning (обучение по протоколу): "протоколизировать" процесс обучения модели, создавая открытую обучающую систему с замкнутым циклом внутренних стимулов через проверяемые механизмы сотрудничества и отображение прав собственности на модель.
Протокол обучения, предложенный Pluralis, включает три ключевых столпа:
Невозможные для извлечения модели (Unmaterializable Models): модели распределены в виде фрагментов между несколькими узлами, ни один отдельный узел не может восстановить полные веса, сохраняя закрытость. Этот дизайн делает модель естественным "активом внутри протокола", что позволяет реализовать контроль доступа, защиту от утечек и привязку доходов.
Модель параллельного обучения на основе интернета (Model-parallel Training over Internet): через асинхронный механизм параллельного обучения Pipeline (архитектура SWARM) различные узлы имеют лишь часть весов и совместно выполняют обучение или вывод через сеть с низкой пропускной способностью.
Модель распределения доли на основе вклада (Частичная собственность для стимулов): Все участвующие узлы получают частичную собственность на модель в зависимости от их тренировочного вклада, что дает им право на получение доли будущих доходов и право на управление протоколом.
Pluralis четко определяет "асинхронную модель параллелизма" как основное направление, подчеркивая, что она имеет следующие преимущества по сравнению с параллельными данными:
Поддержка низкоскоростных сетей и не согласованных узлов;
Адаптация к гетерогенным устройствам, разрешающая участие потребительских GPU;
Естественно обладает гибкостью в планировании, поддерживает частое подключение/отключение узлов;
Три основных прорыва: структурное сжатие + асинхронное обновление + невытаскиваемость весов.
В настоящее время, согласно шести техническим блогам, опубликованным на официальном сайте, логическая структура объединена в следующие три основные линии:
Философия и видение: «Третий путь: обучение по протоколу» «Почему Децентрализация обучения имеет значение»
Исследование инноваций в системе: 《Unmaterializable Models》《Partial Ownership Protocols》
В настоящее время Pluralis еще не запустил продукты, тестовую сеть или открытый код, причина заключается в том, что выбранный им технологический путь чрезвычайно сложен: необходимо сначала решить системные задачи на уровне архитектуры базовой системы, коммуникационного протокола и недоступности весов для экспорта, прежде чем можно будет упаковать продуктовые услуги.
В новой статье Pluralis Research, опубликованной в июне 2025 года, будет представлен их Децентрализация обучающая структура, основанная на предварительном обучении модели.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
20 Лайков
Награда
20
6
Поделиться
комментарий
0/400
BlockchainBard
· 07-12 06:26
划算力卡 Децентрализация走起!
Посмотреть ОригиналОтветить0
HorizonHunter
· 07-10 05:51
Слишком сложно... Кто это выдержит?
Посмотреть ОригиналОтветить0
MidnightSnapHunter
· 07-09 09:41
Кто это написал? Перевод слишком книжный.
Посмотреть ОригиналОтветить0
DaoTherapy
· 07-09 09:19
Кто сказал, что ИИ должен быть централизованным?
Посмотреть ОригиналОтветить0
fren.eth
· 07-09 09:18
А, снова пришли играть в концепцию AI, будут играть для лохов, да?
Эволюция парадигмы обучения ИИ: от централизованного контроля к Децентрализация сотрудничества
Эволюция парадигм обучения ИИ: от централизованного управления к Децентрализация совместной технической революции
В полной цепочке ценностей ИИ обучение моделей является этапом с наибольшими затратами ресурсов и высоким технологическим барьером, который напрямую определяет верхний предел возможностей модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянного крупномасштабного вычислительного ресурса, сложных процессов обработки данных и поддержки интенсивных алгоритмов оптимизации, что делает его настоящей "тяжелой промышленностью" в построении систем ИИ. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализация, на которой сосредоточено внимание данной статьи.
Централизованное обучение — это наиболее распространенный традиционный способ, при котором единый орган выполняет весь процесс обучения на локальном высокопроизводительном кластере. Все компоненты, начиная от аппаратного обеспечения, базового программного обеспечения, системы управления кластером и заканчивая фреймворком обучения, координируются единой управляющей системой. Эта архитектура глубокой кооперации обеспечивает максимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает её особенно подходящей для обучения масштабных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контролируемых ресурсов, но при этом сталкиваясь с проблемами, такими как монополия на данные, барьеры для ресурсов, потребление энергии и риски единой точки отказа.
Распределенное обучение является основным способом обучения больших моделей в настоящее время. Его суть заключается в разбиении задач обучения модели и распределении их на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Несмотря на наличие "распределенных" характеристик в физическом плане, в целом процесс все еще контролируется централизованной организацией, которая управляет планированием и синхронизацией. Обычно он работает в среде высокоскоростной локальной сети и использует технологию высокоскоростной межсоединительной шины NVLink для координации подзадач через главный узел. Основные методы включают:
Распределенное обучение — это сочетание "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет работой сотрудников нескольких "офисов" для выполнения задач. В настоящее время почти все основные большие модели обучаются таким образом.
Децентрализация обучения представляет собой более открытую и устойчивую к цензуре дорожную карту будущего. Его ключевые характеристики заключаются в следующем: несколько недоверяющих друг другу узлов (возможно, домашние компьютеры, облачные GPU или периферийные устройства) совместно выполняют задачи обучения без центрального координатора, обычно управляя распределением задач и сотрудничеством с помощью протоколов, и используя механизмы крипто-стимулирования для обеспечения честности вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:
Децентрализация обучения можно понимать как: группа глобальных волонтеров, которые вносят свой вклад в вычислительную мощность для совместного обучения модели, но "реально осуществимое крупномасштабное децентрализованное обучение" все еще является системной инженерной задачей, охватывающей архитектуру систем, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, валидацию моделей и другие аспекты, но вопрос о том, сможет ли это быть "совместным эффективным + стимулирующим честность + корректным результатом", все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное хранение данных и централизованную агрегацию параметров модели, что делает его подходящим для сцен, акцентирующих внимание на соблюдении конфиденциальности (например, в медицине и финансах). Федеративное обучение обладает инженерной структурой распределенного обучения и локальными кооперативными возможностями, одновременно обладая преимуществами распределенных данных в Децентрализация, но все же зависит от надежного координирующего лица и не обладает полностью открытыми и антикоррупционными характеристиками. Его можно рассматривать как "контролируемую Децентрализация" в контексте соблюдения конфиденциальности, с относительно умеренными требованиями к задачам обучения, структуре доверия и механизмам связи, что делает его более подходящим для переходной архитектуры развертывания в промышленности.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, высоких требований к ресурсам или больших трудностей в сотрудничестве, она по своей природе не подходит для эффективного выполнения на разнородных, доверительных узлах. Например, обучение больших моделей часто зависит от высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи с сильными ограничениями на конфиденциальность данных и суверенитет (например, медицинские, финансовые, связанные с конфиденциальными данными) ограничены правовыми и этическими нормами и не могут быть открыто поделены; а задачи, которые не имеют основ для сотрудничества (например, закрытые модели компаний или внутреннее прототипирование) лишены внешней мотивации для участия. Эти границы вместе составляют реальные ограничения текущего Децентрализованного обучения.
Но это не означает, что Децентрализация тренировки является ложным утверждением. На самом деле, в задачах с легкой структурой, простых для параллелизации и мотивируемых, Децентрализация тренировки демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения, связанные с выравниванием поведения (такие как RLHF, DPO), задачи обучения и аннотирования с краудсорсингом данных, тренировка малых базовых моделей с контролируемыми ресурсами, а также сценарии совместной тренировки с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и терпимостью к гетерогенной вычислительной мощности, что делает их очень подходящими для совместной тренировки через P2P сети, протоколы Swarm, распределенные оптимизаторы и т.д.
Децентрализация тренировка классических проектов анализа
В настоящее время в области децентрализованного обучения и федеративного обучения представительные блокчейн-проекты включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в системной архитектуре и алгоритмическом дизайне, что представляет собой передовые направления теоретических исследований; в то время как путь реализации Gensyn и Flock.io относительно ясен, и уже можно наблюдать первоначальные успехи в инженерной реализации. В этой статье будет последовательно проанализирована основная технология и инженерная архитектура этих пяти проектов, а также будет дополнительно обсуждено их различие и взаимодополнение в системе децентрализованного AI-обучения.
Prime Intellect: Пионер кооперативных сетей глубокого обучения с верифицируемыми траекториями обучения
Prime Intellect стремится создать сеть тренировки ИИ, которая не требует доверия, позволяя каждому участвовать в тренировке и получать заслуженные награды за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему тренировки ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
В мае 2025 года Prime Intellect выпустил INTELLECT-2, первую в мире модель глубокого обучения, созданную на основе асинхронного, не требующего доверия, сотрудничества децентрализованных узлов. Масштаб параметров достигает 32B. Модель INTELLECT-2 была совместно обучена более чем на 100 GPU гетерогенных узлах, расположенных на трех континентах, с использованием полностью асинхронной архитектуры; время обучения превысило 400 часов, что продемонстрировало жизнеспособность и стабильность асинхронной сети сотрудничества. Эта модель не только представляет собой прорыв в производительности, но и является первой системной реализацией парадигмы "обучение как консенсус", предложенной Prime Intellect. INTELLECT-2 интегрирует основные протоколы, такие как PRIME-RL (асинхронная структура обучения), TOPLOC (верификация обучающих действий) и SHARDCAST (асинхронная агрегация весов), что знаменует собой первую реализацию открытости, верифицируемости и экономической стимуляции в процессе тренировки децентрализованной сети.
В плане производительности, INTELLECT-2 основан на QwQ-32B и прошел специализированное обучение RL как в коде, так и в математике, находясь на переднем крае текущих открытых RL моделей. Хотя он еще не превзошел закрытые модели, такие как GPT-4 или Gemini, его истинное значение заключается в том, что это первая в мире полностью реплицируемая, проверяемая и подлежащая аудиту модель эксперимента с Децентрализация. Prime Intellect не только открыл модель, но еще более важно, открыл сам процесс обучения - данные для обучения, траектории обновления стратегий, процессы валидации и логика агрегации прозрачны и доступны для проверки, создав прототип децентрализованной сети обучения, в которой каждый может участвовать, доверительно сотрудничать и делиться доходами.
Prime Intellect завершила посевной раунд финансирования на 15 миллионов долларов в феврале 2025 года, возглавляемый Founders Fund, с участием таких отраслевых лидеров, как Menlo Ventures, Andrej Karpathy, Clem Delangue, Dylan Patel, Balaji Srinivasan, Emad Mostaque и Sandeep Nailwal. Ранее проект завершил ранний раунд финансирования на 5,5 миллионов долларов в апреле 2024 года, который был совместно возглавлен CoinFund и Distributed Global, а также в нем участвовали такие организации, как Compound VC, Collab + Currency и Protocol Labs. В настоящее время общий объем финансирования Prime Intellect превышает 20 миллионов долларов.
Соучредителями Prime Intellect являются Vincent Weisser и Johannes Hagemann, члены команды имеют опыт в области ИИ и Web3, ключевые участники пришли из Meta AI, Google Research, OpenAI, Flashbots, Stability AI и фонда Ethereum, обладая глубокими навыками системного архитектурного проектирования и реализации распределенных инженерных решений, они являются одной из немногих успешно завершивших обучение реальной Децентрализации больших моделей команд.
Pluralis: Исследователь парадигмы совместного обучения асинхронных моделей параллельно с структурным сжатием
Pluralis - это проект Web3 AI, сосредоточенный на "доверительном совместном обучении сетей", основная цель которого - продвигать модель обучения, которая является децентрализованной, открытой для участия и обладает долгосрочными механизмами стимулов. В отличие от текущих популярных централизованных или закрытых путей обучения, Pluralis предлагает новую концепцию под названием Protocol Learning (обучение по протоколу): "протоколизировать" процесс обучения модели, создавая открытую обучающую систему с замкнутым циклом внутренних стимулов через проверяемые механизмы сотрудничества и отображение прав собственности на модель.
Протокол обучения, предложенный Pluralis, включает три ключевых столпа:
Pluralis четко определяет "асинхронную модель параллелизма" как основное направление, подчеркивая, что она имеет следующие преимущества по сравнению с параллельными данными:
В настоящее время, согласно шести техническим блогам, опубликованным на официальном сайте, логическая структура объединена в следующие три основные линии:
В настоящее время Pluralis еще не запустил продукты, тестовую сеть или открытый код, причина заключается в том, что выбранный им технологический путь чрезвычайно сложен: необходимо сначала решить системные задачи на уровне архитектуры базовой системы, коммуникационного протокола и недоступности весов для экспорта, прежде чем можно будет упаковать продуктовые услуги.
В новой статье Pluralis Research, опубликованной в июне 2025 года, будет представлен их Децентрализация обучающая структура, основанная на предварительном обучении модели.