AI Layer1 исследование: борьба за инфраструктуру децентрализованного искусственного интеллекта

AI Layer1 исследование: поиск благодатной почвы для DeAI в блокчейне

Обзор

В последние годы ведущие технологические компании, такие как OpenAI, Anthropic, Google и Meta, активно способствуют стремительному развитию больших языковых моделей (LLM). LLM демонстрируют беспрецедентные способности в различных отраслях, значительно расширяя человеческое воображение и даже показывая потенциал замены человеческого труда в некоторых сценариях. Тем не менее, ядро этих технологий надежно контролируется небольшим числом централизованных технологических гигантов. Благодаря мощному капиталу и контролю над дорогими вычислительными ресурсами эти компании создали непроходимые барьеры, которые затрудняют большинству разработчиков и инновационных команд конкурировать с ними.

В то же время, на начальном этапе быстрого развития ИИ общественное мнение часто сосредотачивается на прорывах и удобствах, которые приносит технология, в то время как внимание к таким ключевым вопросам, как защита конфиденциальности, прозрачность и безопасность, относительно невелико. В долгосрочной перспективе эти проблемы окажут глубокое влияние на здоровое развитие отрасли ИИ и ее приемлемость в обществе. Если их не удастся должным образом решить, споры о том, будет ли ИИ "направлен на добро" или "направлен на зло", будут все более остро проявляться, а централизированные гиганты, движимые инстинктом получения прибыли, часто не имеют достаточной мотивации для активного реагирования на эти вызовы.

Технология блокчейн, благодаря своим характеристикам децентрализации, прозрачности и устойчивости к цензуре, открывает новые возможности для устойчивого развития отрасли ИИ. В настоящее время на некоторых основных блокчейнах уже появилось множество приложений "Web3 AI". Однако при глубоком анализе можно обнаружить, что эти проекты все еще сталкиваются с рядом проблем: с одной стороны, уровень децентрализации ограничен, ключевые этапы и инфраструктура по-прежнему зависят от централизованных облачных сервисов, мемные свойства слишком преобладают, что делает невозможным поддержание действительно открытой экосистемы; с другой стороны, по сравнению с ИИ-продуктами мира Web2, AI на блокчейне все еще ограничен в таких аспектах, как способность моделей, использование данных и сценарии применения, глубина и широта инноваций требуют улучшения.

Чтобы действительно реализовать видение децентрализованного ИИ, необходимо, чтобы в блокчейне безопасно, эффективно и демократично размещались масштабные AI-приложения, которые могут конкурировать по производительности с централизованными решениями. Нам нужно разработать Layer1 блокчейн, специально созданный для AI. Это обеспечит прочную основу для открытых инноваций в ИИ, демократического управления и безопасности данных, способствуя процветанию экосистемы децентрализованного ИИ.

Biteye и PANews совместно выпустили исследовательский отчет по AI Layer1: поиск благоприятной почвы для DeAI в блокчейне

Основные характеристики AI Layer 1

AI Layer 1 как блокчейн, специально разработанный для AI-приложений, его базовая архитектура и проектирование производительности тесно связаны с требованиями AI-задач, с целью эффективно поддерживать устойчивое развитие и процветание AI-экосистемы в блокчейне. Конкретно, AI Layer 1 должен обладать следующими основными возможностями:

  1. Эффективные механизмы стимулов и децентрализованные консенсусы. Ядро AI Layer 1 заключается в создании открытой сети для совместного использования ресурсов, таких как вычислительная мощность и хранилище. В отличие от традиционных узлов блокчейна, которые в основном сосредоточены на ведении бухгалтерии, узлы AI Layer 1 должны выполнять более сложные задачи: не только предоставлять вычислительную мощность и завершать обучение и вывод моделей ИИ, но и вносить разнообразные ресурсы, такие как хранилище, данные и пропускная способность, тем самым разрушая монополию централизованных гигантов на инфраструктуру ИИ. Это предъявляет более высокие требования к базовому консенсусу и механизму стимулов: AI Layer 1 должен точно оценивать, поощрять и проверять фактический вклад узлов в задачи ИИ, такие как вывод и обучение, обеспечивая безопасность сети и эффективное распределение ресурсов. Только так можно гарантировать стабильность и процветание сети, а также эффективно снизить общие затраты на вычислительную мощность.

  2. Превосходные высокопроизводительные возможности и поддержка гетерогенных задач Задачи ИИ, особенно обучение и вывод LLM, предъявляют очень высокие требования к вычислительной производительности и параллельной обработке. Более того, экосистема AI в блокчейне часто должна поддерживать разнообразные и гетерогенные типы задач, включая различные модели, обработку данных, вывод, хранение и другие многогранные сценарии. AI Layer 1 должен быть глубоко оптимизирован на уровне архитектуры для удовлетворения требований высокой пропускной способности, низкой задержки и эластичной параллельной обработки, а также предусмотреть нативную поддержку гетерогенных вычислительных ресурсов, чтобы гарантировать эффективное выполнение различных задач ИИ и обеспечить плавное расширение от "однотипных задач" до "сложной многогранной экосистемы".

  3. Проверяемость и надежная защита вывода AI Уровень 1 не только должен предотвратить злоупотребления моделью, подделку данных и другие угрозы безопасности, но и обеспечить проверяемость и соответствие результатов вывода AI на уровне базовых механизмов. Интегрируя надежные среды выполнения (TEE), нулевые знания (ZK), многопартийные безопасные вычисления (MPC) и другие передовые технологии, платформа позволяет каждому процессу вывода модели, обучения и обработки данных быть независимо проверяемым, обеспечивая справедливость и прозрачность системы AI. В то же время такая проверяемость также помогает пользователям понять логику и основы вывода AI, достигая "то, что получено, то и желаемо", повышая доверие и удовлетворенность пользователей к продуктам AI.

  4. Защита конфиденциальности данных Применения ИИ часто связаны с чувствительными данными пользователей, и в таких областях, как финансы, здравоохранение и социальные сети, защита конфиденциальности данных особенно важна. AI Layer 1 должен обеспечивать безопасность данных на протяжении всего процесса вывода, обучения и хранения, используя такие методы, как обработка данных на основе шифрования, протоколы вычислений конфиденциальности и управление правами на данные, чтобы эффективно предотвратить утечку и злоупотребление данными, устраняя беспокойства пользователей по поводу безопасности данных.

  5. Мощные возможности поддержки экосистемы и разработки. В качестве инфраструктуры Layer 1, родственной ИИ, платформа должна не только обладать технологическим лидерством, но и предоставлять участникам экосистемы, таким как разработчики, операторы узлов, поставщики ИИ-услуг, полные инструменты разработки, интегрированные SDK, поддержку эксплуатации и механизмы стимулирования. Постоянно оптимизируя доступность платформы и опыт разработчиков, мы способствуем реализации разнообразных приложений, родственных ИИ, и обеспечиваем устойчивое процветание децентрализованной ИИ-экосистемы.

Основываясь на вышеуказанном контексте и ожиданиях, в данной статье подробно рассматриваются шесть представительных проектов AI Layer1, включая Sentient, Sahara AI, Ritual, Gensyn, Bittensor и 0G, систематизируется последние достижения в этой области, анализируется текущее состояние проектов и обсуждаются будущие тенденции.

Biteye и PANews совместно выпустили исследование AI Layer1: поиск благодатной почвы для DeAI в блокчейне

Sentient: Создание преданного открытого децентрализованного AI-модели

Обзор проекта

Sentient — это платформа открытых протоколов, которая создает AI Layer1 в блокчейне (, на начальном этапе являющуюся Layer 2, а затем будет мигрировать на Layer 1). Объединяя AI Pipeline и технологии блокчейна, она строит децентрализованную экономику искусственного интеллекта. Ее основная цель — решить проблемы принадлежности моделей, отслеживания вызовов и распределения ценности на централизованном рынке LLM с помощью "OML"-рамки (открытой, прибыльной и лояльной), обеспечивая структуру собственности моделей AI в блокчейне, прозрачность вызовов и распределение ценности. Видение Sentient заключается в том, чтобы любой мог создавать, сотрудничать, владеть и монетизировать AI-продукты, тем самым способствуя созданию справедливой и открытой экосистемы сети AI-агентов.

Команда Sentient Foundation объединяет ведущих академических экспертов, предпринимателей в области блокчейна и инженеров со всего мира, стремясь создать сообществом управляемую, открытую и проверяемую платформу AGI. В состав ключевых членов входят профессор Принстонского университета Pramod Viswanath и профессор Индийского института науки Himanshu Tyagi, отвечающие за безопасность и защиту конфиденциальности AI, в то время как соучредитель Polygon Sandeep Nailwal курирует стратегию блокчейна и экосистемное развитие. Члены команды имеют опыт работы в таких известных компаниях, как Meta, Coinbase, Polygon, а также в таких ведущих учебных заведениях, как Принстонский университет и Индийский институт технологий, охватывая области AI/ML, NLP, компьютерного зрения и совместно продвигая реализацию проекта.

Как вторичный проект соучредителя Polygon Sandeep Nailwal, Sentient с самого начала обладал аурой, располагая богатыми ресурсами, связями и рыночным признанием, что обеспечивало мощную поддержку для развития проекта. В середине 2024 года Sentient завершил раунд посевного финансирования на сумму 85 миллионов долларов, в котором приняли участие Founders Fund, Pantera и Framework Ventures, а также десятки известных венчурных компаний, включая Delphi, Hashkey и Spartan.

Biteye и PANews совместно выпустили исследование AI Layer1: поиск благодатной почвы для DeAI в блокчейне

Дизайн архитектуры и уровень приложений

Инфраструктурный уровень

Ядро архитектуры

Ядро архитектуры Sentient состоит из двух частей: AI Pipeline и в блокчейне.

AI-пайплайн является основой для разработки и обучения "лояльного ИИ" артефактов и включает два основных процесса:​

  • Планирование данных (Data Curation): процесс выбора данных, управляемый сообществом, для выравнивания модели.
  • Обучение лояльности (Loyalty Training): обеспечение того, чтобы модель проходила обучение, соответствующее намерениям сообщества.

Система в блокчейне обеспечивает прозрачность и децентрализованный контроль протокола, гарантируя права собственности на AI-артефакты, отслеживание использования, распределение доходов и справедливое управление. Конкретная архитектура разделена на четыре уровня:

  • Слой хранения: хранение весов модели и информации о регистрации отпечатков.
  • Уровень распределения: точка входа для вызова модели, контролируемая контрактом авторизации;
  • Уровень доступа: проверка авторизации пользователя через подтверждение прав.
  • Уровень стимула: контракт маршрутизации доходов будет распределять оплату за каждый вызов между тренерами, развертывателями и валидаторами.

OML модельный фрейм

OML фреймворк (Открытый Open, Монетизируемый Monetizable, Лояльный Loyal) является ключевой концепцией, предложенной Sentient, направленной на предоставление четкой защиты прав собственности и экономических стимулов для открытых AI моделей. Сочетая технологии в блокчейне и нативную криптографию AI, он обладает следующими характеристиками:

  • Открытость: Модель должна быть с открытым исходным кодом, код и структура данных должны быть прозрачными, что облегчит сообществу воспроизведение, аудит и улучшение.
  • Монетизация: Каждый вызов модели создает поток дохода, в блокчейне контракт распределяет доходы между тренерами, развертывателями и валидациями.
  • Лояльность: Модель принадлежит сообществу вкладчиков, направления обновления и управление определяются DAO, использование и изменение контролируются криптомеханизмом.

AI родная криптография (AI-native Cryptography)

AI-родное шифрование использует непрерывность AI моделей, структуры низкоразмерных многообразий и дифференцируемые характеристики моделей для разработки "проверяемого, но не удаляемого" легковесного механизма безопасности. Его ключевая технология:

  • Встраивание отпечатка: во время обучения вставляется набор скрытых пар ключ-значение запрос-ответ, формирующих уникальную подпись модели;
  • Протокол проверки прав собственности: проверка, сохранен ли отпечаток пальца, с помощью стороннего детектора (Prover) в форме запроса query;
  • Механизм разрешенного вызова: перед вызовом необходимо получить "документ о праве" от владельца модели, после чего система разрешает модели декодировать этот ввод и возвращать точный ответ.

Этот способ позволяет реализовать "авторизованные вызовы на основе поведения + верификация принадлежности" без затрат на повторное шифрование.

Модель обеспечения прав и безопасной реализации

Sentient в настоящее время использует Melange смешанную безопасность: комбинация подтверждения по отпечаткам пальцев, выполнения TEE и распределения прибыли по смарт-контрактам в блокчейне. Метод отпечатков пальцев реализует основное направление OML 1.0, подчеркивая идею "оптимистичной безопасности (Optimistic Security)", то есть по умолчанию соблюдение норм, а в случае нарушений возможен их контроль и наказание.

Механизм отпечатков пальцев является ключевой реализацией OML, который позволяет модели генерировать уникальную подпись на этапе обучения путем внедрения определенных "вопрос-ответ" пар. С помощью этих подписей обладатели модели могут подтверждать право собственности, предотвращая несанкционированное копирование и коммерциализацию. Этот механизм не только защищает права разработчиков модели, но и предоставляет отслеживаемую запись использования модели в блокчейне.

Кроме того, Sentient представила вычислительную платформу Enclave TEE, использующую доверенную среду выполнения (например, AWS Nitro Enclaves), чтобы гарантировать, что модели отвечают только на авторизованные запросы, предотвращая несанкционированный доступ и использование. Хотя TEE зависит от аппаратного обеспечения и имеет определенные риски безопасности, его высокая производительность и преимущества в реальном времени делают его ключевой технологией для развертывания современных моделей.

В будущем Sentient планирует внедрить технологии нулевых знаний (ZK) и полностью гомоморфного шифрования (FHE), чтобы进一步增强 защиту конфиденциальности и проверяемость, предоставляя более зрелые решения для децентрализованного развертывания AI-моделей.

![Biteye и PANews совместно выпустили исследование AI Layer1: ищем плодородные земли для DeAI в блокчейне](

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
CommunitySlackervip
· 07-25 11:33
Поклоняться гигантам не интересно, инновации имеют значение.
Посмотреть ОригиналОтветить0
ZeroRushCaptainvip
· 07-24 20:00
Хороший парень, такая монополия обращается с нами, розничными инвесторами, как с неудачниками.
Посмотреть ОригиналОтветить0
StakeHouseDirectorvip
· 07-24 20:00
Что делает монополия технологических гигантов?
Посмотреть ОригиналОтветить0
SmartContractPlumbervip
· 07-24 19:59
Управляющие права централизованного ИИ страшнее уязвимостей в контрактах, кто сможет их аудитировать?
Посмотреть ОригиналОтветить0
VCsSuckMyLiquidityvip
· 07-24 19:51
Монополия - это самый ядовитый на пути к инновациям 🐸
Посмотреть ОригиналОтветить0
PriceOracleFairyvip
· 07-24 19:49
когда реальный децентрализованный ИИ, френ? эта штука просто большой техно в одежде web3...
Посмотреть ОригиналОтветить0
  • Закрепить