Проекты Web3 с концепцией ИИ становятся объектами притяжения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытой модели и децентрализованного рынка AI-агентов.
Основные области применения ИИ в индустрии Web3 - это финансовые операции на блокчейне (криптоплатежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизованности AI, а AI обещает помочь Web3 выйти за рамки.
За последние два года развитие ИИ похоже на нажатие кнопки ускорения; это «крыло бабочки», вызванное Chatgpt, открыло не только новый мир генеративного искусственного интеллекта, но и вызвало волну в Web3 на другом берегу.
С поддержкой концепции ИИ, финансирование на замедляющемся крипторынке стало явно лучше. Согласно статистике СМИ, только за первое полугодие 2024 года было завершено финансирование 64 проектов Web3+AI, а основанная на искусственном интеллекте операционная система Zyber365 в раунде A привлекла максимальную сумму финансирования в 100 миллионов долларов.
Вторичный рынок стал более процветающим, данные с одного криптоагрегатора показывают, что всего за чуть более года общая рыночная капитализация в области ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; явные преимущества, вызванные прогрессом основных технологий ИИ, проявились после выпуска текстово-видео модели Sora от OpenAI, что привело к увеличению средней цены в секторе ИИ на 151%; эффект ИИ также распространился на один из сегментов криптовалюты, привлекающих капитал - Meme: первый концепт AI Agent MemeCoin ------ GOAT быстро стал популярным и завоевал оценку в 1,4 миллиарда долларов, успешно запустив бум AI Meme.
Исследования и темы, связанные с AI+Web3, также на слуху: от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, чувство FOMO уже не успевает за скоростью смены новых нарративов.
AI+Web3, этот терминальный набор, наполненный горячими деньгами, перспективами и фантазиями о будущем, неизбежно воспринимается как организованный брак, устроенный капиталом. Нам кажется, что трудно различить, что именно скрывается под этой роскошной одеждой: это арена спекулянтов или предрассветная ночь для всплеска?
Чтобы ответить на этот вопрос, ключевой мыслью для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся посмотреть на эту структуру, опираясь на опыт предшественников: как Web3 может играть роль на различных уровнях стеков технологий AI и что новое AI может принести для Web3?
Часть 1. Какие возможности предоставляет Web3 в контексте AI-стека?
Перед тем как развернуть эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря простыми словами, весь процесс можно описать так: «Большая модель» подобна человеческому мозгу. На ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять его. Это и есть этап «сборки» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими чувствами, перед обучением масштабная неразмеченная информация из внешнего мира должна быть преобразована через «предварительную обработку» в формат информации, который компьютер может понять и использовать.
После ввода данных AI через «обучение» создает модель с пониманием и предсказательной способностью, которую можно рассматривать как процесс, в котором младенец постепенно понимает и изучает внешний мир. Параметры модели подобны языковым навыкам младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает делиться на предметы или происходит общение с людьми, получая обратную связь и исправления, это переходит в этап «тонкой настройки» большой модели.
Дети постепенно растут и, научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап похож на «вывод» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ в фазе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т.д.
А AI Agent стремится к следующей форме большого моделирования — способности независимо выполнять задачи и стремиться к сложным целям, обладая не только мыслительными способностями, но и возможностью запоминать, планировать, а также использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 в настоящее время предварительно сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все стадии процесса моделей ИИ.
Один. Базовый уровень: Airbnb вычислительной мощности и данных
Хэшрейт
В настоящее время одной из самых высоких затрат в области ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Одним из примеров является то, что LLAMA3 от Meta требует 16000 GPU H100, произведенных NVIDIA (это топовый графический процессор, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными задачами). Обучение занимает 30 дней. Цена за 80 ГБ версию колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов (GPU + сетевые чипы), при этом ежемесячное обучение требует потребления 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Для разряжения вычислительных мощностей ИИ это действительно первая область пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время на одном из сайтов данных DePin представлено более 1400 проектов, среди которых проекты, представляющие собой совместное использование вычислительных мощностей GPU, включают io.net, Aethir, Akash, Render Network и так далее.
Основная логика заключается в том, что платформа позволяет индивидуумам или организациям, имеющим неиспользуемые GPU-ресурсы, вносить свой вычислительный потенциал в децентрализованной форме без необходимости получения разрешений. Это происходит через онлайн-рынок, аналогичный Uber или Airbnb, что повышает коэффициент использования недостаточно используемых GPU-ресурсов, а конечные пользователи получают более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов понесут соответствующее наказание.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние центры обработки данных, операторы криптомайнинга и другие, у которых есть избыток вычислительных ресурсов, а механизм консенсуса - PoS, например, майнинговое оборудование для FileCoin и ETH. В настоящее время также есть проекты, нацеленные на запуск оборудования с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для выполнения больших моделей.
Перед лицом длиннохвостого рынка вычислительных мощностей ИИ:
a. «С точки зрения технологии» децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от обработки данных, обеспечиваемой масштабами супер больших кластеров GPU, в то время как для вывода производительность вычислений GPU относительно ниже, как Aethir, сосредотачивающийся на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения спроса, небольшие участники с низкой вычислительной мощностью не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких крупных моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованная собственность: техническое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко адаптируя их в зависимости от потребностей, а также получая прибыль.
Данные
Данные являются основой ИИ. Без данных вычисления похожи на мелкие частицы, не имеющие никакой пользы, а связь между данными и моделью можно описать пословицей "Мусор на входе, мусор на выходе". Количество данных и качество их ввода определяют качество выхода конечной модели. Для текущего обучения ИИ моделей данные определяют языковые способности модели, способности к пониманию, а также мировоззрение и человечность. В настоящее время проблемы с потребностью в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Данные, как основа: Обучение моделей ИИ требует большого объема данных. Открытые данные показывают, что количество параметров, используемых OpenAI для обучения GPT-4, достигло триллионов.
Качество данных: с объединением ИИ и различных отраслей требования к качеству данных, такие как своевременность данных, разнообразие данных, профессионализм вертикальных данных и интеграция новых источников данных, таких как эмоции в социальных медиа, также возросли.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на исследования и разработки в AI-компаниях направляется на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: возможность бесплатно предоставлять захваченные данные из реального мира стремительно иссякает, расходы AI-компаний на покупку данных растут год от года. Тем не менее, эти расходы не возвращаются к настоящим создателям данных, платформы полностью наслаждаются созданием ценности, которую приносят данные, например, Reddit за счет подписания соглашений о лицензировании данных с AI-компаниями заработал в общей сложности 203 миллиона долларов.
Позволить действительно вносящим вклад пользователям также участвовать в создании ценности данных, а также получать более частные и ценные данные от пользователей с низкими затратами через распределенные сети и механизмы вознаграждения — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой вклад в неиспользуемую полосу пропускания и релейный трафик для захвата实时 данных из всего интернета и получать токеновые вознаграждения;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать свои личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим сторонам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве категории и @PublicAI для сбора данных.
Предобработка данных: в процессе обработки данных ИИ, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат перед обучением модели, что включает стандартизацию, фильтрацию и обработку недостающих значений. Этот этап является одним из немногих ручных этапов в индустрии ИИ, что привело к появлению профессии аннотаторов данных. С повышением требований моделей к качеству данных, порог вхождения для аннотаторов данных также возрос, и эта задача естественно подходит для децентрализованной системы стимулов Web3.
В настоящее время Grass и OpenLayer рассматривают возможность добавления маркировки данных на этот ключевой этап.
Synesis предложила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотации данных Sapien превращает задачи по маркировке в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность данных и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительных данных, в то время как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные области применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество в области данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не передавая свои исходные данные.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Достоверная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), такие как BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, что позволяет пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая чувствительную информацию.
Однако в настоящее время эта сфера все еще находится на ранней стадии, большинство проектов все еще находятся на стадии исследования, одной из текущих проблем является слишком высокая вычислительная стоимость, некоторые примеры:
Блок zkML
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
10 Лайков
Награда
10
7
Поделиться
комментарий
0/400
NestedFox
· 17ч назад
Разогрелись? Теперь все проекты нацелены на ИИ.
Посмотреть ОригиналОтветить0
TokenToaster
· 17ч назад
Это всего лишь следование моде.
Посмотреть ОригиналОтветить0
CryptoSurvivor
· 17ч назад
Эта волна стабильна, стоит больше инвестировать в токены, связанные с ИИ.
Посмотреть ОригиналОтветить0
GateUser-cff9c776
· 17ч назад
web3 всё ещё хочет спасти ai? Кот Шрёдингера Децентрализация
Посмотреть ОригиналОтветить0
DaoGovernanceOfficer
· 17ч назад
*вздох* эмпирически говоря, это всего лишь театрализованная деконтрализация 2.0
Посмотреть ОригиналОтветить0
GasFeeWhisperer
· 18ч назад
мир криптовалют真就哪都蹭啊
Посмотреть ОригиналОтветить0
ShibaOnTheRun
· 18ч назад
Настоящий аромат. Кто сможет устоять перед соблазном денег?
AI+Web3融合:探索 Децентрализация Вычислительная мощность 与数据的新机遇
AI+Web3: Башни и площади
ТЛ; ДОКТОР
Проекты Web3 с концепцией ИИ становятся объектами притяжения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте ------ через данные, хранение и вычисления; в то же время, создание открытой модели и децентрализованного рынка AI-агентов.
Основные области применения ИИ в индустрии Web3 - это финансовые операции на блокчейне (криптоплатежи, торговля, анализ данных) и помощь в разработке.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизованности AI, а AI обещает помочь Web3 выйти за рамки.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ похоже на нажатие кнопки ускорения; это «крыло бабочки», вызванное Chatgpt, открыло не только новый мир генеративного искусственного интеллекта, но и вызвало волну в Web3 на другом берегу.
С поддержкой концепции ИИ, финансирование на замедляющемся крипторынке стало явно лучше. Согласно статистике СМИ, только за первое полугодие 2024 года было завершено финансирование 64 проектов Web3+AI, а основанная на искусственном интеллекте операционная система Zyber365 в раунде A привлекла максимальную сумму финансирования в 100 миллионов долларов.
Вторичный рынок стал более процветающим, данные с одного криптоагрегатора показывают, что всего за чуть более года общая рыночная капитализация в области ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; явные преимущества, вызванные прогрессом основных технологий ИИ, проявились после выпуска текстово-видео модели Sora от OpenAI, что привело к увеличению средней цены в секторе ИИ на 151%; эффект ИИ также распространился на один из сегментов криптовалюты, привлекающих капитал - Meme: первый концепт AI Agent MemeCoin ------ GOAT быстро стал популярным и завоевал оценку в 1,4 миллиарда долларов, успешно запустив бум AI Meme.
Исследования и темы, связанные с AI+Web3, также на слуху: от AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, чувство FOMO уже не успевает за скоростью смены новых нарративов.
AI+Web3, этот терминальный набор, наполненный горячими деньгами, перспективами и фантазиями о будущем, неизбежно воспринимается как организованный брак, устроенный капиталом. Нам кажется, что трудно различить, что именно скрывается под этой роскошной одеждой: это арена спекулянтов или предрассветная ночь для всплеска?
Чтобы ответить на этот вопрос, ключевой мыслью для обеих сторон является: станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся посмотреть на эту структуру, опираясь на опыт предшественников: как Web3 может играть роль на различных уровнях стеков технологий AI и что новое AI может принести для Web3?
Часть 1. Какие возможности предоставляет Web3 в контексте AI-стека?
Перед тем как развернуть эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря простыми словами, весь процесс можно описать так: «Большая модель» подобна человеческому мозгу. На ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять его. Это и есть этап «сборки» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими чувствами, перед обучением масштабная неразмеченная информация из внешнего мира должна быть преобразована через «предварительную обработку» в формат информации, который компьютер может понять и использовать.
После ввода данных AI через «обучение» создает модель с пониманием и предсказательной способностью, которую можно рассматривать как процесс, в котором младенец постепенно понимает и изучает внешний мир. Параметры модели подобны языковым навыкам младенца, которые постоянно корректируются в процессе обучения. Когда содержание обучения начинает делиться на предметы или происходит общение с людьми, получая обратную связь и исправления, это переходит в этап «тонкой настройки» большой модели.
Дети постепенно растут и, научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап похож на «вывод» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входные данные. Младенцы выражают чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ в фазе вывода для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т.д.
А AI Agent стремится к следующей форме большого моделирования — способности независимо выполнять задачи и стремиться к сложным целям, обладая не только мыслительными способностями, но и возможностью запоминать, планировать, а также использовать инструменты для взаимодействия с миром.
! AI+Web3: Башни и площади
В настоящее время, в ответ на болевые точки ИИ на различных уровнях, Web3 в настоящее время предварительно сформировал многоуровневую, взаимосвязанную экосистему, охватывающую все стадии процесса моделей ИИ.
Один. Базовый уровень: Airbnb вычислительной мощности и данных
Хэшрейт
В настоящее время одной из самых высоких затрат в области ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.
Одним из примеров является то, что LLAMA3 от Meta требует 16000 GPU H100, произведенных NVIDIA (это топовый графический процессор, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными задачами). Обучение занимает 30 дней. Цена за 80 ГБ версию колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов (GPU + сетевые чипы), при этом ежемесячное обучение требует потребления 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Для разряжения вычислительных мощностей ИИ это действительно первая область пересечения Web3 и ИИ ------ DePin (децентрализованная сеть физических инфраструктур). В настоящее время на одном из сайтов данных DePin представлено более 1400 проектов, среди которых проекты, представляющие собой совместное использование вычислительных мощностей GPU, включают io.net, Aethir, Akash, Render Network и так далее.
Основная логика заключается в том, что платформа позволяет индивидуумам или организациям, имеющим неиспользуемые GPU-ресурсы, вносить свой вычислительный потенциал в децентрализованной форме без необходимости получения разрешений. Это происходит через онлайн-рынок, аналогичный Uber или Airbnb, что повышает коэффициент использования недостаточно используемых GPU-ресурсов, а конечные пользователи получают более доступные и эффективные вычислительные ресурсы. В то же время механизм стейкинга гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов понесут соответствующее наказание.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние центры обработки данных, операторы криптомайнинга и другие, у которых есть избыток вычислительных ресурсов, а механизм консенсуса - PoS, например, майнинговое оборудование для FileCoin и ETH. В настоящее время также есть проекты, нацеленные на запуск оборудования с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных ресурсов для выполнения больших моделей.
Перед лицом длиннохвостого рынка вычислительных мощностей ИИ:
a. «С точки зрения технологии» децентрализованный рынок вычислительных мощностей более подходит для этапов вывода. Обучение больше зависит от обработки данных, обеспечиваемой масштабами супер больших кластеров GPU, в то время как для вывода производительность вычислений GPU относительно ниже, как Aethir, сосредотачивающийся на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения спроса, небольшие участники с низкой вычислительной мощностью не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких крупных моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные являются основой ИИ. Без данных вычисления похожи на мелкие частицы, не имеющие никакой пользы, а связь между данными и моделью можно описать пословицей "Мусор на входе, мусор на выходе". Количество данных и качество их ввода определяют качество выхода конечной модели. Для текущего обучения ИИ моделей данные определяют языковые способности модели, способности к пониманию, а также мировоззрение и человечность. В настоящее время проблемы с потребностью в данных для ИИ в основном сосредоточены на следующих четырех аспектах:
Данные, как основа: Обучение моделей ИИ требует большого объема данных. Открытые данные показывают, что количество параметров, используемых OpenAI для обучения GPT-4, достигло триллионов.
Качество данных: с объединением ИИ и различных отраслей требования к качеству данных, такие как своевременность данных, разнообразие данных, профессионализм вертикальных данных и интеграция новых источников данных, таких как эмоции в социальных медиа, также возросли.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на исследования и разработки в AI-компаниях направляется на сбор и обработку базовых данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Позволить действительно вносящим вклад пользователям также участвовать в создании ценности данных, а также получать более частные и ценные данные от пользователей с низкими затратами через распределенные сети и механизмы вознаграждения — это видение Web3.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой вклад в неиспользуемую полосу пропускания и релейный трафик для захвата实时 данных из всего интернета и получать токеновые вознаграждения;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), пользователи могут загружать свои личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных определенным третьим сторонам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве категории и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность добавления маркировки данных на этот ключевой этап.
Synesis предложила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотации данных Sapien превращает задачи по маркировке в игру и позволяет пользователям ставить баллы, чтобы зарабатывать больше баллов.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Достоверная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), такие как BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, что позволяет пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая чувствительную информацию.
Однако в настоящее время эта сфера все еще находится на ранней стадии, большинство проектов все еще находятся на стадии исследования, одной из текущих проблем является слишком высокая вычислительная стоимость, некоторые примеры: