Тенденция слияния AI и Web3: Вычислительная мощность данных Децентрализация становится центром внимания

ИИ+Web3: Башни и площади

ТЛ; ДОКТОР

  1. Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.

  2. Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциальных поставок в длинном хвосте, в данных, хранении и вычислениях; одновременно создавая открытые модели и децентрализованный рынок AI-агентов.

  3. Основные области применения ИИ в индустрии Web3 - это цепочная финансовая криптоплатежи, торговля, аналитика данных ( и помощь в разработке.

  4. Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 обещает противостоять централизации AI, AI, в свою очередь, может помочь Web3 выйти за рамки.

! [AI+Web3: Башни и площади])https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d663cf31b15ee55(

Введение

В последние два года развитие ИИ похоже было ускорено, и этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал волну в Web3 на другом берегу.

С учетом концепции ИИ, финансирование в замедляющемся криптовалютном рынке заметно увеличилось. Только в первой половине 2024 года 64 проекта Web3+AI завершили финансирование, а операционная система на основе искусственного интеллекта Zyber365 достигла максимального объема финансирования в 100 миллионов долларов на раунде A.

Вторичный рынок стал более процветающим, данные криптосборных сайтов показывают, что всего за чуть более года общая рыночная капитализация AI-сектора достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; явные преимущества, связанные с прогрессом основных AI-технологий, стали очевидными, после выпуска модели OpenAI Sora для преобразования текста в видео средняя цена в секторе AI выросла на 151%; эффект AI также распространился на один из секторов криптовалют, привлекающих средства, Meme: первый концепт AI-агента, MemeCoin ------ GOAT быстро стал популярным и получил оценку в 1,4 миллиарда долларов, успешно запустив волну AI Meme.

Исследования и темы, связанные с AI+Web3, также становятся все более актуальными: от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO уже не успевают за скоростью смены новых нарративов.

AI+Web3, эта комбинация терминов, наполненная горячими деньгами, удачными моментами и фантазиями о будущем, неизбежно воспринимается как сделанный капиталом фиктивный брак. Кажется, нам трудно различить под этой роскошной мантией, на самом ли деле это поле спекулянтов или же преддверие пробуждения?

Чтобы ответить на этот вопрос, важным размышлением для обеих сторон является: станет ли лучше с другой стороной? Можем ли мы извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся взглянуть на эту картину, опираясь на достижения предыдущих поколений: как Web3 может играть роль на различных этапах стека технологий ИИ, и что нового ИИ может принести Web3?

Часть 1. Какие возможности открывает Web3 в контексте AI-стека?

Перед тем как развивать эту тему, нам нужно понять технологический стек больших моделей ИИ:

Переходя на более доступный язык, весь процесс можно описать следующим образом: «Большая модель» похожа на человеческий мозг. На ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и впитывать огромное количество информации из окружающего мира, чтобы понять его. Это стадия «сбора» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими сенсорными способностями, перед обучением крупные неразмеченные данные необходимо преобразовать через «предобработку» в формат информации, который компьютер может понять и использовать.

После ввода данных AI создает модель с пониманием и предсказательной способностью через «обучение», что можно рассматривать как процесс, в котором младенец постепенно понимает и учится взаимодействовать с внешним миром. Параметры модели подобны языковым способностям, которые младенец постоянно корректирует в процессе обучения. Когда содержание обучения начинает разделяться на категории или происходит общение с людьми, получая обратную связь и корректировки, это приводит к этапу «тонкой настройки» большой модели.

Дети, постепенно растя и научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап похож на «рассуждение» в больших моделях ИИ, где модель может предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ применяются на этапе рассуждения после завершения обучения для выполнения различных специфических задач, таких как классификация изображений, распознавание речи и т.д.

И AI Agent становится более близким к следующей форме большого моделирования — способности независимо выполнять задачи и стремиться к сложным целям, обладая не только мыслительными способностями, но и возможностью запоминать, планировать и использовать инструменты для взаимодействия с миром.

В настоящее время, учитывая болевые точки ИИ на различных уровнях, Web3 в настоящее время начинает формировать многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделей ИИ.

! [AI+Web3: Башни и площади])https://img-cdn.gateio.im/webp-social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4.webp(

) Один. Базовый уровень: Airbnb вычислительной мощности и данных

мощность

В настоящее время одной из самых высоких затрат ИИ является вычислительная мощность и энергия, необходимые для обучения моделей и их вывода.

Один из примеров - LLAMA3 от Meta, который требует 16000 графических процессоров H100, произведенных NVIDIA###, это топовый графический процессор, специально разработанный для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками. Обучение занимает 30 дней. Цена на 80 ГБ версию колеблется от 30,000 до 40,000 долларов, что требует инвестиций в вычислительное оборудование в размере от 400 до 700 миллионов долларов(, включая GPU и сетевые чипы), одновременно ежемесячное обучение требует потребления 1.6 миллиарда киловатт-часов, а затраты на энергию составляют почти 20 миллионов долларов в месяц.

Для разгрузки вычислительных мощностей ИИ именно Web3 является одной из первых областей пересечения с ИИ ------ DePin( децентрализованная сеть физических инфраструктур) в настоящее время на одном из сайтов данных уже представлено более 1400 проектов, среди которых проекты, представляющие совместное использование вычислительных мощностей GPU, включают io.net, Aethir, Akash, Render Network и другие.

Основная логика заключается в следующем: платформа позволяет физическим лицам или организациям, имеющим неиспользуемые GPU-ресурсы, вносить свой вычислительный потенциал в децентрализованной форме без необходимости получения разрешений, через онлайн-рынок покупателей и продавцов, аналогичный Uber или Airbnb, повышая уровень использования не полностью задействованных GPU-ресурсов. Конечные пользователи получают более доступные и эффективные вычислительные ресурсы; одновременно механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети, поставщики ресурсов понесут соответствующее наказание.

Его особенности заключаются в том, что:

  • Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые малые и средние дата-центры, операторы избыточных вычислительных мощностей, такие как крипто-майнинг, с механизмом консенсуса PoS, например, майнинговое оборудование для FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания вычислительной сети для запуска больших моделей.

  • Столкновение с длинным хвостом рынка вычислительных мощностей ИИ:

a. С точки зрения технологии, децентрализованный рынок вычислительной мощности более подходит для этапов вывода. Обучение в большей степени зависит от вычислительной способности обработки данных, предоставляемой сверхбольшими кластерами GPU, тогда как для вывода требования к производительности GPU относительно низки, например, Aethir сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.

b. «С точки зрения спроса» малые и средние потребители вычислительных мощностей не будут обучать свои собственные большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и все эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.

  • Децентрализованная собственность: Технологическое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко настраивая их в зависимости от спроса, одновременно получая прибыль.

(# Данные

Данные являются основой ИИ. Без данных вычисления бесполезны, как водоросли на поверхности воды, а связь между данными и моделями напоминает пословицу "Мусор на входе, мусор на выходе"; количество данных и качество ввода определяют качество вывода конечной модели. Для текущего обучения моделей ИИ данные определяют языковые способности модели, способности к пониманию, а также мировоззрение и гуманизацию. В настоящее время основные проблемы с потребностями в данных для ИИ сосредоточены на следующих четырех аспектах:

  • Жажда данных: обучение моделей ИИ зависит от большого объема входных данных. Публичные данные показывают, что OpenAI обучил GPT-4 с параметрами на уровне триллионов.

  • Качество данных: С учетом сочетания ИИ и различных отраслей, своевременность данных, разнообразие данных, профессионализм специализированных данных и новые источники данных, такие как анализ эмоционального контента в социальных медиа, выдвигают новые требования к их качеству.

  • Вопросы конфиденциальности и соблюдения: В настоящее время страны и компании все больше осознают важность качественных наборов данных и вводят ограничения на сбор данных.

  • Высокие затраты на обработку данных: Большие объемы данных, сложный процесс обработки. Открытые данные показывают, что более 30% затрат на НИОКР в AI-компаниях уходит на сбор и обработку базовых данных.

В настоящее время решения web3 проявляются в четырех основных аспектах:

  1. Сбор данных: возможность бесплатно предоставлять захваченные данные из реального мира быстро истощается, и расходы AI-компаний на данные растут с каждым годом. Однако, одновременно, эти расходы не возвращаются к настоящим вкладчикам данных, и платформы полностью наслаждаются создаваемой ценностью данных, как, например, одна платформа, которая получила доход в размере 203 миллиона долларов США благодаря подписанию соглашений по лицензированию данных с AI-компаниями.

Видение Web3 заключается в том, чтобы позволить действительно активным пользователям участвовать в создании ценности, исходящей от данных, а также получать более личные и более ценные данные от пользователей с помощью распределенной сети и механизмов стимулирования при низких затратах.

  • Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, предоставлять неиспользуемую пропускную способность и ретранслировать трафик для захвата实时 данных из всего Интернета и получать токеновые вознаграждения;

  • Vana вводит уникальную концепцию пула ликвидности данных )DLP###, пользователи могут загружать свои личные данные (, такие как записи покупок, привычки просмотра, активность в социальных сетях и т.д. ) в определенный DLP и гибко выбирать, предоставлять ли разрешение на использование этих данных определенным третьим сторонам;

  • В PublicAI пользователи могут использовать (Web3 в качестве категории и @PublicAI для сбора данных.

  1. Предобработка данных: В процессе обработки данных AI, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат перед обучением модели, что включает стандартизацию, фильтрацию и обработку пропущенных значений. Этот этап является одним из немногих ручных этапов в индустрии AI, что привело к возникновению профессии специалиста по аннотации данных. С повышением требований модели к качеству данных, барьер для входа в профессию специалиста по аннотации данных также растет, и эта задача естественно подходит для децентрализованной системы стимулов Web3.
  • В настоящее время Grass и OpenLayer рассматривают возможность добавления ключевого этапа маркировки данных.

  • Synesis представил концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других форм ввода.

  • Проект по аннотированию данных Sapien игровым образом обрабатывает задачи маркировки и позволяет пользователям ставить свои баллы, чтобы зарабатывать больше баллов.

  1. Конфиденциальность данных и безопасность: необходимо прояснить, что конфиденциальность данных и безопасность — это два разных понятия. Конфиденциальность данных касается обработки чувствительных данных, тогда как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные области применения проявляются в двух аспектах: )1#AI或# обучение чувствительных данных; (2) сотрудничество данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.

Текущие распространенные технологии конфиденциальности в Web3 включают:

  • Достоверная исполняемая среда ( TEE ), например, Super Protocol;

  • Полное гомоморфное шифрование (FHE), например BasedAI, Fhenix.io или Inco Network;

  • Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о действиях, репутации и идентичности с внешних сайтов, не раскрывая чувствительную информацию.

Однако в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования. Одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:

  • Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.

  • Согласно данным Modulus Labs, затраты на zkML превышают затраты на чистые вычисления более чем в 1000 раз.

  1. Хранение данных: После получения данных необходимо место для хранения данных в цепочке, а также LLM, созданного с использованием этих данных. Основной проблемой является доступность данных (DA); до обновления Danksharding в Ethereum его пропускная способность составляла 0,08 МБ. В то же время обучение AI моделей и реализация в реальном времени обычно требуют пропускной способности данных от 50 до 100 ГБ в секунду. Такой разрыв в масштабе делает существующие решения на цепочке неэффективными при столкновении с
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • 6
  • Поделиться
комментарий
0/400
TokenomicsTinfoilHatvip
· 10ч назад
Завернуто до бесконечности.
Посмотреть ОригиналОтветить0
DataBartendervip
· 10ч назад
Снова рисуем BTC.
Посмотреть ОригиналОтветить0
0xSherlockvip
· 10ч назад
Замучил... все только и делают, что обсуждают концепции
Посмотреть ОригиналОтветить0
PhantomMinervip
· 10ч назад
Снова рисуют пустые обещания, кто на это купится?
Посмотреть ОригиналОтветить0
LiquidatedTwicevip
· 10ч назад
Ёлки-палки, это же просто шаблонная спекуляция?
Посмотреть ОригиналОтветить0
MetaverseMigrantvip
· 10ч назад
Еще одна волна ловушек для привлечения денег пришла
Посмотреть ОригиналОтветить0
  • Закрепить