Искусственный интеллект и Криптоактивы: от нуля до вершины
Технологии искусственного интеллекта в последние годы достигли прорывных успехов и рассматриваются некоторыми как четвертая промышленная революция. Появление крупных языковых моделей значительно повысило эффективность в различных отраслях, и компания Boston Consulting Group считает, что GPT повысил рабочую эффективность в США примерно на 20%. В то же время способность крупных моделей к обобщению рассматривается как новая парадигма проектирования программного обеспечения, отличающаяся от традиционного точного написания кода; современное проектирование программного обеспечения больше связано с внедрением обобщенных крупных моделей в программное обеспечение, что позволяет ему иметь лучшую производительность и более широкий спектр поддержки модальных входных и выходных данных. Технологии глубокого обучения действительно принесли новую волну процветания в индустрию ИИ, и этот бум также распространился на Криптоактивы.
История развития AI-индустрии
Искусственный интеллект начал развиваться в 50-х годах 20 века. Для реализации видения искусственного интеллекта академическая и промышленная сферы в разное время на основе различных научных дисциплин разработали множество направлений для достижения искусственного интеллекта.
Современные технологии искусственного интеллекта в основном используют методы "машинного обучения", суть которых заключается в том, чтобы позволить машинам полагаться на данные для многократной итерации в задачах с целью улучшения производительности системы. Основные шаги включают: ввод данных в алгоритм, обучение модели на данных, тестирование и развертывание модели, использование модели для выполнения автоматизированных предсказательных задач.
В настоящее время в машинном обучении существует три основных направления: коннекционизм, символизм и бихевиоризм, которые соответственно имитируют нервную систему, мышление и поведение человека. Коннекционизм, представленный нейронными сетями, занимает ведущее положение ( также известен как глубокое обучение ). Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; когда количество слоев и нейронов ( параметров ) достаточно велико, она может моделировать сложные универсальные задачи. Путем постоянной настройки параметров нейронов на основе входных данных, в конечном итоге нейроны достигнут оптимального состояния ( параметров ).
Технологии глубокого обучения также пережили множество итераций и эволюции, начиная с ранних нейронных сетей, затем переходя к полносвязным нейронным сетям, RNN, CNN, GAN, и, наконец, развиваясь до современных больших моделей, таких как GPT и использующих технологии Transformer. Технология Transformer является лишь одним из направлений эволюции нейронных сетей, добавляя преобразователь, который используется для кодирования данных различных модальностей (, таких как аудио, видео, изображения и др. ) в соответствующее числовое представление, а затем вводя их в нейронную сеть, что позволяет нейронной сети подгонять любые типы данных, реализуя мультимодальность.
В 1960-х годах первая волна, вызванная развитием символистских технологий, решила проблемы общего естественного языка и диалога между человеком и машиной. В то же время появились экспертные системы.
В 1997 году IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова, что стало знаковым событием второго бума технологий ИИ.
В 2006 году был предложен концепт глубокого обучения, который вызвал третью волну технологий. Алгоритмы глубокого обучения постепенно развивались, от RNN, GAN до Transformer и Stable Diffusion, формируя расцвет коннекционизма.
В настоящее время крупные языковые модели широко используют методы глубокого обучения на основе нейронных сетей. Модели большого масштаба, представленные GPT, вызвали новую волну интереса к искусственному интеллекту, и на этот рынок хлынули многочисленные игроки, резко возрос спрос на данные и вычислительные мощности. Поэтому мы сосредотачиваемся на цепочке поставок алгоритмов глубокого обучения, анализируя, как формируются ее верхние и нижние уровни в индустрии ИИ, доминирующей в глубоких обучениях, а также текущее состояние, соотношение спроса и предложения и будущее развитие этих уровней.
Обучение больших языковых моделей, таких как GPT, основанных на технологии Transformer ( LLMs ), в основном делится на три этапа:
Предобучение: ввод большого объема данных, поиск оптимальных параметров для каждого нейрона модели. Это самый трудоемкий процесс, требующий многократных итераций для проверки различных параметров.
Тонкая настройка: использование небольшого количества, но качественных данных для обучения, улучшает качество вывода модели.
Укрепляющее обучение: создание "модели вознаграждения" для сортировки выходных данных большой модели, используемое для автоматической итерации параметров большой модели. Иногда также требуется человеческое участие для оценки качества выходных данных модели.
Тремя основными факторами, влияющими на производительность больших моделей, являются количество параметров, объем и качество данных, а также вычислительная мощность. Эти три элемента порождают целую цепочку промышленности.
В настоящее время Nvidia занимает абсолютно лидирующую позицию в области проектирования GPU чипов для ИИ. Академические круги в основном используют потребительские GPU (, такие как серия RTX ), тогда как промышленность в основном использует чипы H100, A100 и другие для коммерческой реализации крупных моделей.
В 2023 году, после выхода на рынок последней модели чипа H100 от Nvidia, множество компаний сразу же разместили крупные заказы. Спрос на чипы H100 в мире значительно превышает предложение, и срок поставки уже составляет 52 недели. Чтобы избавиться от зависимости от Nvidia, Google возглавил создание альянса CUDA с такими компаниями, как Intel, Qualcomm, Microsoft и Amazon для совместной разработки графических процессоров.
Провайдер облачных услуг
Поставщики облачных услуг предоставляют гибкие вычислительные мощности и решения для управления обучением для AI-компаний с ограниченным бюджетом после приобретения достаточного количества GPU для создания высокопроизводительных вычислительных кластеров. В настоящее время рынок в основном разделен на три типа поставщиков облачных вычислений:
Традиционные облачные провайдеры, такие как AWS, Google Cloud, Azure, представляющие собой платформы облачных вычислений сверхбольших масштабов (.
Облачная вычислительная платформа вертикальных сегментов, в основном разработанная для ИИ или высокопроизводительных вычислений.
Новые провайдеры услуг по предоставлению вывода, в основном разворачивают предобученные модели для клиентов и выполняют их дообучение или вывод.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
) Поставщик баз данных
Для задач обучения и вывода данных AI и глубокого обучения в отрасли в основном используется "векторная база данных". Векторные базы данных могут эффективно хранить, управлять и индексировать огромные объемы высокоразмерных векторных данных, унифицируя хранение неструктурированных данных в виде "векторов".
Основные игроки включают Chroma, Zilliz, Pinecone, Weaviate и другие. С увеличением спроса на данные и появлением крупных моделей и приложений в различных сегментах, потребность в векторных базах данных значительно вырастет.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) Устройства на краю
При создании высокопроизводительного вычислительного кластера на базе GPU потребляется большое количество энергии и выделяется тепловая энергия. Для обеспечения непрерывной работы кластера требуются устройства на краю, такие как системы охлаждения.
В области энергоснабжения в основном используется электрическая энергия. Центры обработки данных и поддерживающие сети в настоящее время составляют 2%-3% от мирового потребления электроэнергии. BCG ожидает, что к 2030 году потребление электроэнергии для обучения крупных моделей вырастет в три раза.
В области охлаждения в настоящее время преобладает воздушное охлаждение, но системы жидкостного охлаждения активно инвестируются. Жидкостное охлаждение делится на три типа: с холодными пластинами, погружное и распылительное.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
) Приложение ИИ
Развитие приложений ИИ в настоящее время похоже на индустрию блокчейна: инфраструктура очень насыщена, но разработка приложений относительно отстает. На текущий момент большинство активных пользователей имеют дело с приложениями ИИ, которые в основном являются поисковыми, и их тип довольно однороден.
Уровень удержания пользователей в AI-приложениях обычно ниже, чем в традиционных интернет-приложениях. Что касается доли активных пользователей, медиана DAU/MAU для традиционного интернет-программного обеспечения составляет 51%, тогда как для AI-приложений она достигает только 41%. В отношении уровня удержания пользователей медиана для десяти лучших традиционных интернет-программ составляет 63%, в то время как уровень удержания ChatGPT составляет всего 56%.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-8358c377eb2c07467848b3b46dbf1056.webp(
Криптоактивы и связь с ИИ
Технология блокчейн извлекает выгоду из развития таких технологий, как доказательство с нулевым знанием, и эволюционирует в идеи децентрализации и недоверия. По сути, вся сеть блокчейна является сетью ценностей, каждая транзакция представляет собой преобразование ценности на основе базового токена. Экономика токенов определяет относительную ценность сетевых нативных токенов ) в экосистеме расчетов (.
Токеномика может придавать ценность любому инновационному и существующему явлению, будь то идея или физическое творчество. Этот способ переопределения и обнаружения ценности также имеет решающее значение для AI-индустрии. Выпуск токенов в цепочке поставок AI позволяет каждому этапу осуществлять переосмысление ценности, побуждая больше людей углубляться в специализированные направления AI-индустрии. Токены также могут поддерживать экосистему и способствовать возникновению определенных философских идей.
Неподделываемость и отсутствие необходимости в доверии блокчейна имеют практическое значение и в сфере ИИ, позволяя реализовать некоторые приложения, требующие доверия. Например, гарантировать, что модель не знает конкретное содержание пользовательских данных при их использовании, не раскрывает данные и возвращает истинные результаты вывода. Когда поставка GPU недостаточна, можно распределять их через блокчейн-сеть; когда GPU устаревают, неиспользуемые GPU могут внести вычислительную мощность в сеть, вновь реализуя свою ценность.
![Новые знания丨AI x Крипто:От нуля до вершины])https://img-cdn.gateio.im/webp-social/moments-c8845a5920048e7c821c939e2d8304e7.webp(
Обзор проектов, связанных с ИИ в индустрии криптоактивов
) Сторона предложения GPU
В цепочке поставок ИИ в индустрии криптоактивов, поставка вычислительных мощностей является самым важным звеном. В настоящее время проекты с хорошими фундаментальными показателями — это Render, который в основном используется для задач видеорендеринга, не связанных с большими моделями.
Прогнозы отрасли: в 2024 году потребность в вычислительной мощности GPU составит около 75 миллиардов долларов, к 2032 году она достигнет 773 миллиардов долларов, среднегодовой темп роста составит около 33,86%. С учетом всплеска на рынке GPU и влияния закона Мура в будущем сформируется большое количество устаревших GPU, которые могут продолжать приносить ценность в сетях совместного использования.
! [Newcomer Science丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-2ed56db6cae1b0206e8e0daa9b1892fd.webp(
) Аппаратная полоса пропускания
Пропускная способность часто является основным фактором, влияющим на время обучения больших моделей, особенно в области облачных вычислений на блокчейне. Однако совместная пропускная способность может быть ложной концепцией, поскольку для высокопроизводительных вычислительных кластеров данные в основном хранятся на локальных узлах, тогда как в совместной пропускной способности данные хранятся на определенном расстоянии, и задержка, вызванная географическими различиями, будет значительно выше, чем при локальном хранении.
! [Newcomer Science丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-c733612f35e5a4a21d8d39a0a77f85b8.webp(
) данные
На данный момент запущенные проекты по предоставлению AI-данных в индустрии криптоактивов включают EpiK Protocol, Synesis One, Masa и другие. По сравнению с традиционными дата-компаниями, провайдеры данных Web3 имеют преимущества в сборе данных, так как физические лица могут вносить ненадежные данные ### даже с помощью технологии нулевых знаний для внесения личных данных (. Это расширяет охват проектов, направленных не только на предприятия, но и на оценку данных для любых пользователей.
![Новичкам: AI x Крипто: от нуля до вершины])https://img-cdn.gateio.im/webp-social/moments-b97be5c0fd9efe0b79e2e6fcd4493212.webp(
) ZKML### нулевое знание машинного обучения (
Для реализации приватных вычислений и обучения данных в отрасли в основном используются схемы с нулевым разглашением, применяя технологии гомоморфного шифрования для выполнения вывода вне цепи, а затем загружая результаты и нулевое доказательство на цепь. Это обеспечивает как конфиденциальность данных, так и эффективный и недорогой вывод.
Помимо фокусировки на проектах оффлайн-тренировок и вывода в области ИИ, существуют и универсальные проекты с нулевыми знаниями, такие как Axiom, Risc Zero, Ritual и другие, которые могут предоставить доказательства с нулевыми знаниями для любых оффлайн-вычислений и данных, имея более широкие границы применения.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-a732f2716e6ef577c2e5817efcec3546.webp(
) Применение ИИ
Применение ИИ в индустрии криптоактивов похоже на традиционную индустрию ИИ, большая часть находится на стадии строительства инфраструктуры, развитие downstream-приложений относительно слабое. Такие приложения ИИ+блокчейн больше представляют собой традиционные блокчейн-приложения с добавлением автоматизации и универсальных возможностей, например, ИИ-агент может выполнять оптимальные сделки DeFi или пути кредитования в зависимости от потребностей пользователя.
Fetch.AI является представительным проектом AI Agent. Он определяет AI Agent как "программу, работающую самостоятельно в сети блокчейн, которая может подключаться, искать
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
6 Лайков
Награда
6
5
Поделиться
комментарий
0/400
CryptoMom
· 11ч назад
Снова говорят, что AI будет играть для лохов, да?
Посмотреть ОригиналОтветить0
EthSandwichHero
· 11ч назад
может запустить токен с 50-кратным увеличением
Посмотреть ОригиналОтветить0
LightningAllInHero
· 11ч назад
Эти два года только и делают, что раздувают, а ИИ так высоко разгоняется?
Посмотреть ОригиналОтветить0
LowCapGemHunter
· 11ч назад
20% повышения эффективности тоже не так уж много.
Посмотреть ОригиналОтветить0
AltcoinHunter
· 12ч назад
В будущем вся зарплата будет выплачиваться в USDT~
AI-усиление Криптоактивы отрасли: от цепочки поставок до инновационных приложений
Искусственный интеллект и Криптоактивы: от нуля до вершины
Технологии искусственного интеллекта в последние годы достигли прорывных успехов и рассматриваются некоторыми как четвертая промышленная революция. Появление крупных языковых моделей значительно повысило эффективность в различных отраслях, и компания Boston Consulting Group считает, что GPT повысил рабочую эффективность в США примерно на 20%. В то же время способность крупных моделей к обобщению рассматривается как новая парадигма проектирования программного обеспечения, отличающаяся от традиционного точного написания кода; современное проектирование программного обеспечения больше связано с внедрением обобщенных крупных моделей в программное обеспечение, что позволяет ему иметь лучшую производительность и более широкий спектр поддержки модальных входных и выходных данных. Технологии глубокого обучения действительно принесли новую волну процветания в индустрию ИИ, и этот бум также распространился на Криптоактивы.
История развития AI-индустрии
Искусственный интеллект начал развиваться в 50-х годах 20 века. Для реализации видения искусственного интеллекта академическая и промышленная сферы в разное время на основе различных научных дисциплин разработали множество направлений для достижения искусственного интеллекта.
Современные технологии искусственного интеллекта в основном используют методы "машинного обучения", суть которых заключается в том, чтобы позволить машинам полагаться на данные для многократной итерации в задачах с целью улучшения производительности системы. Основные шаги включают: ввод данных в алгоритм, обучение модели на данных, тестирование и развертывание модели, использование модели для выполнения автоматизированных предсказательных задач.
В настоящее время в машинном обучении существует три основных направления: коннекционизм, символизм и бихевиоризм, которые соответственно имитируют нервную систему, мышление и поведение человека. Коннекционизм, представленный нейронными сетями, занимает ведущее положение ( также известен как глубокое обучение ). Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; когда количество слоев и нейронов ( параметров ) достаточно велико, она может моделировать сложные универсальные задачи. Путем постоянной настройки параметров нейронов на основе входных данных, в конечном итоге нейроны достигнут оптимального состояния ( параметров ).
Технологии глубокого обучения также пережили множество итераций и эволюции, начиная с ранних нейронных сетей, затем переходя к полносвязным нейронным сетям, RNN, CNN, GAN, и, наконец, развиваясь до современных больших моделей, таких как GPT и использующих технологии Transformer. Технология Transformer является лишь одним из направлений эволюции нейронных сетей, добавляя преобразователь, который используется для кодирования данных различных модальностей (, таких как аудио, видео, изображения и др. ) в соответствующее числовое представление, а затем вводя их в нейронную сеть, что позволяет нейронной сети подгонять любые типы данных, реализуя мультимодальность.
! Новичок в популярной науке丨AI x Crypto: от нуля до пика
Развитие ИИ прошло через три волны технологий:
В 1960-х годах первая волна, вызванная развитием символистских технологий, решила проблемы общего естественного языка и диалога между человеком и машиной. В то же время появились экспертные системы.
В 1997 году IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова, что стало знаковым событием второго бума технологий ИИ.
В 2006 году был предложен концепт глубокого обучения, который вызвал третью волну технологий. Алгоритмы глубокого обучения постепенно развивались, от RNN, GAN до Transformer и Stable Diffusion, формируя расцвет коннекционизма.
! Newcomer Science丨AI x Crypto: от нуля до пика
Цепочка поставок в глубоком обучении
В настоящее время крупные языковые модели широко используют методы глубокого обучения на основе нейронных сетей. Модели большого масштаба, представленные GPT, вызвали новую волну интереса к искусственному интеллекту, и на этот рынок хлынули многочисленные игроки, резко возрос спрос на данные и вычислительные мощности. Поэтому мы сосредотачиваемся на цепочке поставок алгоритмов глубокого обучения, анализируя, как формируются ее верхние и нижние уровни в индустрии ИИ, доминирующей в глубоких обучениях, а также текущее состояние, соотношение спроса и предложения и будущее развитие этих уровней.
Обучение больших языковых моделей, таких как GPT, основанных на технологии Transformer ( LLMs ), в основном делится на три этапа:
Предобучение: ввод большого объема данных, поиск оптимальных параметров для каждого нейрона модели. Это самый трудоемкий процесс, требующий многократных итераций для проверки различных параметров.
Тонкая настройка: использование небольшого количества, но качественных данных для обучения, улучшает качество вывода модели.
Укрепляющее обучение: создание "модели вознаграждения" для сортировки выходных данных большой модели, используемое для автоматической итерации параметров большой модели. Иногда также требуется человеческое участие для оценки качества выходных данных модели.
Тремя основными факторами, влияющими на производительность больших моделей, являются количество параметров, объем и качество данных, а также вычислительная мощность. Эти три элемента порождают целую цепочку промышленности.
! Newcomer Science丨AI x Crypto: от нуля до пика
Провайдер аппаратных GPU
В настоящее время Nvidia занимает абсолютно лидирующую позицию в области проектирования GPU чипов для ИИ. Академические круги в основном используют потребительские GPU (, такие как серия RTX ), тогда как промышленность в основном использует чипы H100, A100 и другие для коммерческой реализации крупных моделей.
В 2023 году, после выхода на рынок последней модели чипа H100 от Nvidia, множество компаний сразу же разместили крупные заказы. Спрос на чипы H100 в мире значительно превышает предложение, и срок поставки уже составляет 52 недели. Чтобы избавиться от зависимости от Nvidia, Google возглавил создание альянса CUDA с такими компаниями, как Intel, Qualcomm, Microsoft и Amazon для совместной разработки графических процессоров.
Провайдер облачных услуг
Поставщики облачных услуг предоставляют гибкие вычислительные мощности и решения для управления обучением для AI-компаний с ограниченным бюджетом после приобретения достаточного количества GPU для создания высокопроизводительных вычислительных кластеров. В настоящее время рынок в основном разделен на три типа поставщиков облачных вычислений:
Традиционные облачные провайдеры, такие как AWS, Google Cloud, Azure, представляющие собой платформы облачных вычислений сверхбольших масштабов (.
Облачная вычислительная платформа вертикальных сегментов, в основном разработанная для ИИ или высокопроизводительных вычислений.
Новые провайдеры услуг по предоставлению вывода, в основном разворачивают предобученные модели для клиентов и выполняют их дообучение или вывод.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
) Поставщик баз данных
Для задач обучения и вывода данных AI и глубокого обучения в отрасли в основном используется "векторная база данных". Векторные базы данных могут эффективно хранить, управлять и индексировать огромные объемы высокоразмерных векторных данных, унифицируя хранение неструктурированных данных в виде "векторов".
Основные игроки включают Chroma, Zilliz, Pinecone, Weaviate и другие. С увеличением спроса на данные и появлением крупных моделей и приложений в различных сегментах, потребность в векторных базах данных значительно вырастет.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp(
) Устройства на краю
При создании высокопроизводительного вычислительного кластера на базе GPU потребляется большое количество энергии и выделяется тепловая энергия. Для обеспечения непрерывной работы кластера требуются устройства на краю, такие как системы охлаждения.
В области энергоснабжения в основном используется электрическая энергия. Центры обработки данных и поддерживающие сети в настоящее время составляют 2%-3% от мирового потребления электроэнергии. BCG ожидает, что к 2030 году потребление электроэнергии для обучения крупных моделей вырастет в три раза.
В области охлаждения в настоящее время преобладает воздушное охлаждение, но системы жидкостного охлаждения активно инвестируются. Жидкостное охлаждение делится на три типа: с холодными пластинами, погружное и распылительное.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-250a286e79261e91a0e7ac4941ff5c76.webp(
) Приложение ИИ
Развитие приложений ИИ в настоящее время похоже на индустрию блокчейна: инфраструктура очень насыщена, но разработка приложений относительно отстает. На текущий момент большинство активных пользователей имеют дело с приложениями ИИ, которые в основном являются поисковыми, и их тип довольно однороден.
Уровень удержания пользователей в AI-приложениях обычно ниже, чем в традиционных интернет-приложениях. Что касается доли активных пользователей, медиана DAU/MAU для традиционного интернет-программного обеспечения составляет 51%, тогда как для AI-приложений она достигает только 41%. В отношении уровня удержания пользователей медиана для десяти лучших традиционных интернет-программ составляет 63%, в то время как уровень удержания ChatGPT составляет всего 56%.
! [Новичок в науке丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-8358c377eb2c07467848b3b46dbf1056.webp(
Криптоактивы и связь с ИИ
Технология блокчейн извлекает выгоду из развития таких технологий, как доказательство с нулевым знанием, и эволюционирует в идеи децентрализации и недоверия. По сути, вся сеть блокчейна является сетью ценностей, каждая транзакция представляет собой преобразование ценности на основе базового токена. Экономика токенов определяет относительную ценность сетевых нативных токенов ) в экосистеме расчетов (.
Токеномика может придавать ценность любому инновационному и существующему явлению, будь то идея или физическое творчество. Этот способ переопределения и обнаружения ценности также имеет решающее значение для AI-индустрии. Выпуск токенов в цепочке поставок AI позволяет каждому этапу осуществлять переосмысление ценности, побуждая больше людей углубляться в специализированные направления AI-индустрии. Токены также могут поддерживать экосистему и способствовать возникновению определенных философских идей.
Неподделываемость и отсутствие необходимости в доверии блокчейна имеют практическое значение и в сфере ИИ, позволяя реализовать некоторые приложения, требующие доверия. Например, гарантировать, что модель не знает конкретное содержание пользовательских данных при их использовании, не раскрывает данные и возвращает истинные результаты вывода. Когда поставка GPU недостаточна, можно распределять их через блокчейн-сеть; когда GPU устаревают, неиспользуемые GPU могут внести вычислительную мощность в сеть, вновь реализуя свою ценность.
![Новые знания丨AI x Крипто:От нуля до вершины])https://img-cdn.gateio.im/webp-social/moments-c8845a5920048e7c821c939e2d8304e7.webp(
Обзор проектов, связанных с ИИ в индустрии криптоактивов
) Сторона предложения GPU
В цепочке поставок ИИ в индустрии криптоактивов, поставка вычислительных мощностей является самым важным звеном. В настоящее время проекты с хорошими фундаментальными показателями — это Render, который в основном используется для задач видеорендеринга, не связанных с большими моделями.
Прогнозы отрасли: в 2024 году потребность в вычислительной мощности GPU составит около 75 миллиардов долларов, к 2032 году она достигнет 773 миллиардов долларов, среднегодовой темп роста составит около 33,86%. С учетом всплеска на рынке GPU и влияния закона Мура в будущем сформируется большое количество устаревших GPU, которые могут продолжать приносить ценность в сетях совместного использования.
! [Newcomer Science丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-2ed56db6cae1b0206e8e0daa9b1892fd.webp(
) Аппаратная полоса пропускания
Пропускная способность часто является основным фактором, влияющим на время обучения больших моделей, особенно в области облачных вычислений на блокчейне. Однако совместная пропускная способность может быть ложной концепцией, поскольку для высокопроизводительных вычислительных кластеров данные в основном хранятся на локальных узлах, тогда как в совместной пропускной способности данные хранятся на определенном расстоянии, и задержка, вызванная географическими различиями, будет значительно выше, чем при локальном хранении.
! [Newcomer Science丨AI x Crypto: от нуля до пика]###https://img-cdn.gateio.im/webp-social/moments-c733612f35e5a4a21d8d39a0a77f85b8.webp(
) данные
На данный момент запущенные проекты по предоставлению AI-данных в индустрии криптоактивов включают EpiK Protocol, Synesis One, Masa и другие. По сравнению с традиционными дата-компаниями, провайдеры данных Web3 имеют преимущества в сборе данных, так как физические лица могут вносить ненадежные данные ### даже с помощью технологии нулевых знаний для внесения личных данных (. Это расширяет охват проектов, направленных не только на предприятия, но и на оценку данных для любых пользователей.
![Новичкам: AI x Крипто: от нуля до вершины])https://img-cdn.gateio.im/webp-social/moments-b97be5c0fd9efe0b79e2e6fcd4493212.webp(
) ZKML### нулевое знание машинного обучения (
Для реализации приватных вычислений и обучения данных в отрасли в основном используются схемы с нулевым разглашением, применяя технологии гомоморфного шифрования для выполнения вывода вне цепи, а затем загружая результаты и нулевое доказательство на цепь. Это обеспечивает как конфиденциальность данных, так и эффективный и недорогой вывод.
Помимо фокусировки на проектах оффлайн-тренировок и вывода в области ИИ, существуют и универсальные проекты с нулевыми знаниями, такие как Axiom, Risc Zero, Ritual и другие, которые могут предоставить доказательства с нулевыми знаниями для любых оффлайн-вычислений и данных, имея более широкие границы применения.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-a732f2716e6ef577c2e5817efcec3546.webp(
) Применение ИИ
Применение ИИ в индустрии криптоактивов похоже на традиционную индустрию ИИ, большая часть находится на стадии строительства инфраструктуры, развитие downstream-приложений относительно слабое. Такие приложения ИИ+блокчейн больше представляют собой традиционные блокчейн-приложения с добавлением автоматизации и универсальных возможностей, например, ИИ-агент может выполнять оптимальные сделки DeFi или пути кредитования в зависимости от потребностей пользователя.
Fetch.AI является представительным проектом AI Agent. Он определяет AI Agent как "программу, работающую самостоятельно в сети блокчейн, которая может подключаться, искать