Web3 projeleri, AI kavramıyla birincil ve ikincil piyasalarda para çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtılmış teşviklerin kullanılmasında, veri, depolama ve hesaplama arasında; aynı zamanda bir açık kaynak modeli ve AI Ajansı'nın merkeziyetsiz pazarını kurmakta ortaya çıkmaktadır.
Web3 sektöründe AI'nin başlıca kullanıldığı alanlar, zincir üzerindeki finansal ( kripto ödemeler, ticaret, veri analizi ) ve geliştirmeye yardımcı olmaktır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığına dayanıyor: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.
Giriş
Son iki yılda, yapay zekanın gelişimi adeta hızlandırma tuşuna basılmış gibi; Chatgpt'nin tetiklediği bu kelebek etkisi, sadece üreten yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda öteki taraftaki Web3'te de büyük bir akıntı başlattı.
AI kavramının desteğiyle, yavaşlayan kripto pazarındaki finansman artışı belirgin bir şekilde yükseldi. 2024 yılının ilk yarısında, toplamda 64 Web3+AI projesi finansman sağladı. Yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarını elde etti.
İkincil piyasa daha da canlı hale geldi, kripto para toplama web sitelerinin verilerine göre, sadece bir yıl içinde AI sektörünün toplam piyasa değeri 48.5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8.6 milyar dolara yakın; Ana akım AI teknoloji ilerlemelerinin sağladığı avantajlar belirgin, OpenAI'nin Sora metin-video modelinin piyasaya sürülmesinin ardından, AI sektöründeki ortalama fiyat %151 oranında arttı; AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konsepti olan MemeCoin------GOAT hızla popülerlik kazandı ve 1.4 milyar dolarlık bir değerlemeye ulaştı, AI Meme çılgınlığını başarıyla başlattı.
AI+Web3 üzerine araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatıların dönüş hızını yakalayamaz hale geldi.
AI+Web3, bu bol sıcak paranın, fırsatların ve geleceğe dair hayallerin dolu olduğu terim kombinasyonu, kaçınılmaz olarak insanların bunu bir sermaye tarafından organize edilen bir evlilik olarak görmesine neden oluyor. Bu görkemli elbisenin altında, gerçekten spekülatörlerin sahası mı yoksa şafağın patlak vermesinin eşiği mi olduğunu ayırt etmekte zorlanıyoruz?
Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, geçmişteki bilgilerin üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yığını içindeki her aşamada nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar getirebilir?
Bölüm.1 AI yığını altında Web3'te hangi fırsatlar var?
Bu konuyu açmadan önce, AI büyük modelinin teknik yığınını anlamamız gerekiyor:
Tüm süreci daha basit bir dille ifade etmek gerekirse: "Büyük model", insan beynine benzer; erken aşamada, bu beyin yeni doğmuş bir bebeğe aittir ve çevresindeki devasa bilgileri gözlemleyip alarak bu dünyayı anlaması gerekir. Bu, verilerin "toplanma" aşamasıdır; bilgisayarlar insanın görme, duyma gibi birçok duyusuna sahip olmadığı için, eğitimden önce, dışarıdaki büyük ölçekli etiketsiz bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bir bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" aracılığıyla anlama ve tahmin yeteneğine sahip bir model oluşturur; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak görülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerikler alanlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yapıldığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar, yavaş yavaş büyüyüp konuşmayı öğrendiklerinde, yeni diyaloglarda anlamayı ve duygularını ve düşüncelerini ifade etmeyi öğrenirler, bu aşama AI büyük modellerinin "mantık yürütme" aşamasına benzerdir; model, yeni dil ve metin girdilerine tahmin ve analiz yapabilir. Bebekler, dil becerilerini kullanarak duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer; bu da AI büyük modellerinin eğitim sürecini tamamladıktan sonra mantık yürütme aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi uygulamalara benzer.
AI Ajanı, görevleri bağımsız bir şekilde yerine getirebilen ve karmaşık hedefler peşinde koşabilen büyük modellerin bir sonraki biçimine daha yakın hale geliyor; düşünme yeteneğine sahip olmanın yanı sıra, hafızaya, planlamaya ve dünyayla etkileşimde bulunmak için araçlar kullanma yeteneğine de sahip.
Şu anda, AI'nın çeşitli yığınlardaki sorunlarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmaktadır.
Birincisi, Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
Hesaplama Gücü
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modelleri için gereken hesaplama gücü ve enerji.
Bir örnek, Meta'nın LLAMA3'ün 16.000 adet NVIDIA tarafından üretilen H100GPU('e ihtiyaç duymasıdır; bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış üst düzey bir grafik işleme birimidir.) Eğitim tamamlanması 30 gün sürmektedir. Bunun 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar değerinde bir hesaplama donanım yatırımı gerektirmektedir(GPU+ ağ yongası), ayrıca aylık eğitim için 1,6 milyar kilowatt saat enerji tüketimi gerekmekte ve enerji giderleri aylık yaklaşık 20 milyon dolardır.
AI hesaplamalarının rahatlatılması, Web3'ün AI ile kesiştiği en erken alanlardan biri olan DePin( merkeziyetsiz fiziksel altyapı ağı) şu anda, bir veri sitesi 1400'den fazla projeyi sergilemektedir. Bunlar arasında GPU hesaplama paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, izin gerektirmeyen merkeziyetsiz bir şekilde sahip olduğu boş GPU kaynaklarını katkıda bulunabilen bireylerin veya varlıkların, Uber veya Airbnb benzeri bir alıcı ve satıcı çevrimiçi pazarı aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırmasına olanak tanır; son kullanıcılar da böylece daha düşük maliyetli verimli hesaplama kaynaklarına erişim sağlar; aynı zamanda, stake mekanizması da kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumların ortaya çıkması halinde kaynak sağlayıcının ilgili şekilde ceza almasını garanti eder.
Özellikleri şunlardır:
Boşta kalan GPU kaynaklarını toplamak: Tedarikçiler, üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, örneğin FileCoin ve ETH madencilik makineleri. Şu anda, daha düşük bir giriş eşiği olan cihazları başlatmaya yönelik projeler de bulunmaktadır; örneğin, exolab yerel cihazlar olan MacBook, iPhone, iPad gibi cihazlarla büyük model çıkarım hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı görece daha düşüktür; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesaplama gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecekler, bunun yerine yalnızca az sayıda başlıca büyük model etrafında optimizasyon ve ince ayar yapmayı seçecekler. Bu senaryolar, doğal olarak dağıtılmış atıl hesaplama gücü kaynaklarına uygundur.
Merkeziyetsiz mülkiyet: Blok zincirinin teknik anlamı, kaynak sahiplerinin kaynakları üzerindeki kontrolünü her zaman korumasıdır; talebe göre esnek bir şekilde ayarlama yapabilirler ve aynı zamanda gelir elde edebilirler.
Veri
Veri, AI'nın temelidir. Eğer veri yoksa, hesaplama, su yüzeyindeki bir bitki gibi tamamen işe yaramaz hale gelir ve veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" atasözündeki gibi, verinin miktarı ve girdi kalitesi nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani davranışlarını belirler. Şu anda, AI'nın veri talep zorluğu esasen aşağıdaki dört alanda yoğunlaşmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük miktarda veri girişi gerektirir. Açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını göstermektedir.
Veri Kalitesi: AI ile çeşitli sektörlerin birleşmesiyle birlikte, verinin zamanlaması, veri çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygu analizinin alınması, kalitesi için yeni talepler ortaya çıkarmıştır.
Gizlilik ve uyum sorunları: Şu anda, çeşitli ülkeler ve şirketler kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri seti tarayıcılarına sınırlamalar getirmeye çalışıyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Kamuya açık veriler, AI şirketlerinin %30'dan fazlasının Ar-Ge maliyetinin temel veri toplama ve işleme için harcandığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri Toplama: Ücretsiz olarak elde edilen gerçek dünya verileri hızla tükeniyor, AI şirketlerinin veriye yaptığı harcamalar her yıl artıyor. Ancak bu harcama, verilerin gerçek katkı sahiplerine geri dönmüyor; platformlar, verinin sağladığı değer yaratımından tamamen yararlanıyor. Örneğin, bir platform, AI şirketleriyle imzaladığı veri lisans sözleşmeleri aracılığıyla toplam 203 milyon dolar gelir elde ediyor.
Gerçekten katkıda bulunan kullanıcıların, veri yaratımından elde edilen değere katılmalarını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve değerli verilere erişimini sağlamak, Web3'ün vizyonudur.
Grass, merkezi olmayan bir veri katmanı ve ağdır, kullanıcılar Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak, tüm internetten gerçek zamanlı verileri yakalamak için token ödülleri alabilirler.
Vana, kullanıcıların özel verilerini (DLP) belirli bir DLP'ye yükleyebileceği ve bu verileri belirli üçüncü taraflara kullanma izni verip vermeyeceklerini esnek bir şekilde seçebilecekleri benzersiz bir veri likidite havuzu ( kavramını tanıttı; alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri gibi.
PublicAI'de, kullanıcılar X üzerinde )Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplama işlemini gerçekleştirmek için @PublicAI ile iletişime geçebilir.
Veri Ön İşleme: AI'nın veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerdiğinden, model eğitimi öncesinde bunların temizlenip kullanılabilir bir formata dönüştürülmesi gerekir; bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesi gibi tekrarlayan görevleri içerir. Bu aşama, AI sektöründeki az sayıdaki insan etkileşimli aşamalardan biridir ve veri etiketleyicisi gibi bir sektörün ortaya çıkmasına neden olmuştur. Modelin veri kalitesi talepleri arttıkça, veri etiketleyicilerinin gereksinimleri de yükselmiştir ve bu görev, doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
Şu anda, Grass ve OpenLayer bu kritik aşamada veri etiketlemeyi eklemeyi düşünüyor.
Synesis, veri kalitesini vurgulayan "Train2earn" kavramını ortaya koymuştur; kullanıcılar etiketlenmiş veriler, yorumlar veya diğer formda katkılar sağlayarak ödüller kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırmakta ve kullanıcılara daha fazla puan kazanmak için puanlarını teminat olarak yatırma imkanı sunmaktadır.
Veri Gizliliği ve Güvenliği: Açıklığa kavuşturulması gereken, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesini kapsarken, veri güvenliği, veri bilgilerini yetkisiz erişim, tahrip ve hırsızlıktan korur. Bu bağlamda, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama alanları iki şekilde öne çıkmaktadır: #AI或#1( hassas verilerin eğitimi; )2( veri işbirliği: Birden fazla veri sahibi, orijinal verilerini paylaşmadan AI eğitimine ortak katılabilir.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir İcra Ortamı ) TEE (, örneğin Super Protocol;
Tam homomorfik şifreleme ) FHE (, örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır bilgi teknolojisi ) zk (, Reclaim Protocol'ün zkTLS teknolojisini kullanarak HTTPS trafiği için sıfır bilgi kanıtları oluşturmasına, kullanıcıların dış sitelerden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır, hassas bilgileri ifşa etmeden.
Ancak, şu anda bu alan hala erken aşamada ve çoğu proje hala keşif aşamasında, mevcut bir sorun ise hesaplama maliyetlerinin çok yüksek olması, bazı örnekler şunlardır:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını üretmek için yaklaşık 80 dakika gerektirir.
Modulus Labs'ın verilerine göre, zkML'in maliyeti saf hesaplamadan 1000 kat daha fazladır.
Veri Depolama: Veriler elde edildikten sonra, verileri zincirde depolamak ve bu verilerle üretilen LLM'yi kullanmak için bir yere ihtiyaç vardır. Veri kullanılabilirliği )DA( temel sorun olarak, Ethereum'un Danksharding yükseltmesi öncesinde, verimliliği 0.08MB'dır. Bu arada, AI modelinin eğitimi ve gerçek zamanlı çıkarım genellikle saniyede 50 ila 100GB veri verimliliği gerektirir. Bu ölçek farkı, mevcut zincir üstü çözümlerin karşısında
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Likes
Reward
8
6
Share
Comment
0/400
TokenomicsTinfoilHat
· 9h ago
Sınırları aşıyor gibi.
View OriginalReply0
DataBartender
· 9h ago
Yine BTC çizmeye geldin.
View OriginalReply0
0xSherlock
· 9h ago
Sıkıldım... Hepsi kavramları döndürüyor.
View OriginalReply0
PhantomMiner
· 9h ago
Yine hayal kuruyoruz, kim alacak?
View OriginalReply0
LiquidatedTwice
· 9h ago
Vay canına, bu sadece şablon spekülasyonu değil mi?
AI+Web3 entegrasyon trendi: Bilgi İşlem Gücü verilerinin Merkeziyetsizlik odak noktası
AI+Web3: Kuleler ve Meydanlar
Kısa ve Öz
Web3 projeleri, AI kavramıyla birincil ve ikincil piyasalarda para çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtılmış teşviklerin kullanılmasında, veri, depolama ve hesaplama arasında; aynı zamanda bir açık kaynak modeli ve AI Ajansı'nın merkeziyetsiz pazarını kurmakta ortaya çıkmaktadır.
Web3 sektöründe AI'nin başlıca kullanıldığı alanlar, zincir üzerindeki finansal ( kripto ödemeler, ticaret, veri analizi ) ve geliştirmeye yardımcı olmaktır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığına dayanıyor: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.
Giriş
Son iki yılda, yapay zekanın gelişimi adeta hızlandırma tuşuna basılmış gibi; Chatgpt'nin tetiklediği bu kelebek etkisi, sadece üreten yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda öteki taraftaki Web3'te de büyük bir akıntı başlattı.
AI kavramının desteğiyle, yavaşlayan kripto pazarındaki finansman artışı belirgin bir şekilde yükseldi. 2024 yılının ilk yarısında, toplamda 64 Web3+AI projesi finansman sağladı. Yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarını elde etti.
İkincil piyasa daha da canlı hale geldi, kripto para toplama web sitelerinin verilerine göre, sadece bir yıl içinde AI sektörünün toplam piyasa değeri 48.5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8.6 milyar dolara yakın; Ana akım AI teknoloji ilerlemelerinin sağladığı avantajlar belirgin, OpenAI'nin Sora metin-video modelinin piyasaya sürülmesinin ardından, AI sektöründeki ortalama fiyat %151 oranında arttı; AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konsepti olan MemeCoin------GOAT hızla popülerlik kazandı ve 1.4 milyar dolarlık bir değerlemeye ulaştı, AI Meme çılgınlığını başarıyla başlattı.
AI+Web3 üzerine araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatıların dönüş hızını yakalayamaz hale geldi.
AI+Web3, bu bol sıcak paranın, fırsatların ve geleceğe dair hayallerin dolu olduğu terim kombinasyonu, kaçınılmaz olarak insanların bunu bir sermaye tarafından organize edilen bir evlilik olarak görmesine neden oluyor. Bu görkemli elbisenin altında, gerçekten spekülatörlerin sahası mı yoksa şafağın patlak vermesinin eşiği mi olduğunu ayırt etmekte zorlanıyoruz?
Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, geçmişteki bilgilerin üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yığını içindeki her aşamada nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar getirebilir?
Bölüm.1 AI yığını altında Web3'te hangi fırsatlar var?
Bu konuyu açmadan önce, AI büyük modelinin teknik yığınını anlamamız gerekiyor:
Tüm süreci daha basit bir dille ifade etmek gerekirse: "Büyük model", insan beynine benzer; erken aşamada, bu beyin yeni doğmuş bir bebeğe aittir ve çevresindeki devasa bilgileri gözlemleyip alarak bu dünyayı anlaması gerekir. Bu, verilerin "toplanma" aşamasıdır; bilgisayarlar insanın görme, duyma gibi birçok duyusuna sahip olmadığı için, eğitimden önce, dışarıdaki büyük ölçekli etiketsiz bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bir bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" aracılığıyla anlama ve tahmin yeteneğine sahip bir model oluşturur; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak görülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerikler alanlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yapıldığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar, yavaş yavaş büyüyüp konuşmayı öğrendiklerinde, yeni diyaloglarda anlamayı ve duygularını ve düşüncelerini ifade etmeyi öğrenirler, bu aşama AI büyük modellerinin "mantık yürütme" aşamasına benzerdir; model, yeni dil ve metin girdilerine tahmin ve analiz yapabilir. Bebekler, dil becerilerini kullanarak duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer; bu da AI büyük modellerinin eğitim sürecini tamamladıktan sonra mantık yürütme aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi uygulamalara benzer.
AI Ajanı, görevleri bağımsız bir şekilde yerine getirebilen ve karmaşık hedefler peşinde koşabilen büyük modellerin bir sonraki biçimine daha yakın hale geliyor; düşünme yeteneğine sahip olmanın yanı sıra, hafızaya, planlamaya ve dünyayla etkileşimde bulunmak için araçlar kullanma yeteneğine de sahip.
Şu anda, AI'nın çeşitli yığınlardaki sorunlarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmaktadır.
Birincisi, Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
Hesaplama Gücü
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modelleri için gereken hesaplama gücü ve enerji.
Bir örnek, Meta'nın LLAMA3'ün 16.000 adet NVIDIA tarafından üretilen H100GPU('e ihtiyaç duymasıdır; bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış üst düzey bir grafik işleme birimidir.) Eğitim tamamlanması 30 gün sürmektedir. Bunun 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar değerinde bir hesaplama donanım yatırımı gerektirmektedir(GPU+ ağ yongası), ayrıca aylık eğitim için 1,6 milyar kilowatt saat enerji tüketimi gerekmekte ve enerji giderleri aylık yaklaşık 20 milyon dolardır.
AI hesaplamalarının rahatlatılması, Web3'ün AI ile kesiştiği en erken alanlardan biri olan DePin( merkeziyetsiz fiziksel altyapı ağı) şu anda, bir veri sitesi 1400'den fazla projeyi sergilemektedir. Bunlar arasında GPU hesaplama paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, izin gerektirmeyen merkeziyetsiz bir şekilde sahip olduğu boş GPU kaynaklarını katkıda bulunabilen bireylerin veya varlıkların, Uber veya Airbnb benzeri bir alıcı ve satıcı çevrimiçi pazarı aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırmasına olanak tanır; son kullanıcılar da böylece daha düşük maliyetli verimli hesaplama kaynaklarına erişim sağlar; aynı zamanda, stake mekanizması da kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumların ortaya çıkması halinde kaynak sağlayıcının ilgili şekilde ceza almasını garanti eder.
Özellikleri şunlardır:
Boşta kalan GPU kaynaklarını toplamak: Tedarikçiler, üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, örneğin FileCoin ve ETH madencilik makineleri. Şu anda, daha düşük bir giriş eşiği olan cihazları başlatmaya yönelik projeler de bulunmaktadır; örneğin, exolab yerel cihazlar olan MacBook, iPhone, iPad gibi cihazlarla büyük model çıkarım hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı görece daha düşüktür; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesaplama gücü talep edenler kendi büyük modellerini ayrı olarak eğitmeyecekler, bunun yerine yalnızca az sayıda başlıca büyük model etrafında optimizasyon ve ince ayar yapmayı seçecekler. Bu senaryolar, doğal olarak dağıtılmış atıl hesaplama gücü kaynaklarına uygundur.
Veri
Veri, AI'nın temelidir. Eğer veri yoksa, hesaplama, su yüzeyindeki bir bitki gibi tamamen işe yaramaz hale gelir ve veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" atasözündeki gibi, verinin miktarı ve girdi kalitesi nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani davranışlarını belirler. Şu anda, AI'nın veri talep zorluğu esasen aşağıdaki dört alanda yoğunlaşmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük miktarda veri girişi gerektirir. Açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını göstermektedir.
Veri Kalitesi: AI ile çeşitli sektörlerin birleşmesiyle birlikte, verinin zamanlaması, veri çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygu analizinin alınması, kalitesi için yeni talepler ortaya çıkarmıştır.
Gizlilik ve uyum sorunları: Şu anda, çeşitli ülkeler ve şirketler kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri seti tarayıcılarına sınırlamalar getirmeye çalışıyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Kamuya açık veriler, AI şirketlerinin %30'dan fazlasının Ar-Ge maliyetinin temel veri toplama ve işleme için harcandığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Gerçekten katkıda bulunan kullanıcıların, veri yaratımından elde edilen değere katılmalarını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve değerli verilere erişimini sağlamak, Web3'ün vizyonudur.
Grass, merkezi olmayan bir veri katmanı ve ağdır, kullanıcılar Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak, tüm internetten gerçek zamanlı verileri yakalamak için token ödülleri alabilirler.
Vana, kullanıcıların özel verilerini (DLP) belirli bir DLP'ye yükleyebileceği ve bu verileri belirli üçüncü taraflara kullanma izni verip vermeyeceklerini esnek bir şekilde seçebilecekleri benzersiz bir veri likidite havuzu ( kavramını tanıttı; alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri gibi.
PublicAI'de, kullanıcılar X üzerinde )Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplama işlemini gerçekleştirmek için @PublicAI ile iletişime geçebilir.
Şu anda, Grass ve OpenLayer bu kritik aşamada veri etiketlemeyi eklemeyi düşünüyor.
Synesis, veri kalitesini vurgulayan "Train2earn" kavramını ortaya koymuştur; kullanıcılar etiketlenmiş veriler, yorumlar veya diğer formda katkılar sağlayarak ödüller kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırmakta ve kullanıcılara daha fazla puan kazanmak için puanlarını teminat olarak yatırma imkanı sunmaktadır.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir İcra Ortamı ) TEE (, örneğin Super Protocol;
Tam homomorfik şifreleme ) FHE (, örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır bilgi teknolojisi ) zk (, Reclaim Protocol'ün zkTLS teknolojisini kullanarak HTTPS trafiği için sıfır bilgi kanıtları oluşturmasına, kullanıcıların dış sitelerden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır, hassas bilgileri ifşa etmeden.
Ancak, şu anda bu alan hala erken aşamada ve çoğu proje hala keşif aşamasında, mevcut bir sorun ise hesaplama maliyetlerinin çok yüksek olması, bazı örnekler şunlardır:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını üretmek için yaklaşık 80 dakika gerektirir.
Modulus Labs'ın verilerine göre, zkML'in maliyeti saf hesaplamadan 1000 kat daha fazladır.