أصبحت مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أهداف جذب الأموال في الأسواق الأولية والثانوية.
تظهر فرص Web3 في صناعة الذكاء الاصطناعي في: استخدام الحوافز الموزعة لتنسيق الإمدادات المحتملة في الذيل الطويل، عبر البيانات والتخزين والحوسبة؛ في الوقت نفسه، إنشاء نموذج مفتوح المصدر وسوق لامركزي لوكلاء الذكاء الاصطناعي.
تستخدم الذكاء الاصطناعي في صناعة Web3 بشكل رئيسي في التمويل على السلسلة ( المدفوعات المشفرة، التداول، تحليل البيانات ) ودعم التطوير.
تظهر فائدة AI + Web3 في تكامل كلاهما: من المتوقع أن يتصدى Web3 لت集中化 AI، ومن المتوقع أن يساعد AI Web3 في التوسع.
على مدار العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع، هذه الظاهرة التي أطلقها Chatgpt لم تفتح فقط عالماً جديداً للذكاء الاصطناعي التوليدي، ولكنها أيضاً أثارت تياراً في Web3 في الجانب الآخر.
بدعم من مفهوم الذكاء الاصطناعي، كان هناك انتعاش ملحوظ في تمويل سوق التشفير الذي شهد تباطؤًا. في النصف الأول من عام 2024، أكملت 64 مشروعًا من مشاريع Web3+AI التمويل، حيث حقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل في الجولة A بقيمة 100 مليون دولار.
سوق الثانوي أكثر ازدهارًا، تظهر بيانات مواقع تجميع التشفير أنه في غضون أكثر من عام بقليل، بلغ إجمالي قيمة سوق الذكاء الاصطناعي 48.5 مليار دولار، وحجم التداول في 24 ساعة اقترب من 8.6 مليار دولار؛ ومن الواضح أن التقدم في تقنيات الذكاء الاصطناعي الرئيسية قد جلب فوائد، بعد إصدار نموذج Sora من OpenAI لتحويل النص إلى فيديو، ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151٪؛ كما أن تأثير الذكاء الاصطناعي يمتد إلى أحد قطاعات جذب الأموال في العملات المشفرة وهو الميم: حيث سرعان ما أصبح GOAT، وهو أول مفهوم لميم كوكب الذكاء الاصطناعي، مشهورًا وحصل على تقييم قدره 1.4 مليار دولار، مما أدى إلى اندلاع حمى ميم الذكاء الاصطناعي.
إن الأبحاث والمواضيع المتعلقة بـ AI + Web3 مشتعلة بنفس القدر، من AI + Depin إلى AI Memecoin وصولاً إلى AI Agent و AI DAO الحالية، أصبحت مشاعر FOMO عاجزة عن مواكبة سرعة تبديل السرد الجديد.
AI+Web3، هذا التركيب المليء بالأموال الساخنة، والفرص، وأحلام المستقبل، لا محالة يُنظر إليه كزواج مُرتب يمليه رأس المال، يبدو أننا صعب علينا التمييز تحت هذا الرداء الفخم، هل هو ساحة المضاربين، أم ليلة الانفجار في الفجر؟
للإجابة على هذا السؤال، فإن أحد الأفكار الرئيسية التي تهم الطرفين هو: هل سيكون الوضع أفضل مع الآخر؟ هل يمكن الاستفادة من أنماط الآخر؟ في هذه المقالة، نحاول أيضًا أن نقف على أكتاف السابقين لنفحص هذا النمط: كيف يمكن أن تلعب Web3 دورًا في جميع مراحل تكنولوجيا الذكاء الاصطناعي، وما الذي يمكن أن يجلبه الذكاء الاصطناعي لـ Web3 من حيوية جديدة؟
الجزء 1 ما هي الفرص المتاحة في Web3 تحت كومة الذكاء الاصطناعي؟
قبل مناقشة هذا الموضوع، نحتاج إلى فهم مجموعة تقنيات نموذج الذكاء الاصطناعي الكبير:
للتعبير عن العملية بأكثر بساطة: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة، يحتاج إلى مراقبة واستيعاب كميات هائلة من المعلومات المحيطة لفهم هذا العالم، وهذه هي مرحلة "جمع البيانات"؛ نظرًا لأن الحواسيب لا تمتلك حواس الإنسان مثل البصر والسمع وغيرها، قبل التدريب، يجب تحويل المعلومات الضخمة غير المعنونة من العالم الخارجي عبر "المعالجة المسبقة" إلى صيغة معلومات يمكن أن تفهمها الحواسيب وتكون قابلة للاستخدام.
بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يتمتع بقدرة على الفهم والتنبؤ، ويمكن اعتباره كعملية فهم وتعلم تدريجية للطفل عن العالم الخارجي. تعتبر معلمات النموذج مثل القدرة اللغوية التي يتم تعديلها باستمرار خلال عملية تعلم الطفل. عندما يبدأ المحتوى التعليمي في التخصص، أو عند التواصل مع الآخرين للحصول على ردود فعل وتصحيح، تدخل المرحلة "الضبط الدقيق" للنموذج الكبير.
عندما يكبر الأطفال تدريجياً ويتعلمون الكلام، يمكنهم فهم المعاني والتعبير عن مشاعرهم وأفكارهم في محادثات جديدة. هذه المرحلة تشبه "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج التنبؤ وتحليل المدخلات اللغوية والنصية الجديدة. يعبر الأطفال عن مشاعرهم وقدراتهم اللغوية، ويصفون الأشياء، ويحلون مجموعة متنوعة من المشكلات، وهذا يشبه أيضاً كيفية تطبيق نماذج الذكاء الاصطناعي الكبيرة في مرحلة الاستدلال على مجموعة متنوعة من المهام المحددة بعد انتهاء التدريب، مثل تصنيف الصور والتعرف على الصوت.
بينما يصبح وكيل الذكاء الاصطناعي أقرب إلى الشكل التالي للنموذج الكبير - القدرة على تنفيذ المهام بشكل مستقل والسعي نحو أهداف معقدة، ليس فقط يمتلك القدرة على التفكير، بل يمكنه أيضًا التذكر والتخطيط، بالإضافة إلى القدرة على استخدام الأدوات للتفاعل مع العالم.
حاليًا، وبالنظر إلى نقاط الألم المتعلقة بالذكاء الاصطناعي في مختلف الطبقات، فقد شكلت Web3 حاليًا نظامًا بيئيًا متعدد المستويات ومترابطًا، يغطي جميع مراحل عملية نموذج الذكاء الاصطناعي.
1. الطبقة الأساسية: Airbnb للقوة الحاسوبية والبيانات
قوة الحوسبة
في الوقت الحالي، واحدة من أعلى التكاليف في الذكاء الاصطناعي هي قوة الحوسبة والطاقة المطلوبة لتدريب النماذج واستنتاجها.
مثال على ذلك هو أن LLAMA3 من ميتا يحتاج إلى 16000 وحدة معالجة رسومات H100GPU( التي تنتجها NVIDIA، وهي وحدة معالجة رسومات رائدة مصممة خصيصًا لأعباء العمل في الذكاء الاصطناعي والحوسبة عالية الأداء. يستغرق التدريب 30 يومًا. يتراوح سعر النسخة 80GB بين 30,000 إلى 40,000 دولار، مما يتطلب استثمارًا في الأجهزة الحاسوبية يتراوح بين 400 إلى 700 مليون دولار)GPU+شريحة الشبكة(، بينما تستهلك عملية التدريب شهريًا 1.6 مليار كيلووات ساعة، مع نفقات الطاقة الشهرية تصل إلى نحو 20 مليون دولار.
بالنسبة لفك ضغط قوة الحوسبة للذكاء الاصطناعي ، فإنها تمثل أيضًا المجال الذي تداخل فيه Web3 مع الذكاء الاصطناعي في وقت مبكر ------ DePin) شبكة البنية التحتية الفيزيائية اللامركزية( حاليًا ، قامت إحدى مواقع البيانات بعرض أكثر من 1400 مشروع ، من بينها المشاريع الرائدة في مشاركة قوة GPU تشمل io.net و Aethir و Akash و Render Network وغيرها.
المنطق الرئيسي هنا هو: يسمح النظام للأفراد أو الكيانات الذين يمتلكون موارد GPU غير المستخدمة بالمساهمة في قدراتهم الحاسوبية بطريقة لامركزية دون الحاجة إلى إذن، من خلال سوق عبر الإنترنت للمشترين والبائعين مشابه لـ Uber أو Airbnb، مما يزيد من معدل استخدام موارد GPU غير المستغلة بشكل كامل، وبالتالي يحصل المستخدمون النهائيون على موارد حوسبة فعالة بتكلفة أقل؛ في الوقت نفسه، تضمن آلية الرهن أنه في حالة حدوث انتهاكات لآلية مراقبة الجودة أو انقطاع في الشبكة، سيتعرض مقدمو الموارد للعقوبات المناسبة.
تتميز بالآتي:
تجميع موارد GPU غير المستخدمة: الموردون الرئيسيون هم مشغلو مراكز البيانات المستقلة الصغيرة والمتوسطة من الأطراف الثالثة، وموارد القوة الزائدة لمزارع التعدين، وأجهزة التعدين التي تعتمد آلية الإجماع PoS، مثل أجهزة التعدين FileCoin و ETH. حاليًا، هناك مشاريع تركز على بدء تشغيل أجهزة بمستويات دخول أقل، مثل exolab التي تستخدم أجهزة MacBook و iPhone و iPad المحلية لإنشاء شبكة قوة حوسبة لتشغيل استنتاج النماذج الكبيرة.
مواجهة سوق الذيل الطويل لقوة الحوسبة للذكاء الاصطناعي:
أ. "من الناحية التقنية"، فإن سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. التدريب يعتمد بشكل أكبر على قدرة معالجة البيانات التي توفرها وحدات معالجة الرسوميات الكبيرة جدًا، بينما الاستدلال يتطلب أداءً أقل نسبيًا لوحدات معالجة الرسوميات، مثل Aethir التي تركز على العمل في وقت الاستجابة المنخفض وتطبيقات الاستدلال بالذكاء الاصطناعي.
ب. "من منظور جانب الطلب"، لن تقوم شركات الطلب ذات القوة الحسابية المتوسطة بتدريب نموذج كبير خاص بها بشكل منفرد، بل ستختار فقط تحسين وضبط بعض النماذج الكبيرة الرائدة، وهذه السيناريوهات تتناسب بشكل طبيعي مع موارد القوة الحسابية الموزعة غير المستخدمة.
الملكية اللامركزية: المعنى التكنولوجي للبلوكشين هو أن مالكي الموارد يحتفظون دائمًا بالتحكم في مواردهم، ويقومون بتعديلها بشكل مرن وفقًا للاحتياجات، وفي نفس الوقت يحققون الأرباح.
)# البيانات
البيانات هي أساس الذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحسابات ستكون بلا جدوى مثل اللقطة العائمة، والعلاقة بين البيانات والنموذج تشبه المقولة الشهيرة "القمامة المدخلة، القمامة الخارجة"، حيث تحدد كمية البيانات وجودة المدخلات جودة المخرجات النهائية للنموذج. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات قدرة النموذج اللغوية، وفهمه، وحتى قيمه والأداء الإنساني. في الوقت الحالي، تركز أزمة احتياجات البيانات للذكاء الاصطناعي بشكل رئيسي على أربعة جوانب:
جوع البيانات: تعتمد نماذج الذكاء الاصطناعي على إدخال كميات كبيرة من البيانات للتدريب. تظهر المعلومات العامة أن OpenAI تدربت على GPT-4 بكمية من المعلمات تصل إلى تريليونات.
جودة البيانات: مع دمج الذكاء الاصطناعي مع مختلف الصناعات، تطرح عوامل مثل حداثة البيانات، تنوع البيانات، تخصص البيانات العمودية، ومصادر البيانات الناشئة مثل تحليل المشاعر على وسائل التواصل الاجتماعي متطلبات جديدة لجودتها.
قضايا الخصوصية والامتثال: بدأت الدول والشركات المختلفة في إدراك أهمية مجموعات البيانات عالية الجودة، وتقوم بفرض قيود على جمع البيانات.
تكاليف معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تظهر البيانات العامة أن أكثر من 30٪ من تكاليف البحث والتطوير في شركات الذكاء الاصطناعي تُستخدم لجمع ومعالجة البيانات الأساسية.
حالياً، حلول web3 تظهر في أربعة جوانب التالية:
جمع البيانات: القدرة على توفير البيانات الحقيقية الملتقطة مجانًا تتناقص بسرعة، وتزداد نفقات شركات الذكاء الاصطناعي التي تدفع مقابل البيانات عامًا بعد عام. لكن في الوقت نفسه، لم تُعَد هذه النفقات إلى المساهمين الحقيقيين في البيانات، حيث استمتع المنصات تمامًا بقيمة الإبداع الناتجة عن البيانات، مثلما حققت إحدى المنصات من خلال توقيع اتفاقية ترخيص البيانات مع شركات الذكاء الاصطناعي إيرادات إجمالية قدرها 2.03 مليار دولار.
تمكين المستخدمين الذين يساهمون حقًا في المشاركة في خلق القيمة الناتجة عن البيانات، بالإضافة إلى الحصول على بيانات أكثر خصوصية وقيمة من المستخدمين بطريقة منخفضة التكلفة من خلال الشبكة الموزعة وآليات التحفيز، هو رؤية Web3.
تعتبر Grass طبقة بيانات وشبكة لامركزية، حيث يمكن للمستخدمين من خلال تشغيل عقد Grass المساهمة بعرض النطاق الترددي غير المستخدم ونقل البيانات لالتقاط البيانات الحية من جميع أنحاء الإنترنت، وكسب مكافآت بالرموز؛
فانا قدمت مفهوم فريد من نوعه لحوض سيولة البيانات ###DLP(، حيث يمكن للمستخدمين رفع بياناتهم الخاصة ) مثل سجلات التسوق، عادات التصفح، وأنشطة وسائل التواصل الاجتماعي ( إلى DLP محدد، واختيار ما إذا كانوا يرغبون في منح حق استخدام هذه البيانات لطرف ثالث معين.
في PublicAI، يمكن للمستخدمين استخدام )Web3 كعلامة تصنيف على X و @PublicAI لجمع البيانات.
معالجة البيانات: في عملية معالجة البيانات في الذكاء الاصطناعي، يجب تنظيف البيانات التي يتم جمعها وتحويلها إلى تنسيق قابل للاستخدام قبل تدريب النموذج، نظرًا لأن البيانات عادة ما تكون صاخبة وتحتوي على أخطاء. يتضمن ذلك مهام التوحيد والترشيح ومعالجة القيم المفقودة. هذه المرحلة هي واحدة من القليل من الخطوات اليدوية في صناعة الذكاء الاصطناعي، وقد نتج عنها ظهور صناعة معلمي البيانات. مع زيادة متطلبات جودة البيانات من النماذج، ارتفعت أيضًا عتبة معلمي البيانات، وهذه المهمة مناسبة بطبيعتها لآلية التحفيز اللامركزية في Web3.
حالياً، فإن Grass و OpenLayer كلاهما يفكر في إضافة مرحلة التسمية البيانية هذه كمرحلة أساسية.
قدمت Synesis مفهوم "Train2earn"، مع التركيز على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موسومة أو تعليقات أو أشكال أخرى من المدخلات.
مشروع تسمية البيانات Sapien يقوم بتحويل مهام التسمية إلى لعبة، ويسمح للمستخدمين بتخزين النقاط لكسب المزيد من النقاط.
خصوصية البيانات والأمان: يجب توضيح أن خصوصية البيانات والأمان هما مفهومان مختلفان. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي الأمان المعلومات من الوصول غير المصرح به، والتخريب، والسرقة. من هنا، تظهر مزايا تكنولوجيا خصوصية Web3 والسيناريوهات المحتملة لتطبيقها في جانبين: #AI或#1( تدريب البيانات الحساسة؛ )2( تعاون البيانات: يمكن لمالكي البيانات المتعددين المشاركة معًا في تدريب الذكاء الاصطناعي، دون الحاجة إلى مشاركة بياناتهم الأصلية.
تشمل التقنيات الشائعة للخصوصية في Web3 الحالية:
بيئة التنفيذ الموثوقة ) TEE (، مثل بروتوكول سوبر؛
تشفير متجانس كامل )FHE(، على سبيل المثال BasedAI، Fhenix.io أو Inco Network؛
تقنية المعرفة الصفرية ) zk (، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات المعرفة الصفرية لحركة مرور HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بأمان دون الكشف عن المعلومات الحساسة.
ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، لا يزال معظم المشاريع قيد الاستكشاف، إحدى المعضلات الحالية هي أن تكاليف الحساب مرتفعة للغاية، بعض الأمثلة هي:
تحتاج إطار zkML EZKL إلى حوالي 80 دقيقة لتوليد إثبات نموذج 1M-nanoGPT.
وفقًا لبيانات Modulus Labs، فإن تكاليف zkML أعلى بأكثر من 1000 مرة من الحسابات البحتة.
تخزين البيانات: بعد الحصول على البيانات، نحتاج أيضًا إلى مكان لتخزين البيانات على السلسلة، بالإضافة إلى LLM الناتجة عن استخدام هذه البيانات. مع التركيز على مشكلة توفر البيانات )DA(، كانت سعة الإيثيريوم قبل ترقية Danksharding تساوي 0.08 ميجابايت. في الوقت نفسه، يتطلب تدريب نماذج الذكاء الاصطناعي والاستدلال في الوقت الحقيقي عادةً سعة بيانات تتراوح بين 50 إلى 100 جيجابايت في الثانية. إن الفجوة بهذا الحجم تجعل الحلول الحالية على السلسلة تواجه
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
اتجاه دمج AI+Web3: قوة الحوسبة واللامركزية للبيانات تصبح محور التركيز
AI+Web3: الأبراج والساحات
TL; د
أصبحت مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أهداف جذب الأموال في الأسواق الأولية والثانوية.
تظهر فرص Web3 في صناعة الذكاء الاصطناعي في: استخدام الحوافز الموزعة لتنسيق الإمدادات المحتملة في الذيل الطويل، عبر البيانات والتخزين والحوسبة؛ في الوقت نفسه، إنشاء نموذج مفتوح المصدر وسوق لامركزي لوكلاء الذكاء الاصطناعي.
تستخدم الذكاء الاصطناعي في صناعة Web3 بشكل رئيسي في التمويل على السلسلة ( المدفوعات المشفرة، التداول، تحليل البيانات ) ودعم التطوير.
تظهر فائدة AI + Web3 في تكامل كلاهما: من المتوقع أن يتصدى Web3 لت集中化 AI، ومن المتوقع أن يساعد AI Web3 في التوسع.
! الذكاء الاصطناعي+Web3: الأبراج والساحات
المقدمة
على مدار العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع، هذه الظاهرة التي أطلقها Chatgpt لم تفتح فقط عالماً جديداً للذكاء الاصطناعي التوليدي، ولكنها أيضاً أثارت تياراً في Web3 في الجانب الآخر.
بدعم من مفهوم الذكاء الاصطناعي، كان هناك انتعاش ملحوظ في تمويل سوق التشفير الذي شهد تباطؤًا. في النصف الأول من عام 2024، أكملت 64 مشروعًا من مشاريع Web3+AI التمويل، حيث حقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل في الجولة A بقيمة 100 مليون دولار.
سوق الثانوي أكثر ازدهارًا، تظهر بيانات مواقع تجميع التشفير أنه في غضون أكثر من عام بقليل، بلغ إجمالي قيمة سوق الذكاء الاصطناعي 48.5 مليار دولار، وحجم التداول في 24 ساعة اقترب من 8.6 مليار دولار؛ ومن الواضح أن التقدم في تقنيات الذكاء الاصطناعي الرئيسية قد جلب فوائد، بعد إصدار نموذج Sora من OpenAI لتحويل النص إلى فيديو، ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151٪؛ كما أن تأثير الذكاء الاصطناعي يمتد إلى أحد قطاعات جذب الأموال في العملات المشفرة وهو الميم: حيث سرعان ما أصبح GOAT، وهو أول مفهوم لميم كوكب الذكاء الاصطناعي، مشهورًا وحصل على تقييم قدره 1.4 مليار دولار، مما أدى إلى اندلاع حمى ميم الذكاء الاصطناعي.
إن الأبحاث والمواضيع المتعلقة بـ AI + Web3 مشتعلة بنفس القدر، من AI + Depin إلى AI Memecoin وصولاً إلى AI Agent و AI DAO الحالية، أصبحت مشاعر FOMO عاجزة عن مواكبة سرعة تبديل السرد الجديد.
AI+Web3، هذا التركيب المليء بالأموال الساخنة، والفرص، وأحلام المستقبل، لا محالة يُنظر إليه كزواج مُرتب يمليه رأس المال، يبدو أننا صعب علينا التمييز تحت هذا الرداء الفخم، هل هو ساحة المضاربين، أم ليلة الانفجار في الفجر؟
للإجابة على هذا السؤال، فإن أحد الأفكار الرئيسية التي تهم الطرفين هو: هل سيكون الوضع أفضل مع الآخر؟ هل يمكن الاستفادة من أنماط الآخر؟ في هذه المقالة، نحاول أيضًا أن نقف على أكتاف السابقين لنفحص هذا النمط: كيف يمكن أن تلعب Web3 دورًا في جميع مراحل تكنولوجيا الذكاء الاصطناعي، وما الذي يمكن أن يجلبه الذكاء الاصطناعي لـ Web3 من حيوية جديدة؟
الجزء 1 ما هي الفرص المتاحة في Web3 تحت كومة الذكاء الاصطناعي؟
قبل مناقشة هذا الموضوع، نحتاج إلى فهم مجموعة تقنيات نموذج الذكاء الاصطناعي الكبير:
للتعبير عن العملية بأكثر بساطة: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة، يحتاج إلى مراقبة واستيعاب كميات هائلة من المعلومات المحيطة لفهم هذا العالم، وهذه هي مرحلة "جمع البيانات"؛ نظرًا لأن الحواسيب لا تمتلك حواس الإنسان مثل البصر والسمع وغيرها، قبل التدريب، يجب تحويل المعلومات الضخمة غير المعنونة من العالم الخارجي عبر "المعالجة المسبقة" إلى صيغة معلومات يمكن أن تفهمها الحواسيب وتكون قابلة للاستخدام.
بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يتمتع بقدرة على الفهم والتنبؤ، ويمكن اعتباره كعملية فهم وتعلم تدريجية للطفل عن العالم الخارجي. تعتبر معلمات النموذج مثل القدرة اللغوية التي يتم تعديلها باستمرار خلال عملية تعلم الطفل. عندما يبدأ المحتوى التعليمي في التخصص، أو عند التواصل مع الآخرين للحصول على ردود فعل وتصحيح، تدخل المرحلة "الضبط الدقيق" للنموذج الكبير.
عندما يكبر الأطفال تدريجياً ويتعلمون الكلام، يمكنهم فهم المعاني والتعبير عن مشاعرهم وأفكارهم في محادثات جديدة. هذه المرحلة تشبه "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج التنبؤ وتحليل المدخلات اللغوية والنصية الجديدة. يعبر الأطفال عن مشاعرهم وقدراتهم اللغوية، ويصفون الأشياء، ويحلون مجموعة متنوعة من المشكلات، وهذا يشبه أيضاً كيفية تطبيق نماذج الذكاء الاصطناعي الكبيرة في مرحلة الاستدلال على مجموعة متنوعة من المهام المحددة بعد انتهاء التدريب، مثل تصنيف الصور والتعرف على الصوت.
بينما يصبح وكيل الذكاء الاصطناعي أقرب إلى الشكل التالي للنموذج الكبير - القدرة على تنفيذ المهام بشكل مستقل والسعي نحو أهداف معقدة، ليس فقط يمتلك القدرة على التفكير، بل يمكنه أيضًا التذكر والتخطيط، بالإضافة إلى القدرة على استخدام الأدوات للتفاعل مع العالم.
حاليًا، وبالنظر إلى نقاط الألم المتعلقة بالذكاء الاصطناعي في مختلف الطبقات، فقد شكلت Web3 حاليًا نظامًا بيئيًا متعدد المستويات ومترابطًا، يغطي جميع مراحل عملية نموذج الذكاء الاصطناعي.
! الذكاء الاصطناعي+Web3: الأبراج والمربعات
1. الطبقة الأساسية: Airbnb للقوة الحاسوبية والبيانات
قوة الحوسبة
في الوقت الحالي، واحدة من أعلى التكاليف في الذكاء الاصطناعي هي قوة الحوسبة والطاقة المطلوبة لتدريب النماذج واستنتاجها.
مثال على ذلك هو أن LLAMA3 من ميتا يحتاج إلى 16000 وحدة معالجة رسومات H100GPU( التي تنتجها NVIDIA، وهي وحدة معالجة رسومات رائدة مصممة خصيصًا لأعباء العمل في الذكاء الاصطناعي والحوسبة عالية الأداء. يستغرق التدريب 30 يومًا. يتراوح سعر النسخة 80GB بين 30,000 إلى 40,000 دولار، مما يتطلب استثمارًا في الأجهزة الحاسوبية يتراوح بين 400 إلى 700 مليون دولار)GPU+شريحة الشبكة(، بينما تستهلك عملية التدريب شهريًا 1.6 مليار كيلووات ساعة، مع نفقات الطاقة الشهرية تصل إلى نحو 20 مليون دولار.
بالنسبة لفك ضغط قوة الحوسبة للذكاء الاصطناعي ، فإنها تمثل أيضًا المجال الذي تداخل فيه Web3 مع الذكاء الاصطناعي في وقت مبكر ------ DePin) شبكة البنية التحتية الفيزيائية اللامركزية( حاليًا ، قامت إحدى مواقع البيانات بعرض أكثر من 1400 مشروع ، من بينها المشاريع الرائدة في مشاركة قوة GPU تشمل io.net و Aethir و Akash و Render Network وغيرها.
المنطق الرئيسي هنا هو: يسمح النظام للأفراد أو الكيانات الذين يمتلكون موارد GPU غير المستخدمة بالمساهمة في قدراتهم الحاسوبية بطريقة لامركزية دون الحاجة إلى إذن، من خلال سوق عبر الإنترنت للمشترين والبائعين مشابه لـ Uber أو Airbnb، مما يزيد من معدل استخدام موارد GPU غير المستغلة بشكل كامل، وبالتالي يحصل المستخدمون النهائيون على موارد حوسبة فعالة بتكلفة أقل؛ في الوقت نفسه، تضمن آلية الرهن أنه في حالة حدوث انتهاكات لآلية مراقبة الجودة أو انقطاع في الشبكة، سيتعرض مقدمو الموارد للعقوبات المناسبة.
تتميز بالآتي:
تجميع موارد GPU غير المستخدمة: الموردون الرئيسيون هم مشغلو مراكز البيانات المستقلة الصغيرة والمتوسطة من الأطراف الثالثة، وموارد القوة الزائدة لمزارع التعدين، وأجهزة التعدين التي تعتمد آلية الإجماع PoS، مثل أجهزة التعدين FileCoin و ETH. حاليًا، هناك مشاريع تركز على بدء تشغيل أجهزة بمستويات دخول أقل، مثل exolab التي تستخدم أجهزة MacBook و iPhone و iPad المحلية لإنشاء شبكة قوة حوسبة لتشغيل استنتاج النماذج الكبيرة.
مواجهة سوق الذيل الطويل لقوة الحوسبة للذكاء الاصطناعي:
أ. "من الناحية التقنية"، فإن سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. التدريب يعتمد بشكل أكبر على قدرة معالجة البيانات التي توفرها وحدات معالجة الرسوميات الكبيرة جدًا، بينما الاستدلال يتطلب أداءً أقل نسبيًا لوحدات معالجة الرسوميات، مثل Aethir التي تركز على العمل في وقت الاستجابة المنخفض وتطبيقات الاستدلال بالذكاء الاصطناعي.
ب. "من منظور جانب الطلب"، لن تقوم شركات الطلب ذات القوة الحسابية المتوسطة بتدريب نموذج كبير خاص بها بشكل منفرد، بل ستختار فقط تحسين وضبط بعض النماذج الكبيرة الرائدة، وهذه السيناريوهات تتناسب بشكل طبيعي مع موارد القوة الحسابية الموزعة غير المستخدمة.
)# البيانات
البيانات هي أساس الذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحسابات ستكون بلا جدوى مثل اللقطة العائمة، والعلاقة بين البيانات والنموذج تشبه المقولة الشهيرة "القمامة المدخلة، القمامة الخارجة"، حيث تحدد كمية البيانات وجودة المدخلات جودة المخرجات النهائية للنموذج. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات قدرة النموذج اللغوية، وفهمه، وحتى قيمه والأداء الإنساني. في الوقت الحالي، تركز أزمة احتياجات البيانات للذكاء الاصطناعي بشكل رئيسي على أربعة جوانب:
جوع البيانات: تعتمد نماذج الذكاء الاصطناعي على إدخال كميات كبيرة من البيانات للتدريب. تظهر المعلومات العامة أن OpenAI تدربت على GPT-4 بكمية من المعلمات تصل إلى تريليونات.
جودة البيانات: مع دمج الذكاء الاصطناعي مع مختلف الصناعات، تطرح عوامل مثل حداثة البيانات، تنوع البيانات، تخصص البيانات العمودية، ومصادر البيانات الناشئة مثل تحليل المشاعر على وسائل التواصل الاجتماعي متطلبات جديدة لجودتها.
قضايا الخصوصية والامتثال: بدأت الدول والشركات المختلفة في إدراك أهمية مجموعات البيانات عالية الجودة، وتقوم بفرض قيود على جمع البيانات.
تكاليف معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تظهر البيانات العامة أن أكثر من 30٪ من تكاليف البحث والتطوير في شركات الذكاء الاصطناعي تُستخدم لجمع ومعالجة البيانات الأساسية.
حالياً، حلول web3 تظهر في أربعة جوانب التالية:
تمكين المستخدمين الذين يساهمون حقًا في المشاركة في خلق القيمة الناتجة عن البيانات، بالإضافة إلى الحصول على بيانات أكثر خصوصية وقيمة من المستخدمين بطريقة منخفضة التكلفة من خلال الشبكة الموزعة وآليات التحفيز، هو رؤية Web3.
تعتبر Grass طبقة بيانات وشبكة لامركزية، حيث يمكن للمستخدمين من خلال تشغيل عقد Grass المساهمة بعرض النطاق الترددي غير المستخدم ونقل البيانات لالتقاط البيانات الحية من جميع أنحاء الإنترنت، وكسب مكافآت بالرموز؛
فانا قدمت مفهوم فريد من نوعه لحوض سيولة البيانات ###DLP(، حيث يمكن للمستخدمين رفع بياناتهم الخاصة ) مثل سجلات التسوق، عادات التصفح، وأنشطة وسائل التواصل الاجتماعي ( إلى DLP محدد، واختيار ما إذا كانوا يرغبون في منح حق استخدام هذه البيانات لطرف ثالث معين.
في PublicAI، يمكن للمستخدمين استخدام )Web3 كعلامة تصنيف على X و @PublicAI لجمع البيانات.
حالياً، فإن Grass و OpenLayer كلاهما يفكر في إضافة مرحلة التسمية البيانية هذه كمرحلة أساسية.
قدمت Synesis مفهوم "Train2earn"، مع التركيز على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موسومة أو تعليقات أو أشكال أخرى من المدخلات.
مشروع تسمية البيانات Sapien يقوم بتحويل مهام التسمية إلى لعبة، ويسمح للمستخدمين بتخزين النقاط لكسب المزيد من النقاط.
تشمل التقنيات الشائعة للخصوصية في Web3 الحالية:
بيئة التنفيذ الموثوقة ) TEE (، مثل بروتوكول سوبر؛
تشفير متجانس كامل )FHE(، على سبيل المثال BasedAI، Fhenix.io أو Inco Network؛
تقنية المعرفة الصفرية ) zk (، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات المعرفة الصفرية لحركة مرور HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بأمان دون الكشف عن المعلومات الحساسة.
ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، لا يزال معظم المشاريع قيد الاستكشاف، إحدى المعضلات الحالية هي أن تكاليف الحساب مرتفعة للغاية، بعض الأمثلة هي:
تحتاج إطار zkML EZKL إلى حوالي 80 دقيقة لتوليد إثبات نموذج 1M-nanoGPT.
وفقًا لبيانات Modulus Labs، فإن تكاليف zkML أعلى بأكثر من 1000 مرة من الحسابات البحتة.