دمج الذكاء الاصطناعي وWeb3: التحديات الجديدة التي brought بها DeFAI
مؤخراً، أقيم حدث أسبوع blockchain يركز على اتجاه دمج الذكاء الاصطناعي وWeb3 في إسطنبول، ليصبح منصة نقاش مهمة في مجال أمان Web3 هذا العام. خلال الحدث، ناقش العديد من خبراء الصناعة بشكل عميق الوضع الحالي لتطبيقات تكنولوجيا الذكاء الاصطناعي في التمويل اللامركزي (DeFi) والتحديات الأمنية.
في هذا الحدث، أصبح "DeFAI" (التمويل الذكي اللامركزي القائم على الذكاء الاصطناعي) موضوعًا ساخنًا للنقاش. أشار الخبراء إلى أنه مع التطور السريع لنماذج اللغة الكبيرة (LLM) ووكلاء الذكاء الاصطناعي، تتشكل نموذج مالي جديد - DeFAI بشكل تدريجي. ومع ذلك، فإن هذه الابتكارات تأتي أيضًا مع مخاطر أمنية جديدة وطرق هجوم محتملة.
قال أحد خبراء الأمن المشاركين في المناقشة: "على الرغم من أن DeFAI يتمتع بآفاق واسعة، إلا أنه يجبرنا أيضًا على إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بعدة عوامل، مثل السياق، الوقت، وحتى التفاعلات التاريخية. هذه العشوائية لا تزيد فقط من المخاطر، بل توفر أيضًا فرصة للمهاجمين المحتملين."
وكالة الذكاء الاصطناعي هي في جوهرها كيان ذكي قادر على اتخاذ القرارات وتنفيذها بشكل مستقل استنادًا إلى منطق الذكاء الاصطناعي، وعادة ما يتم تفويضها من قبل المستخدم أو البروتوكول أو المنظمة اللامركزية المستقلة (DAO). ومن بين هذه الوكالات، تُعتبر روبوتات التداول بالذكاء الاصطناعي الأكثر تمثيلاً. في الوقت الحالي، لا يزال معظم وكلاء الذكاء الاصطناعي يعملون على بنية Web2، ويعتمدون على الخوادم المركزية وواجهات برمجة التطبيقات (APIs)، مما يجعلها عرضة لمجموعة متنوعة من الهجمات، مثل هجمات الحقن، أو التلاعب بالنماذج، أو التلاعب بالبيانات. بمجرد اختطاف وكالة الذكاء الاصطناعي، قد يؤدي ذلك ليس فقط إلى خسائر مالية، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يقوم وكيل تداول الذكاء الاصطناعي الذي يديره مستخدم DeFi بمراقبة معلومات وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر تحذيرات كاذبة، مثل "تعرض بروتوكول ما للهجوم"، مما يحفز الوكيل على بدء تصفية طارئة على الفور. لن يتسبب ذلك فقط في خسارة أصول المستخدمين، بل قد يؤدي أيضًا إلى تقلبات في السوق يمكن للمهاجمين استغلالها من خلال وسائل مثل التداول المتقدم (Front Running).
فيما يتعلق بهذه المخاطر، اتفق الخبراء المشاركون على أن أمان وكيل الذكاء الاصطناعي لا ينبغي أن يتحمله جانب واحد فقط، بل يجب أن يكون مسؤولاً عنه المستخدمون والمطورون والهيئات الأمنية من الطرف الثالث.
يحتاج المستخدمون إلى فهم واضح لنطاق صلاحيات الوكيل، ومنح الصلاحيات بحذر، ومراقبة العمليات عالية المخاطر للوكيل الذكي. يجب على المطورين تنفيذ تدابير دفاعية في مرحلة التصميم، مثل تعزيز الكلمات الرئيسية، وعزل الصناديق الرملية، وتحديد السرعة، وآليات التراجع. يجب على وكالات الأمان الخارجية تقديم مراجعة مستقلة لسلوك نموذج الوكيل الذكي، والبنية التحتية، وطرق التكامل على السلسلة، والتعاون مع المطورين والمستخدمين لتحديد المخاطر واقتراح تدابير التخفيف.
أحد خبراء الأمن ناقش في تحذير أخير: "إذا استمرينا في اعتبار وكلاء الذكاء الاصطناعي كـ'صندوق أسود'، فإن وقوع حوادث أمان في العالم الحقيقي هو مجرد مسألة وقت." وقد اقترح للمطورين الذين يستكشفون اتجاه DeFAI: "مثل العقود الذكية، فإن منطق سلوك وكلاء الذكاء الاصطناعي يتم تنفيذه أيضًا بواسطة الكود. وبما أنه كود، فإن هناك احتمالًا للتعرض للهجوم، لذا يحتاج إلى تدقيق أمني احترافي واختبار اختراق."
هذا الحدث الخاص بأسبوع blockchain يُعتبر واحدًا من أكثر الفعاليات تأثيرًا في أوروبا في مجال blockchain، وقد جذب أكثر من 15,000 مشارك من مطورين ومشاريع ومستثمرين وجهات تنظيمية من جميع أنحاء العالم. مع بدء اللجنة التركية لسوق المال (CMB) رسميًا في إصدار تراخيص مشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 10
أعجبني
10
7
مشاركة
تعليق
0/400
GateUser-74b10196
· منذ 2 س
الأمان أولاً، التجربة ثانياً
شاهد النسخة الأصليةرد0
CoconutWaterBoy
· منذ 18 س
مجرد تلاعب بالمفاهيم مرة أخرى
شاهد النسخة الأصليةرد0
SeeYouInFourYears
· منذ 21 س
代理自己干التعدين大不了مدمر
شاهد النسخة الأصليةرد0
GhostChainLoyalist
· منذ 21 س
مرة أخرى نرى خداع الناس لتحقيق الربح بأسلوب جديد
شاهد النسخة الأصليةرد0
AirdropChaser
· منذ 21 س
همم، قد تقوم الذكاء الاصطناعي بانتقام من المحفظة الخاصة بنا.
ظهور DeFAI: التحديات الأمنية لوكلاء الذكاء الاصطناعي واستراتيجيات المواجهة في مجال المالية Web3
دمج الذكاء الاصطناعي وWeb3: التحديات الجديدة التي brought بها DeFAI
مؤخراً، أقيم حدث أسبوع blockchain يركز على اتجاه دمج الذكاء الاصطناعي وWeb3 في إسطنبول، ليصبح منصة نقاش مهمة في مجال أمان Web3 هذا العام. خلال الحدث، ناقش العديد من خبراء الصناعة بشكل عميق الوضع الحالي لتطبيقات تكنولوجيا الذكاء الاصطناعي في التمويل اللامركزي (DeFi) والتحديات الأمنية.
في هذا الحدث، أصبح "DeFAI" (التمويل الذكي اللامركزي القائم على الذكاء الاصطناعي) موضوعًا ساخنًا للنقاش. أشار الخبراء إلى أنه مع التطور السريع لنماذج اللغة الكبيرة (LLM) ووكلاء الذكاء الاصطناعي، تتشكل نموذج مالي جديد - DeFAI بشكل تدريجي. ومع ذلك، فإن هذه الابتكارات تأتي أيضًا مع مخاطر أمنية جديدة وطرق هجوم محتملة.
قال أحد خبراء الأمن المشاركين في المناقشة: "على الرغم من أن DeFAI يتمتع بآفاق واسعة، إلا أنه يجبرنا أيضًا على إعادة النظر في آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، فإن عملية اتخاذ القرار لوكلاء الذكاء الاصطناعي تتأثر بعدة عوامل، مثل السياق، الوقت، وحتى التفاعلات التاريخية. هذه العشوائية لا تزيد فقط من المخاطر، بل توفر أيضًا فرصة للمهاجمين المحتملين."
وكالة الذكاء الاصطناعي هي في جوهرها كيان ذكي قادر على اتخاذ القرارات وتنفيذها بشكل مستقل استنادًا إلى منطق الذكاء الاصطناعي، وعادة ما يتم تفويضها من قبل المستخدم أو البروتوكول أو المنظمة اللامركزية المستقلة (DAO). ومن بين هذه الوكالات، تُعتبر روبوتات التداول بالذكاء الاصطناعي الأكثر تمثيلاً. في الوقت الحالي، لا يزال معظم وكلاء الذكاء الاصطناعي يعملون على بنية Web2، ويعتمدون على الخوادم المركزية وواجهات برمجة التطبيقات (APIs)، مما يجعلها عرضة لمجموعة متنوعة من الهجمات، مثل هجمات الحقن، أو التلاعب بالنماذج، أو التلاعب بالبيانات. بمجرد اختطاف وكالة الذكاء الاصطناعي، قد يؤدي ذلك ليس فقط إلى خسائر مالية، ولكن أيضًا إلى التأثير على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يقوم وكيل تداول الذكاء الاصطناعي الذي يديره مستخدم DeFi بمراقبة معلومات وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر تحذيرات كاذبة، مثل "تعرض بروتوكول ما للهجوم"، مما يحفز الوكيل على بدء تصفية طارئة على الفور. لن يتسبب ذلك فقط في خسارة أصول المستخدمين، بل قد يؤدي أيضًا إلى تقلبات في السوق يمكن للمهاجمين استغلالها من خلال وسائل مثل التداول المتقدم (Front Running).
فيما يتعلق بهذه المخاطر، اتفق الخبراء المشاركون على أن أمان وكيل الذكاء الاصطناعي لا ينبغي أن يتحمله جانب واحد فقط، بل يجب أن يكون مسؤولاً عنه المستخدمون والمطورون والهيئات الأمنية من الطرف الثالث.
يحتاج المستخدمون إلى فهم واضح لنطاق صلاحيات الوكيل، ومنح الصلاحيات بحذر، ومراقبة العمليات عالية المخاطر للوكيل الذكي. يجب على المطورين تنفيذ تدابير دفاعية في مرحلة التصميم، مثل تعزيز الكلمات الرئيسية، وعزل الصناديق الرملية، وتحديد السرعة، وآليات التراجع. يجب على وكالات الأمان الخارجية تقديم مراجعة مستقلة لسلوك نموذج الوكيل الذكي، والبنية التحتية، وطرق التكامل على السلسلة، والتعاون مع المطورين والمستخدمين لتحديد المخاطر واقتراح تدابير التخفيف.
أحد خبراء الأمن ناقش في تحذير أخير: "إذا استمرينا في اعتبار وكلاء الذكاء الاصطناعي كـ'صندوق أسود'، فإن وقوع حوادث أمان في العالم الحقيقي هو مجرد مسألة وقت." وقد اقترح للمطورين الذين يستكشفون اتجاه DeFAI: "مثل العقود الذكية، فإن منطق سلوك وكلاء الذكاء الاصطناعي يتم تنفيذه أيضًا بواسطة الكود. وبما أنه كود، فإن هناك احتمالًا للتعرض للهجوم، لذا يحتاج إلى تدقيق أمني احترافي واختبار اختراق."
هذا الحدث الخاص بأسبوع blockchain يُعتبر واحدًا من أكثر الفعاليات تأثيرًا في أوروبا في مجال blockchain، وقد جذب أكثر من 15,000 مشارك من مطورين ومشاريع ومستثمرين وجهات تنظيمية من جميع أنحاء العالم. مع بدء اللجنة التركية لسوق المال (CMB) رسميًا في إصدار تراخيص مشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.