Fusion de l'IA et du Web3 : les nouveaux défis posés par l'essor de DeFAI
Récemment, un événement blockchain axé sur la tendance de fusion entre l'IA et le Web3 s'est tenu à Istanbul, devenant une plateforme de discussion importante dans le domaine de la sécurité Web3 cette année. Pendant l'événement, plusieurs experts du secteur ont mené des discussions approfondies sur l'état d'application de la technologie IA dans la finance décentralisée (DeFi) et les défis de sécurité.
Lors de cet événement, "DeFAI" (finance décentralisée de l'intelligence artificielle) est devenu un sujet de discussion brûlant. Les experts soulignent qu'avec le développement rapide des grands modèles de langage (LLM) et des agents AI, un nouveau modèle financier - DeFAI - est en train de se former progressivement. Cependant, cette innovation a également entraîné de nouveaux risques de sécurité et des voies d'attaque potentielles.
Un expert en sécurité participant à la discussion a déclaré : "Bien que DeFAI ait un avenir prometteur, il nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents traditionnels, le processus de décision des agents d'IA est influencé par divers facteurs tels que le contexte, le temps et même les interactions historiques. Cette imprévisibilité augmente non seulement les risques, mais offre également des opportunités aux attaquants potentiels."
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome en se basant sur une logique IA, généralement autorisés à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). Parmi eux, les robots de trading IA sont les représentants les plus typiques. Actuellement, la plupart des agents IA fonctionnent encore sur une architecture Web2, dépendant de serveurs centralisés et d'API, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois qu'un agent IA est compromis, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario typique d'attaque : lorsque l'agent de trading IA utilisé par un utilisateur DeFi surveille les informations sur les réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, comme "un certain protocole est attaqué", incitant cet agent à déclencher immédiatement un déchargement d'urgence. Cela pourrait non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant pourrait exploiter par des moyens tels que le front running.
Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents IA ne devrait pas être prise en charge par un seul acteur, mais qu'elle doit être une responsabilité partagée entre les utilisateurs, les développeurs et les organismes de sécurité tiers.
Les utilisateurs doivent clairement comprendre l'étendue des droits des agents, accorder les droits avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolation en bac à sable, la limitation de la vitesse et la logique de retour en arrière. Les organismes de sécurité tiers doivent fournir un examen indépendant des comportements des modèles d'agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti lors de sa discussion : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs explorant la direction DeFAI : "Tout comme pour les contrats intelligents, la logique de comportement des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il existe une possibilité d'attaque, il est donc nécessaire de réaliser des audits de sécurité professionnels et des tests de pénétration."
Cet événement de la semaine de la blockchain, l'un des événements de blockchain les plus influents d'Europe, a attiré plus de 15 000 participants, y compris des développeurs, des porteurs de projets, des investisseurs et des régulateurs du monde entier. Avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de l'octroi de licences pour des projets blockchain, le statut de l'événement dans l'industrie a été renforcé.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
10 J'aime
Récompense
10
7
Partager
Commentaire
0/400
GateUser-74b10196
· Il y a 2h
La sécurité d'abord, l'expérience ensuite.
Voir l'originalRépondre0
CoconutWaterBoy
· Il y a 18h
C'est juste un autre coup de marketing.
Voir l'originalRépondre0
SeeYouInFourYears
· Il y a 21h
Agir en tant qu'agent pour faire du Mining soi-même, c'est au pire Rekt.
Voir l'originalRépondre0
GhostChainLoyalist
· Il y a 21h
Encore un nouveau piège pour se faire prendre pour des cons
Voir l'originalRépondre0
AirdropChaser
· Il y a 21h
Hum, il se peut que l'IA finisse par nuire à notre Portefeuille.
Voir l'originalRépondre0
UnluckyLemur
· Il y a 21h
C'est trop sûr, non ? On dirait un piège.
Voir l'originalRépondre0
ruggedNotShrugged
· Il y a 21h
Encore un projet de prise des gens pour des idiots qui arrive
L'essor de DeFAI : Défis de sécurité et stratégies de réponse des agents IA dans le domaine financier de Web3
Fusion de l'IA et du Web3 : les nouveaux défis posés par l'essor de DeFAI
Récemment, un événement blockchain axé sur la tendance de fusion entre l'IA et le Web3 s'est tenu à Istanbul, devenant une plateforme de discussion importante dans le domaine de la sécurité Web3 cette année. Pendant l'événement, plusieurs experts du secteur ont mené des discussions approfondies sur l'état d'application de la technologie IA dans la finance décentralisée (DeFi) et les défis de sécurité.
Lors de cet événement, "DeFAI" (finance décentralisée de l'intelligence artificielle) est devenu un sujet de discussion brûlant. Les experts soulignent qu'avec le développement rapide des grands modèles de langage (LLM) et des agents AI, un nouveau modèle financier - DeFAI - est en train de se former progressivement. Cependant, cette innovation a également entraîné de nouveaux risques de sécurité et des voies d'attaque potentielles.
Un expert en sécurité participant à la discussion a déclaré : "Bien que DeFAI ait un avenir prometteur, il nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents traditionnels, le processus de décision des agents d'IA est influencé par divers facteurs tels que le contexte, le temps et même les interactions historiques. Cette imprévisibilité augmente non seulement les risques, mais offre également des opportunités aux attaquants potentiels."
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome en se basant sur une logique IA, généralement autorisés à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). Parmi eux, les robots de trading IA sont les représentants les plus typiques. Actuellement, la plupart des agents IA fonctionnent encore sur une architecture Web2, dépendant de serveurs centralisés et d'API, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois qu'un agent IA est compromis, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario typique d'attaque : lorsque l'agent de trading IA utilisé par un utilisateur DeFi surveille les informations sur les réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, comme "un certain protocole est attaqué", incitant cet agent à déclencher immédiatement un déchargement d'urgence. Cela pourrait non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant pourrait exploiter par des moyens tels que le front running.
Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents IA ne devrait pas être prise en charge par un seul acteur, mais qu'elle doit être une responsabilité partagée entre les utilisateurs, les développeurs et les organismes de sécurité tiers.
Les utilisateurs doivent clairement comprendre l'étendue des droits des agents, accorder les droits avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolation en bac à sable, la limitation de la vitesse et la logique de retour en arrière. Les organismes de sécurité tiers doivent fournir un examen indépendant des comportements des modèles d'agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti lors de sa discussion : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs explorant la direction DeFAI : "Tout comme pour les contrats intelligents, la logique de comportement des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il existe une possibilité d'attaque, il est donc nécessaire de réaliser des audits de sécurité professionnels et des tests de pénétration."
Cet événement de la semaine de la blockchain, l'un des événements de blockchain les plus influents d'Europe, a attiré plus de 15 000 participants, y compris des développeurs, des porteurs de projets, des investisseurs et des régulateurs du monde entier. Avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de l'octroi de licences pour des projets blockchain, le statut de l'événement dans l'industrie a été renforcé.