Les problèmes de Sécurité de l'IA deviennent de plus en plus évidents, le chiffrement homomorphe complet pourrait être la meilleure solution.
Récemment, un système d'IA nommé Manus a obtenu des résultats révolutionnaires dans les tests de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Manus a démontré une forte capacité à traiter des tâches de manière autonome, capable de gérer des négociations commerciales complexes à l'échelle internationale, y compris l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions. Par rapport aux systèmes traditionnels, Manus présente des avantages évidents en matière de décomposition dynamique des objectifs, de raisonnement multimodal et d'apprentissage amélioré par la mémoire.
L'émergence de Manus a de nouveau suscité des discussions dans l'industrie sur le chemin de développement de l'IA : doit-on opter pour un modèle unifié d'intelligence artificielle générale (AGI) ou pour un modèle de collaboration de systèmes multi-agents (MAS) ? Ce débat reflète en réalité la problématique de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. À mesure que les systèmes d'intelligence individuelle se rapprochent progressivement du niveau AGI, le risque d'opacité dans leur processus de décision augmente également. Bien que la collaboration entre plusieurs agents puisse diversifier les risques, il est possible de manquer des moments clés de décision en raison de délais de communication.
Les progrès de Manus mettent également en évidence les risques potentiels liés au développement de l'IA, tels que la confidentialité des données, les biais algorithmiques et les attaques adversariales. Par exemple, dans le domaine médical, les systèmes d'IA doivent accéder à des données génomiques sensibles des patients ; dans les négociations financières, des informations financières non divulguées par les entreprises peuvent être impliquées. De plus, les systèmes d'IA peuvent introduire des biais contre certains groupes lors du processus de recrutement ou faire des jugements erronés sur les clauses des secteurs émergents lors de la révision des documents juridiques. Plus sérieusement, des hackers pourraient implanter des signaux audio spécifiques, entraînant des jugements erronés de la part des systèmes d'IA lors des négociations.
Face à ces défis, les technologies de sécurité dans le domaine du Web3 pourraient offrir des solutions. Parmi elles, la technologie de chiffrement homomorphe complet (Fully Homomorphic Encryption, FHE) est considérée comme un outil puissant pour faire face aux problèmes de sécurité à l'ère de l'IA. Le FHE permet de calculer des données dans un état chiffré, ce qui signifie que les informations sensibles peuvent être traitées sans décryptage.
Au niveau des données, le chiffrement homomorphe complet (FHE) peut garantir que toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données brutes. Au niveau des algorithmes, la "formation de modèles chiffrés" réalisée par le FHE empêche même les développeurs de voir directement le processus décisionnel de l'IA. En matière de coopération entre agents multiples, l'utilisation de la technologie de chiffrement à seuil peut empêcher qu'un seul nœud soit compromis, entraînant une fuite de données globales.
Bien que la technologie de sécurité Web3 n'ait pas de lien direct avec les utilisateurs ordinaires, son importance ne doit pas être négligée. Dans ce domaine plein de défis, sans mesures de protection proactives, les utilisateurs pourraient ne jamais échapper aux risques liés à la sécurité de l'information.
Actuellement, certains projets explorent le domaine de la sécurité Web3. Par exemple, des projets ont réalisé des avancées dans l'identité décentralisée (DID) et les modèles de sécurité zéro confiance. Dans le domaine du chiffrement homomorphe complet, un projet a déjà été lancé en premier sur le réseau principal et a établi des partenariats avec plusieurs institutions renommées.
Avec les technologies de l'IA se rapprochant constamment du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Le chiffrement homomorphe complet peut non seulement résoudre les problèmes de sécurité actuels, mais aussi poser les bases d'une ère de l'IA plus puissante à l'avenir. Sur la route vers l'AGI, le chiffrement homomorphe complet n'est plus une option, mais une condition nécessaire pour assurer le développement sécurisé de l'IA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 J'aime
Récompense
12
8
Partager
Commentaire
0/400
BearMarketBuilder
· Il y a 11h
À quoi sert le chiffrement, de toute façon, ça finira par fuir.
Voir l'originalRépondre0
GateUser-c802f0e8
· Il y a 16h
L'algorithme a aussi des biais ?
Voir l'originalRépondre0
GasFeeNightmare
· Il y a 16h
Il suffit de se concentrer sur la sécurité au lieu de s'occuper de ces choses futiles.
Voir l'originalRépondre0
MercilessHalal
· Il y a 16h
chiffrement ne peut pas résoudre le problème, n'est-ce pas
Voir l'originalRépondre0
DAOTruant
· Il y a 16h
Fatigué de regarder, c'est excitant.
Voir l'originalRépondre0
SchrodingerWallet
· Il y a 17h
La sécurité et l'efficacité, il faut les deux, c'est difficile.
Voir l'originalRépondre0
OnchainFortuneTeller
· Il y a 17h
Encore un discours sur le chiffrement, je comprends un peu.
Voir l'originalRépondre0
WalletDetective
· Il y a 17h
Creuser, le trou derrière donne des cours aux gens.
Nouvelle direction pour la Sécurité de l'IA : comment le chiffrement homomorphe complet fait face aux défis posés par Manus.
Les problèmes de Sécurité de l'IA deviennent de plus en plus évidents, le chiffrement homomorphe complet pourrait être la meilleure solution.
Récemment, un système d'IA nommé Manus a obtenu des résultats révolutionnaires dans les tests de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Manus a démontré une forte capacité à traiter des tâches de manière autonome, capable de gérer des négociations commerciales complexes à l'échelle internationale, y compris l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions. Par rapport aux systèmes traditionnels, Manus présente des avantages évidents en matière de décomposition dynamique des objectifs, de raisonnement multimodal et d'apprentissage amélioré par la mémoire.
L'émergence de Manus a de nouveau suscité des discussions dans l'industrie sur le chemin de développement de l'IA : doit-on opter pour un modèle unifié d'intelligence artificielle générale (AGI) ou pour un modèle de collaboration de systèmes multi-agents (MAS) ? Ce débat reflète en réalité la problématique de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. À mesure que les systèmes d'intelligence individuelle se rapprochent progressivement du niveau AGI, le risque d'opacité dans leur processus de décision augmente également. Bien que la collaboration entre plusieurs agents puisse diversifier les risques, il est possible de manquer des moments clés de décision en raison de délais de communication.
Les progrès de Manus mettent également en évidence les risques potentiels liés au développement de l'IA, tels que la confidentialité des données, les biais algorithmiques et les attaques adversariales. Par exemple, dans le domaine médical, les systèmes d'IA doivent accéder à des données génomiques sensibles des patients ; dans les négociations financières, des informations financières non divulguées par les entreprises peuvent être impliquées. De plus, les systèmes d'IA peuvent introduire des biais contre certains groupes lors du processus de recrutement ou faire des jugements erronés sur les clauses des secteurs émergents lors de la révision des documents juridiques. Plus sérieusement, des hackers pourraient implanter des signaux audio spécifiques, entraînant des jugements erronés de la part des systèmes d'IA lors des négociations.
Face à ces défis, les technologies de sécurité dans le domaine du Web3 pourraient offrir des solutions. Parmi elles, la technologie de chiffrement homomorphe complet (Fully Homomorphic Encryption, FHE) est considérée comme un outil puissant pour faire face aux problèmes de sécurité à l'ère de l'IA. Le FHE permet de calculer des données dans un état chiffré, ce qui signifie que les informations sensibles peuvent être traitées sans décryptage.
Au niveau des données, le chiffrement homomorphe complet (FHE) peut garantir que toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données brutes. Au niveau des algorithmes, la "formation de modèles chiffrés" réalisée par le FHE empêche même les développeurs de voir directement le processus décisionnel de l'IA. En matière de coopération entre agents multiples, l'utilisation de la technologie de chiffrement à seuil peut empêcher qu'un seul nœud soit compromis, entraînant une fuite de données globales.
Bien que la technologie de sécurité Web3 n'ait pas de lien direct avec les utilisateurs ordinaires, son importance ne doit pas être négligée. Dans ce domaine plein de défis, sans mesures de protection proactives, les utilisateurs pourraient ne jamais échapper aux risques liés à la sécurité de l'information.
Actuellement, certains projets explorent le domaine de la sécurité Web3. Par exemple, des projets ont réalisé des avancées dans l'identité décentralisée (DID) et les modèles de sécurité zéro confiance. Dans le domaine du chiffrement homomorphe complet, un projet a déjà été lancé en premier sur le réseau principal et a établi des partenariats avec plusieurs institutions renommées.
Avec les technologies de l'IA se rapprochant constamment du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. Le chiffrement homomorphe complet peut non seulement résoudre les problèmes de sécurité actuels, mais aussi poser les bases d'une ère de l'IA plus puissante à l'avenir. Sur la route vers l'AGI, le chiffrement homomorphe complet n'est plus une option, mais une condition nécessaire pour assurer le développement sécurisé de l'IA.