Réseau Mira : construire une couche de confiance en IA pour résoudre les problèmes de biais et d'illusions

robot
Création du résumé en cours

La couche de confiance de l'IA : comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA

Récemment, un réseau de test public nommé Mira a été officiellement lancé, visant à construire une couche de base de confiance pour l'IA. Cela nous amène à réfléchir : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?

Lors des discussions sur l'IA, les gens se concentrent souvent sur ses puissantes capacités. Cependant, une question intéressante et digne d'attention est celle des "illusions" ou des biais de l'IA. Ce que l'on appelle l'"illusion" de l'IA, en termes simples, c'est que l'IA peut parfois "inventer" et dire des choses absurdes avec un sérieux. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait fournir une explication qui semble raisonnable mais qui est en réalité fictive.

L'IA présente des "hallucinations" ou des biais en lien avec certaines des voies technologiques actuelles de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais elle ne peut parfois pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire du contenu fictif, ce qui influence également la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.

Le mécanisme de génération de probabilités actuel et le mode de données entraînent presque inévitablement la possibilité d'illusions d'IA. Pour des contenus de connaissance générale ou de divertissement, cette sortie biaisée ou illusoire peut temporairement ne pas avoir de conséquences directes. Cependant, si cela se produit dans des domaines très rigoureux tels que la santé, le droit, l'aviation ou la finance, cela peut avoir des conséquences majeures. Par conséquent, comment résoudre les illusions et les biais de l'IA devient l'un des problèmes centraux du développement de l'IA.

Le projet Mira essaie de résoudre les problèmes de biais et d'illusions de l'IA, en construisant une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. Alors, comment Mira parvient-elle à réduire les biais et les illusions de l'IA, et à réaliser finalement une IA digne de confiance ?

La méthode clé de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira elle-même est un réseau de validation qui vérifie la fiabilité des sorties de l'IA, en s'appuyant sur le consensus de plusieurs modèles d'IA. Une autre caractéristique importante est l'utilisation d'un consensus décentralisé pour la validation.

La clé du réseau Mira réside dans la validation de consensus décentralisée, qui est l'expertise du domaine de la cryptographie. En même temps, il utilise une approche de collaboration multi-modèles, réduisant les biais et les illusions grâce à un modèle de validation collectif.

En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations, en s'assurant du comportement honnête des opérateurs de nœuds grâce à un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.

L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus pour garantir la fiabilité de la validation. La conversion de contenu est un élément clé de ce processus. Le réseau Mira décompose d'abord le contenu candidat en différentes déclarations vérifiables, qui sont distribuées par le système aux nœuds pour validation, afin de déterminer la validité des déclarations et de consolider les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, la conversion du contenu candidat en déclarations est attribuée à différents nœuds par fragmentation aléatoire, afin d'éviter les fuites d'information pendant le processus de validation.

Les opérateurs de nœuds sont responsables de l'exécution du modèle de validation, du traitement des déclarations et de la soumission des résultats de validation. Leur participation à la validation vise à obtenir des revenus, qui proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreur de l'IA, et une fois cet objectif atteint, il pourra générer une immense valeur dans des domaines tels que la santé, le droit, l'aviation et la finance. Pour prévenir les comportements spéculatifs des nœuds qui répondent de manière aléatoire, les nœuds qui s'écartent continuellement du consensus verront leur jeton de mise réduit.

Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, apportant une plus grande fiabilité aux services d'IA de ses clients, réduisant les biais et les hallucinations de l'IA, et répondant à la demande des clients pour une plus grande précision et exactitude. En même temps, tout en apportant de la valeur aux clients, elle génère des profits pour les participants du réseau Mira. En résumé, Mira cherche à construire une couche de confiance pour l'IA, ce qui favorisera le développement approfondi des applications d'IA.

Actuellement, Mira a collaboré avec plusieurs frameworks d'agents AI. Avec le lancement du réseau de test public de Mira, les utilisateurs peuvent participer aux tests en utilisant l'application de chat Klok basée sur Mira, expérimenter des sorties AI vérifiées et avoir la chance de gagner des points Mira.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 8
  • Partager
Commentaire
0/400
P2ENotWorkingvip
· 07-12 08:38
Ha, encore un concept à la mode.
Voir l'originalRépondre0
CryptoTherapistvip
· 07-11 08:45
laisser l'IA guérir le traumatisme de l'IA... étude de cas fascinante en thérapie de groupe numérique
Voir l'originalRépondre0
TokenUnlockervip
· 07-10 15:50
L'IA doit également parler de confiance maintenant.
Voir l'originalRépondre0
MondayYoloFridayCryvip
· 07-09 20:12
Tant qu'il y a de l'argent à gagner, c'est suffisant... Ne pas perdre, c'est gagner.
Voir l'originalRépondre0
AirdropFreedomvip
· 07-09 20:12
Comment contrôler la confiance en l'IA
Voir l'originalRépondre0
BlockchainRetirementHomevip
· 07-09 20:09
Au final, ce n'est que du vent.
Voir l'originalRépondre0
RugPullAlarmvip
· 07-09 20:06
C'est ce mécanisme d'incitation ? C'est exactement le même stratagème que celui des fonds de 2018.
Voir l'originalRépondre0
MEV_Whisperervip
· 07-09 19:48
Ce sont tous des escrocs, faites attention à vos fonds.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)