Trusta.AI: Construcción de infraestructura de identificación y confianza Web3 para la era de los agentes de IA

Trusta.AI: Superando la brecha de confianza entre humanos y máquinas

1. Introducción

El ecosistema Web3 está avanzando hacia una nueva etapa, donde los protagonistas en la cadena podrían no ser los primeros diez mil millones de usuarios humanos, sino mil millones de Agentes de IA. Con la madurez de la infraestructura de IA y el rápido desarrollo de marcos de colaboración multiagente, los agentes en cadena impulsados por IA están convirtiéndose en la fuerza principal de la interacción en Web3. Se espera que en los próximos 2-3 años, estos Agentes de IA con capacidad de toma de decisiones autónomas adopten masivamente las transacciones e interacciones en la cadena, lo que podría reemplazar el 80% del comportamiento humano en la cadena, convirtiéndose en verdaderos "usuarios" en la cadena.

Estos agentes de IA no son solo "robots brujos" que ejecutan scripts, sino que son entidades inteligentes que pueden comprender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente, lo que está reconfigurando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La ascensión de los agentes de IA marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" a un nuevo paradigma de "simbiosis humano-máquina".

Sin embargo, el rápido surgimiento de los Agentes de IA también trae consigo desafíos sin precedentes: ¿cómo identificar y autenticar la identidad de estos agentes? ¿Cómo juzgar la credibilidad de sus acciones? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para atacar?

Por lo tanto, establecer una infraestructura en cadena para verificar la identidad y la reputación de los agentes de IA se convierte en el tema central de la siguiente etapa de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y los marcos de confianza determinarán si los agentes de IA pueden realmente colaborar sin problemas con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

2. Análisis del proyecto

2.1 Introducción del proyecto

Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.

Trusta.AI lanza el primer sistema de evaluación del valor del usuario Web3 - puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación de personas reales para las principales cadenas públicas y protocolos como Linea, Starknet, Celestia y Arbitrum. Se han completado más de 2.5 millones de certificaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.

Trusta está pasando de Proof of Humanity a Proof of AI Agent, estableciendo una triple mecánica de identidad, cuantificación y protección para los servicios financieros y sociales de AI Agent en la cadena, construyendo una base de confianza confiable en la era de la IA.

2.2 Infraestructura de confianza - Agente de IA DID

En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel importante, no solo podrán completar interacciones y transacciones en la cadena, sino que también podrán realizar operaciones complejas fuera de la cadena. La forma de distinguir entre un verdadero Agente de IA y las operaciones de intervención humana está relacionada con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son fácilmente manipulables, susceptibles a fraudes o abusos. Esta es precisamente la naturaleza multifacética de las aplicaciones de los Agentes de IA en áreas como las redes sociales, las finanzas y la gobernanza, que debe construirse sobre una sólida base de autenticación de identidad.

Como pionero en este campo, Trusta.AI, gracias a su tecnología líder y su riguroso sistema de reputación, ha construido primero un completo mecanismo de certificación DID para Agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.

Trusta.AI: El puente de la brecha de confianza entre humanos y máquinas

2.3 Resumen del proyecto

2.3.1 Situación de financiamiento

Se completó una ronda de financiación de semillas de 3 millones de dólares en enero de 2023, liderada por una determinada institución de inversión y un determinado capital, con la participación de varias instituciones de inversión reconocidas.

Se completará una nueva ronda de financiamiento en junio de 2025, con inversores que incluyen varias empresas e instituciones conocidas.

2.3.2 Situación del equipo

Los cofundadores, así como el CEO y el CTO, tienen muchos años de experiencia laboral en campos relacionados. El equipo tiene una sólida experiencia en inteligencia artificial, gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de verificación de identidad, y se ha comprometido durante mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de seguridad en el diseño de protocolos de base y en entornos de transacciones de alta concurrencia, poseyendo sólidas capacidades de ingeniería y la capacidad de implementar soluciones innovadoras.

3. Arquitectura técnica

3.1 Análisis técnico

3.1.1 Establecimiento de identidad - DID + TEE

A través de un plugin dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena, que se almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y el proceso de cálculo están completamente ocultos, las operaciones sensibles son siempre confidenciales, y el exterior no puede espiar los detalles de la operación interna, construyendo así una sólida barrera de seguridad de la información para los Agentes de IA.

Se generaron agentes antes de la integración del complemento, apoyándose en el mecanismo de puntuación integral en la cadena para la identificación de identidad; los agentes de complemento recién integrados pueden obtener directamente la "certificación de identidad" emitida por DID, estableciendo un sistema de identidad de AI Agent que es autónomo, controlable, auténtico e inalterable.

Trusta.AI: Superando la brecha de confianza entre humanos y máquinas

3.1.2 Cuantificación de identidad - Marco SIGMA pionero

El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, dedicándose a crear un sistema de certificación de identidad profesional y confiable.

El equipo de Trusta construyó y validó la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil del usuario en la cadena desde cinco dimensiones, es decir: monto de interacción (Monetary), nivel de participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).

MEDIA Score es un sistema de evaluación de valor del usuario en blockchain que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como un estándar de referencia importante para la selección de elegibilidad para la inversión en proyectos. No solo se centra en el monto de la interacción, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente la autoridad de la industria y su amplio reconocimiento.

Sobre la base de la exitosa construcción del sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se adapta mejor a la lógica de comportamiento de los agentes inteligentes.

El mecanismo de puntuación Sigma se construye sobre cinco grandes dimensiones que crean un sistema de evaluación de circuito cerrado lógico desde la "capacidad" hasta el "valor". MEDIA se centra en evaluar la participación multifacética de los usuarios humanos, mientras que Sigma se preocupa más por la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transformación de la amplitud a la profundidad, que se adapta mejor a las necesidades de los Agentes de IA.

Este sistema es progresivo, con una estructura clara, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando una evaluación cuantitativa del rendimiento y el valor de la IA, transformando las ventajas y desventajas abstractas en un sistema de puntuación específico y medible.

Actualmente, el marco SIGMA ha avanzado en la cooperación con varias redes de agentes de IA reconocidas, mostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y la construcción de sistemas de reputación, y se está convirtiendo gradualmente en el motor central para impulsar la construcción de infraestructuras de IA confiables.

Trusta.AI: Superando la brecha de confianza entre humanos y máquinas

3.1.3 Protección de identidad - Mecanismo de evaluación de confianza

En un sistema de IA verdaderamente altamente resiliente y confiable, lo más crítico no es solo el establecimiento de identidad, sino también la verificación continua de la identidad. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a agentes inteligentes ya certificados, determinando si han sido controlados ilegalmente, si han sufrido un ataque o si han sido intervenidos por humanos no autorizados. El sistema utiliza análisis de comportamiento y aprendizaje automático para identificar posibles desviaciones en el funcionamiento del agente, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.

Trusta.AI establece un mecanismo de defensa seguro siempre activo, revisando en tiempo real cada proceso de interacción para garantizar que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.

3.2 Introducción del producto

3.2.1 AgentGo

Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena, y lo califica y clasifica basado en datos de comportamiento en la cadena, construyendo un sistema de confianza verificable y rastreable para los agentes de IA. A través de este sistema, los usuarios pueden identificar y seleccionar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de agentes de IA en toda la red, y les ha otorgado identificadores descentralizados, estableciendo una plataforma unificada de índice consolidado AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.

  1. Consulta y verificación de identidad de usuarios humanos:

A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la calificación de reputación de un agente de IA para determinar su confiabilidad.

  1. AI Agent llamada automática de índice y verificación:

Las IA pueden leer directamente la interfaz de índice entre sí, logrando una rápida confirmación de identidad y reputación mutua, garantizando la seguridad en la colaboración e intercambio de información.

El Agente AI DID ya no es solo una "identidad", sino que se ha convertido en la base subyacente para construir funciones centrales como la colaboración confiable, la conformidad financiera y la gobernanza comunitaria, convirtiéndose en una infraestructura básica necesaria para el desarrollo del ecosistema nativo de IA. A medida que se construye este sistema, todos los nodos verificados y confiables forman una red interconectada, logrando una colaboración eficiente y una interconexión de funciones entre los Agentes AI.

AgentGo, como la primera infraestructura de identidad confiable para Agentes de IA, está proporcionando un apoyo fundamental e indispensable para construir un ecosistema inteligente de alta seguridad y alta colaboración.

Trusta.AI :superando la brecha de confianza entre humanos y máquinas

3.2.2 TrustGo

TrustGo es una herramienta de gestión de identidad en cadena desarrollada por Trusta, que proporciona puntuaciones según la interacción, la "edad" de la billetera, el volumen de transacciones y el monto de las transacciones, entre otros datos. Además, TrustGo ofrece parámetros relacionados con el ranking de valor en cadena, lo que facilita a los usuarios buscar activamente airdrops y mejorar su capacidad para recibir airdrops/seguimientos.

El MEDIA Score es crucial en el mecanismo de evaluación de TrustGo, ya que proporciona a los usuarios una autoevaluación de su capacidad de actividad. El sistema de evaluación del MEDIA Score no solo incluye indicadores simples como la cantidad y el monto de las interacciones de los usuarios con contratos inteligentes, protocolos y dApps, sino que también presta atención a la forma de comportamiento del usuario. A través del MEDIA Score, los usuarios pueden comprender más a fondo sus actividades y valores en la cadena, y los equipos de proyectos pueden asignar recursos e incentivos de manera precisa a los usuarios que realmente contribuyen.

TrustGo está transitando gradualmente de un mecanismo de identidad MEDIA orientado a humanos a un marco de confianza SIGMA orientado a agentes de IA, para adaptarse a las necesidades de verificación de identidad y evaluación de reputación en la era de los agentes inteligentes.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

3.2.3 TrustScan

El sistema TrustScan es una solución de verificación de identidad para la nueva era de Web3, cuyo objetivo principal es identificar con precisión si una entidad en la cadena es un ser humano, un agente AI o una bruja. Utiliza un mecanismo de doble verificación basado en conocimiento + análisis de comportamiento, enfatizando el papel clave del comportamiento del usuario en la identificación de la identidad.

TrustScan también puede generar preguntas impulsadas por AI y detectar la participación, logrando una verificación de humanidad ligera, y basándose en un entorno TEE, garantizando la privacidad del usuario y la seguridad de los datos, logrando un mantenimiento continuo de la identidad. Este mecanismo construye un sistema de identidad básico "verificable, sostenible y con protección de la privacidad".

Con el auge masivo de los Agentes de IA, TrustScan está actualizando su mecanismo de reconocimiento de huellas dactilares de comportamiento a uno más inteligente. Este mecanismo cuenta con tres grandes ventajas tecnológicas:

  • Unicidad: a través de características de comportamiento como rutas de operación en la interacción del usuario, trayectorias del mouse, frecuencia de transacciones, se forma un patrón de comportamiento único.
  • Dinamismo: el sistema puede identificar automáticamente la evolución de los hábitos de comportamiento a lo largo del tiempo y ajustar dinámicamente los parámetros de autenticación para garantizar la validez a largo plazo de la identidad;
  • Discreción: No se requiere que el usuario participe activamente, el sistema puede completar la recolección y análisis de comportamientos en segundo plano, equilibrando la experiencia del usuario y la seguridad.

Además, TrustScan también ha implementado un sistema de detección de comportamientos anómalos, que se utiliza para identificar riesgos potenciales de manera oportuna, como el control malicioso de IA, operaciones no autorizadas, etc., garantizando efectivamente la disponibilidad de la plataforma y su capacidad de resistencia a ataques.

Trusta.AI :superando la brecha de confianza entre humanos y máquinas

4. Modelo de tokens y mecanismos económicos

4.1 economía de tokens

  • Ticker : $TA
  • Suministro total de 1.000 millones
  • Incentivos comunitarios: 25%
  • Reserva de la fundación: 20%
  • Equipo: 18%
  • Mercado y asociaciones: 13%
  • Inversión semilla: 9%
  • Inversión estratégica:4%
  • Consultores, liquidez y airdrop: 3%
  • Oferta pública:2%

4.2 utilidad del token

$TA es Trusta.

TA-5.26%
AGENT0.57%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 7
  • Compartir
Comentar
0/400
ShitcoinConnoisseurvip
· 07-23 13:50
Otra vez dibujando promesas, ¿cuánto valen todas estas palabras?
Ver originalesResponder0
StakeHouseDirectorvip
· 07-23 13:47
Hay que decirlo, no hay que esperar todo de los Bots.
Ver originalesResponder0
SundayDegenvip
· 07-23 13:47
La IA probablemente nos aniquilará.
Ver originalesResponder0
FloorPriceWatchervip
· 07-23 13:43
Temblores, los Bots van a robarme el trabajo.
Ver originalesResponder0
WalletDetectivevip
· 07-23 13:38
¿Viene otra aplicación de nivel asesino?
Ver originalesResponder0
ReverseTradingGuruvip
· 07-23 13:34
Acumula alimentos y moneda, prepárate para el enriquecimiento. La inteligencia artificial es aterradora.
Ver originalesResponder0
CantAffordPancakevip
· 07-23 13:23
Mil millones de ai tienen más dinero que yo
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)