Nueva estrella de AI Layer1 aparece: Sentient crea infraestructura DeAI en cadena

Informe de investigación de AI Layer1: Buscando la tierra fértil de DeAI en la cadena

Resumen

Fondo

En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando el potencial de reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un fuerte capital y el control de costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.

Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA se dirige hacia el "bien" o el "mal" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar proactivamente estos desafíos.

La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan múltiples problemas: por un lado, el grado de descentralización es limitado, los eslabones clave y la infraestructura aún dependen de servicios de nube centralizados, y la propiedad meme es demasiado pesada, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain todavía muestra limitaciones en términos de capacidad del modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.

Para lograr verdaderamente la visión de una IA descentralizada, y permitir que la blockchain soporte aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y que compita en rendimiento con soluciones centralizadas, necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta en IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil del DeAI on-chain

Las características clave de AI Layer 1

AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene su arquitectura subyacente y el diseño de rendimiento estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo sostenible y la prosperidad del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:

  1. Mecanismos de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como poder de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro del libro mayor, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando poder de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y los mecanismos de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total del poder de cálculo.

  2. Excelente rendimiento de alta eficiencia y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, imponen requisitos extremadamente altos en el rendimiento computacional y la capacidad de procesamiento paralelo. Además, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe realizar una optimización profunda en la arquitectura subyacente para satisfacer las necesidades de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y prever la capacidad de soporte nativa para recursos de computación heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas únicas" a "ecosistemas complejos y diversos".

  3. Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir el comportamiento malicioso del modelo y la manipulación de datos, sino que también debe asegurar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), pruebas de conocimiento cero (ZK) y computación segura multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sea verificable de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender la lógica y fundamentos de la salida de la IA, logrando que "lo que se obtiene sea lo deseado", aumentando la confianza y satisfacción del usuario en los productos de IA.

  4. Protección de la privacidad de datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios; en los sectores financiero, médico y social, la protección de la privacidad de datos es especialmente crítica. AI Layer 1 debe garantizar la verificabilidad mientras utiliza técnicas de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos durante todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de datos, eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.

  5. Capacidad de soporte y desarrollo de un ecosistema poderoso Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe tener una ventaja técnica, sino que también debe proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de diversas aplicaciones nativas de IA, logrando la prosperidad continua del ecosistema de IA descentralizado.

Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el sector, analizando el estado de desarrollo de los proyectos y explorando las tendencias futuras.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI on-chain

Sentient: construir modelos de IA descentralizados de código abierto y leales

Descripción del proyecto

Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain AI Layer1 ( en su etapa inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline con la tecnología blockchain, se está construyendo una economía de inteligencia artificial descentralizada. Su objetivo central es resolver los problemas de pertenencia de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona construya, colabore, posea y monetice productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.

El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase y Polygon, así como universidades de primer nivel como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP y visión por computadora, trabajando juntos para impulsar la implementación del proyecto.

Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, con abundantes recursos, contactos y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiación de semillas de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores incluidos Delphi, Hashkey y Spartan, entre decenas de conocidas firmas de capital de riesgo.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Diseño de arquitectura y capa de aplicación

Capa de infraestructura

Arquitectura central

La arquitectura central de Sentient se compone de dos partes: un canal de IA (AI Pipeline) y un sistema de blockchain.

El pipeline de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:​

  • Curación de datos (Data Curation): proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
  • Entrenamiento de Lealtad (Loyalty Training): asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.

El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:

  • Capa de almacenamiento: almacena los pesos del modelo y la información de registro de huellas dactilares;
  • Capa de distribución: entrada de llamada al modelo controlada por el contrato de autorización;
  • Capa de acceso: verifica si el usuario está autorizado a través de pruebas de permiso;
  • Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, desplegadores y validadores.

Marco de modelo OML

El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es la idea central propuesta por Sentient, con el objetivo de proporcionar una clara protección de la propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, presenta las siguientes características:

  • Apertura: El modelo debe ser de código abierto, con código y estructura de datos transparentes, lo que facilita la replicación, auditoría y mejora por parte de la comunidad.
  • Monetización: Cada llamada al modelo desencadena un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, implementadores y validadores.
  • Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de actualización y la gobernanza son decididas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.

Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil para DeAI en la cadena

Criptografía nativa de IA (AI-native Cryptography)

La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:

  • Huella digital incrustada: insertar un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar la firma única del modelo;
  • Protocolo de verificación de propiedad: verificar si la huella digital se conserva a través de un detector de terceros (Prover) en forma de consulta.
  • Mecanismo de llamada con permisos: antes de la llamada, se debe obtener un "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta correcta.

Este método permite implementar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.

Marco de ejecución segura y confirmación de derechos del modelo

Sentient actualmente utiliza la seguridad híbrida Melange: combinación de identificación por huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares se implementa en OML 1.0, enfatizando la idea de "Seguridad Optimista", es decir, se asume el cumplimiento y se puede detectar y sancionar las infracciones.

El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas en la etapa de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable de las acciones de uso del modelo.

Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución de confianza (como AWS Nitro Enclaves) para garantizar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizado. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos actuales.

En el futuro, Sentient planea introducir tecnologías de prueba de cero conocimiento (ZK) y cifrado totalmente homomórfico (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad.

DEAI-16.37%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
NullWhisperervip
· hace21h
técnicamente hablando... el enfoque de sentient parece vulnerable a los mismos viejos problemas de centralización, para ser honesto
Ver originalesResponder0
LiquidationTherapistvip
· hace21h
La investigación de antecedentes es bastante confiable.
Ver originalesResponder0
MEVHunterWangvip
· hace21h
Inteligencia artificial... controlar a la humanidad lo veo difícil~
Ver originalesResponder0
DeFiCaffeinatorvip
· hace21h
¿Por qué son tan codiciosos los gigantes centralizados?
Ver originalesResponder0
NoodlesOrTokensvip
· hace22h
¿Otra vez vienen a hacer promesas irreales, verdad?
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)