Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en la cadena
Resumen
fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado rápidamente el desarrollo de modelos de lenguaje grandes (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un capital sólido y control sobre recursos computacionales costosos, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a cuestiones clave como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA "tiende hacia el bien" o "tiende hacia el mal" se volverá cada vez más prominente, y las grandes corporaciones centralizadas, impulsadas por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología de blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en varias cadenas de bloques principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura todavía dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena sigue siendo limitada en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, que la cadena de bloques pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de la capa 1 de IA
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura de base y un diseño de rendimiento que se centran estrechamente en las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Un mecanismo de incentivos eficiente y un consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 necesitan asumir tareas más complejas, no solo proporcionar cómputo, completar el entrenamiento y la inferencia de modelos de IA, sino también contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea requisitos más altos para el consenso y el mecanismo de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente asignación de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de cómputo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, requieren un alto rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios múltiples. AI Layer 1 debe optimizar profundamente la arquitectura subyacente para satisfacer las necesidades de alto rendimiento, baja latencia y paralelismo flexible, y prever una capacidad de soporte nativa para recursos de cómputo heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas unidimensionales" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe asegurar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de IA. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), pruebas de conocimiento cero (ZK), y cálculo seguro multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a entender la lógica y la base de la salida de IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en los campos financiero, médico y social. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que adopta tecnologías de procesamiento de datos basadas en cifrado, protocolos de computación de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el uso indebido de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo del ecosistema Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe contar con liderazgo técnico, sino también proporcionar a los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA, herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomentará la implementación de diversas aplicaciones nativas de IA y se logrará la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, organizando sistemáticamente los últimos avances en el sector, analizando el estado de desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain de IA Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado mediante el marco "OML" (, que es abierto, rentable y leal, permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y una distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, impulsando así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros del mundo, dedicándose a construir una plataforma de AGI comunitaria, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema blockchain. Los miembros del equipo provienen de empresas reconocidas como Meta, Coinbase, Polygon, así como de instituciones de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, abarcando campos como AI/ML, NLP y visión por computadora, colaborando para llevar a cabo el proyecto.
Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su fundación, poseyendo recursos, contactos y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones inversoras, incluidas Delphi, Hashkey y Spartan, así como varias firmas de capital de riesgo reconocidas.
![Biteye y PANews publican conjuntamente un informe de investigación de AI Layer1: buscando la tierra fértil de DeAI en la cadena])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: el AI Pipeline ### y el sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de los artefactos de "IA leal", que incluye dos procesos centrales:
Curación de Datos (: Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación de modelos.
Entrenamiento de lealtad ): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.
Los sistemas de blockchain proporcionan transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacena los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo de control de contrato autorizado;
Capa de acceso: verifica si el usuario está autorizado a través de pruebas de permiso;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, implementadores y validadores.
(## Marco de modelo OML
El marco OML ) es abierto, monetizable y leal. Es la idea central propuesta por Sentient, destinada a proporcionar protección de propiedad clara y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructuras de datos transparentes, facilitando la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo desencadenará un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, desplegadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.
(## Criptografía nativa de IA)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos, desarrollando un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Inserción de huellas dactilares: durante el entrenamiento, se inserta un conjunto de pares de clave-valor de consulta-respuesta encubiertos para formar una firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella digital se conserva a través de un detector de terceros ###Prover( en forma de consulta.
Mecanismo de llamada autorizado: antes de la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta precisa.
Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
![Biteye y PANews publican conjuntamente el informe de investigación AI Layer1: buscando la tierra fértil para DeAI en la cadena])https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp###
(## Marco de ejecución segura y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución de TEE y distribución de ganancias de contratos on-chain. El método de huellas dactilares se implementa con OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista )Optimistic Security(", es decir, cumplimiento por defecto, y detección y penalización en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, aprovechando entornos de ejecución de confianza ) como AWS Nitro Enclaves ( para asegurar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en el núcleo de la implementación de modelos actuales.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
19 me gusta
Recompensa
19
5
Compartir
Comentar
0/400
SundayDegen
· 07-24 20:44
Otra base para aprovechar la lana centralizada ha llegado.
Ver originalesResponder0
GasOptimizer
· 07-24 13:59
Potencia computacional瓶颈0x5f3 又卡住了
Ver originalesResponder0
RektRecorder
· 07-24 13:57
Buscar la próxima cadena de cien veces
Ver originalesResponder0
MEVHunterBearish
· 07-24 13:50
¿Monopolio de los gigantes? ¡La revolución debe comenzar desde abajo!
Análisis profundo de la pista AI Layer1: seis proyectos que estructuran la infraestructura de AI descentralizada.
Informe de investigación de AI Layer1: Buscando la tierra fértil para DeAI en la cadena
Resumen
fondo
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado rápidamente el desarrollo de modelos de lenguaje grandes (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un capital sólido y control sobre recursos computacionales costosos, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a cuestiones clave como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA "tiende hacia el bien" o "tiende hacia el mal" se volverá cada vez más prominente, y las grandes corporaciones centralizadas, impulsadas por su instinto de lucro, a menudo carecen de la suficiente motivación para enfrentar proactivamente estos desafíos.
La tecnología de blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en varias cadenas de bloques principales. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, y los eslabones clave y la infraestructura todavía dependen de servicios en la nube centralizados, lo que dificulta el apoyo a un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA en cadena sigue siendo limitada en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de una IA descentralizada, que la cadena de bloques pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, impulsando el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de la capa 1 de IA
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, tiene una arquitectura de base y un diseño de rendimiento que se centran estrechamente en las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Un mecanismo de incentivos eficiente y un consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos abiertos como cómputo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se centran principalmente en la contabilidad del libro mayor, los nodos de AI Layer 1 necesitan asumir tareas más complejas, no solo proporcionar cómputo, completar el entrenamiento y la inferencia de modelos de IA, sino también contribuir con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea requisitos más altos para el consenso y el mecanismo de incentivos subyacentes: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente asignación de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de cómputo.
Excelente alto rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, requieren un alto rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios múltiples. AI Layer 1 debe optimizar profundamente la arquitectura subyacente para satisfacer las necesidades de alto rendimiento, baja latencia y paralelismo flexible, y prever una capacidad de soporte nativa para recursos de cómputo heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas unidimensionales" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe asegurar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de IA. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), pruebas de conocimiento cero (ZK), y cálculo seguro multiparte (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de forma independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a entender la lógica y la base de la salida de IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios con los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo involucran datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en los campos financiero, médico y social. AI Layer 1 debe garantizar la verificabilidad al mismo tiempo que adopta tecnologías de procesamiento de datos basadas en cifrado, protocolos de computación de privacidad y gestión de permisos de datos, asegurando la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el uso indebido de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo del ecosistema Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe contar con liderazgo técnico, sino también proporcionar a los participantes del ecosistema, como desarrolladores, operadores de nodos y proveedores de servicios de IA, herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomentará la implementación de diversas aplicaciones nativas de IA y se logrará la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, organizando sistemáticamente los últimos avances en el sector, analizando el estado de desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una blockchain de IA Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). A través de la combinación de AI Pipeline y tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo principal es resolver los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado mediante el marco "OML" (, que es abierto, rentable y leal, permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y una distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, impulsando así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros del mundo, dedicándose a construir una plataforma de AGI comunitaria, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema blockchain. Los miembros del equipo provienen de empresas reconocidas como Meta, Coinbase, Polygon, así como de instituciones de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, abarcando campos como AI/ML, NLP y visión por computadora, colaborando para llevar a cabo el proyecto.
Como el segundo proyecto empresarial de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su fundación, poseyendo recursos, contactos y reconocimiento en el mercado, lo que proporcionó un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras instituciones inversoras, incluidas Delphi, Hashkey y Spartan, así como varias firmas de capital de riesgo reconocidas.
![Biteye y PANews publican conjuntamente un informe de investigación de AI Layer1: buscando la tierra fértil de DeAI en la cadena])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: el AI Pipeline ### y el sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de los artefactos de "IA leal", que incluye dos procesos centrales:
Los sistemas de blockchain proporcionan transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y una gobernanza justa. La arquitectura específica se divide en cuatro capas:
(## Marco de modelo OML
El marco OML ) es abierto, monetizable y leal. Es la idea central propuesta por Sentient, destinada a proporcionar protección de propiedad clara y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
(## Criptografía nativa de IA)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos, desarrollando un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite implementar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
![Biteye y PANews publican conjuntamente el informe de investigación AI Layer1: buscando la tierra fértil para DeAI en la cadena])https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp###
(## Marco de ejecución segura y de derechos de modelo
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución de TEE y distribución de ganancias de contratos on-chain. El método de huellas dactilares se implementa con OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista )Optimistic Security(", es decir, cumplimiento por defecto, y detección y penalización en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento al incrustar pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando la copia y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, aprovechando entornos de ejecución de confianza ) como AWS Nitro Enclaves ( para asegurar que los modelos solo respondan a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en el núcleo de la implementación de modelos actuales.