Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado una capacidad sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando el potencial de reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un capital sólido y el control sobre costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se abordan adecuadamente, la controversia sobre si la IA debe "ser buena" o "ser mala" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en algunas de las principales blockchains. Sin embargo, un análisis más profundo revela que estos proyectos todavía enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, los eslabones críticos y la infraestructura aún dependen de servicios en la nube centralizados, y la propiedad meme es demasiado pronunciada, lo que dificulta el soporte de un ecosistema realmente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain aún muestra limitaciones en aspectos como la capacidad del modelo, la utilización de datos y los escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan mejorar.
Para lograr verdaderamente la visión de la inteligencia artificial descentralizada, es necesario que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y que rivalice en rendimiento con las soluciones centralizadas. Necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Las características centrales de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y el diseño de rendimiento están estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismo de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro contable, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean exigencias muy altas en cuanto a rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizarse profundamente en su arquitectura subyacente para cumplir con las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y prever la capacidad de soporte nativo para recursos computacionales heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas homogéneas" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), pruebas de conocimiento cero (ZK) y computación segura multipartita (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sea verificado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de la salida de la IA, logrando que "lo obtenido sea lo deseado", lo que aumenta la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en los campos financiero, médico y social. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, garantizando al mismo tiempo la verificabilidad, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de los datos, eliminando así las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo para el ecosistema Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe contar con liderazgo técnico, sino también proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo e incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado de desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir un modelo de IA descentralizado de código abierto y leal
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una cadena de bloques AI Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología de blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es abordar los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad on-chain, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI comunitaria, de código abierto y verificable. Los miembros clave incluyen al profesor de la Universidad de Princeton, Pramod Viswanath, y al profesor del Instituto Indio de Ciencias, Himanshu Tyagi, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y la disposición ecológica. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP, visión por computadora, y colaborando para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de conocidas firmas de capital de riesgo como Delphi, Hashkey y Spartan.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un pipeline de IA (AI Pipeline) y un sistema de blockchain.
El pipeline de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
Curación de Datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de lealtad (Loyalty Training): asegurarse de que el modelo mantenga un proceso de entrenamiento alineado con las intenciones de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: modelo de almacenamiento de pesos y información de registro de huellas dactilares;
Capa de distribución: entrada de llamada al modelo controlada por contrato de autorización;
Capa de acceso: verifica si el usuario está autorizado a través de la prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago en cada llamada a los entrenadores, implementadores y validadores.
Marco de modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una protección de propiedad clara y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con código y estructuras de datos transparentes, lo que facilita la reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo desencadenará un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, desplegadores y validadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por la DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero que es "verificable pero no removible". Su tecnología central es:
Huella dactilar incrustada: Inserción de un conjunto de pares clave-valor de consulta-respuesta ocultos durante el entrenamiento para formar la firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva mediante un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada con licencia: antes de realizar la llamada, es necesario obtener un "certificado de autorización" emitido por el propietario del modelo; el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta precisa.
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
Marco de derechos de modelo y ejecución segura
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y contratos en cadena para la distribución de beneficios. El método de huellas dactilares se implementa en la línea principal de OML 1.0, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con la posibilidad de detección y penalización en caso de incumplimiento.
El mecanismo de huellas dactilares es la implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento mediante la integración de pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias y comercializaciones no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que el modelo solo responda a solicitudes autorizadas, evitando accesos y usos no autorizados. Aunque el TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.
En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.
 y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
7 me gusta
Recompensa
7
6
Compartir
Comentar
0/400
CommunitySlacker
· 07-25 11:33
Adorar a los gigantes no tiene sentido, la innovación es lo que tiene futuro.
Ver originalesResponder0
ZeroRushCaptain
· 07-24 20:00
Vaya, este monopolio nos está tomando a la gente por tonta como si fuéramos tontos.
Ver originalesResponder0
StakeHouseDirector
· 07-24 20:00
¿Qué están haciendo los gigantes tecnológicos con el monopolio?
Ver originalesResponder0
SmartContractPlumber
· 07-24 19:59
Los permisos de gestión de la IA centralizada son más aterradores que las vulnerabilidades de los contratos, ¿quién puede auditarlos?
Ver originalesResponder0
VCsSuckMyLiquidity
· 07-24 19:51
El monopolio es el veneno más tóxico en el camino de la innovación 🐸
Ver originalesResponder0
PriceOracleFairy
· 07-24 19:49
¿Cuándo habrá una verdadera IA descentralizada, fren? Esta cosa es solo bigtech disfrazada de web3...
Informe de investigación de AI Layer1: la lucha por la infraestructura de inteligencia artificial descentralizada
Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado una capacidad sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando el potencial de reemplazar el trabajo humano en ciertos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por un pequeño número de gigantes tecnológicos centralizados. Con un capital sólido y el control sobre costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta que la gran mayoría de los desarrolladores y equipos de innovación puedan competir con ellas.
Al mismo tiempo, en las primeras etapas de la rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que ofrece la tecnología, mientras que la atención a cuestiones centrales como la protección de la privacidad, la transparencia y la seguridad es relativamente insuficiente. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se abordan adecuadamente, la controversia sobre si la IA debe "ser buena" o "ser mala" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar estos desafíos de manera proactiva.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en algunas de las principales blockchains. Sin embargo, un análisis más profundo revela que estos proyectos todavía enfrentan muchos problemas: por un lado, el grado de descentralización es limitado, los eslabones críticos y la infraestructura aún dependen de servicios en la nube centralizados, y la propiedad meme es demasiado pronunciada, lo que dificulta el soporte de un ecosistema realmente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain aún muestra limitaciones en aspectos como la capacidad del modelo, la utilización de datos y los escenarios de aplicación, y la profundidad y amplitud de la innovación necesitan mejorar.
Para lograr verdaderamente la visión de la inteligencia artificial descentralizada, es necesario que la blockchain pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y que rivalice en rendimiento con las soluciones centralizadas. Necesitamos diseñar una blockchain Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Las características centrales de AI Layer 1
AI Layer 1, como una cadena de bloques diseñada específicamente para aplicaciones de IA, su arquitectura subyacente y el diseño de rendimiento están estrechamente alineados con las necesidades de las tareas de IA, con el objetivo de apoyar de manera eficiente el desarrollo y la prosperidad sostenible del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe poseer las siguientes capacidades clave:
Mecanismo de incentivos eficientes y consenso descentralizado El núcleo de AI Layer 1 radica en construir una red compartida de recursos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro contable, los nodos de AI Layer 1 deben asumir tareas más complejas, no solo proporcionando potencia de cálculo y completando el entrenamiento e inferencia de modelos de IA, sino también contribuyendo con almacenamiento, datos, ancho de banda y otros recursos diversificados, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso subyacente y el mecanismo de incentivos: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo de esta manera se puede garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelentes capacidades de alto rendimiento y soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, plantean exigencias muy altas en cuanto a rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA en cadena a menudo necesita soportar una variedad de tipos de tareas heterogéneas, que incluyen diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. La Capa 1 de IA debe optimizarse profundamente en su arquitectura subyacente para cumplir con las demandas de alta capacidad de procesamiento, baja latencia y paralelismo elástico, y prever la capacidad de soporte nativo para recursos computacionales heterogéneos, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida de "tareas homogéneas" a "ecosistemas complejos y diversos".
Verificabilidad y garantía de salida confiable La Capa 1 de IA no solo debe prevenir la malicia del modelo, la manipulación de datos y otros riesgos de seguridad, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de la IA. Al integrar tecnologías de vanguardia como el entorno de ejecución confiable (TEE), pruebas de conocimiento cero (ZK) y computación segura multipartita (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sea verificado de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a aclarar la lógica y la base de la salida de la IA, logrando que "lo obtenido sea lo deseado", lo que aumenta la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA a menudo implican datos sensibles de los usuarios, siendo la protección de la privacidad de los datos especialmente crítica en los campos financiero, médico y social. AI Layer 1 debe adoptar tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación privada y gestión de permisos de datos, garantizando al mismo tiempo la verificabilidad, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo efectivamente la filtración y el uso indebido de los datos, eliminando así las preocupaciones de los usuarios sobre la seguridad de los datos.
Potente capacidad de soporte y desarrollo para el ecosistema Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe contar con liderazgo técnico, sino también proporcionar a los desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo e incentivos. A través de la optimización continua de la usabilidad de la plataforma y la experiencia del desarrollador, se fomenta la implementación de aplicaciones nativas de IA diversas y ricas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas anteriores, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluyendo Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado de desarrollo de los proyectos y explorando las tendencias futuras.
Sentient: Construir un modelo de IA descentralizado de código abierto y leal
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está creando una cadena de bloques AI Layer1 ( en su fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar AI Pipeline y tecnología de blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es abordar los problemas de propiedad del modelo, seguimiento de llamadas y distribución de valor en el mercado de LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad on-chain, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquiera pueda construir, colaborar, poseer y monetizar productos de IA, promoviendo así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los mejores expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicándose a construir una plataforma de AGI comunitaria, de código abierto y verificable. Los miembros clave incluyen al profesor de la Universidad de Princeton, Pramod Viswanath, y al profesor del Instituto Indio de Ciencias, Himanshu Tyagi, quienes son responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia blockchain y la disposición ecológica. Los antecedentes de los miembros del equipo abarcan empresas reconocidas como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP, visión por computadora, y colaborando para impulsar la implementación del proyecto.
Como el segundo proyecto emprendedor de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un halo desde su creación, contando con abundantes recursos, conexiones y reconocimiento en el mercado, lo que proporciona un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con la participación de otras decenas de conocidas firmas de capital de riesgo como Delphi, Hashkey y Spartan.
Diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura central
La arquitectura central de Sentient se compone de dos partes: un pipeline de IA (AI Pipeline) y un sistema de blockchain.
El pipeline de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco de modelo OML
El marco OML (Abierto Open, Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una protección de propiedad clara y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar la tecnología on-chain y la criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero que es "verificable pero no removible". Su tecnología central es:
Este método permite realizar "llamadas autorizadas basadas en el comportamiento + verificación de pertenencia" sin costos de re-encriptación.
Marco de derechos de modelo y ejecución segura
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de huellas dactilares, ejecución TEE y contratos en cadena para la distribución de beneficios. El método de huellas dactilares se implementa en la línea principal de OML 1.0, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, cumplimiento por defecto, con la posibilidad de detección y penalización en caso de incumplimiento.
El mecanismo de huellas dactilares es la implementación clave de OML, que permite al modelo generar firmas únicas durante la fase de entrenamiento mediante la integración de pares específicos de "pregunta-respuesta". A través de estas firmas, el propietario del modelo puede verificar la pertenencia, evitando copias y comercializaciones no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para asegurar que el modelo solo responda a solicitudes autorizadas, evitando accesos y usos no autorizados. Aunque el TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas de alto rendimiento y tiempo real lo convierten en la tecnología central para el despliegue actual de modelos.
En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado homomórfico completo (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad, proporcionando soluciones más maduras para el despliegue descentralizado de modelos de IA.
![Biteye y PANews publican conjuntamente un informe de investigación sobre AI Layer1: buscando la tierra fértil de DeAI on-chain](