Rapport de recherche sur l'IA Layer1 : à la recherche des terres fertiles pour le DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM démontrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'imagination humaine et montrant même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement détenu par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence presque impossible pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités offertes par la technologie, tandis que les préoccupations concernant la protection de la vie privée, la transparence et la sécurité, qui sont des questions essentielles, reçoivent relativement peu d'attention. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur le fait que l'IA soit "pour le bien" ou "pour le mal" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de la motivation nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, et la propriété meme est trop marquée, rendant difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte en matière d'IA, la démocratie de la gouvernance et la sécurité des données, favorisant ainsi le développement prospère de l'écosystème de l'IA décentralisée.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur d'AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur le livre de comptes, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure d'IA. Cela pose des exigences plus élevées pour le consensus sous-jacent et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support pour les tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent soutenir des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement de données, l'inférence, le stockage et d'autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de débit élevé, de faible latence et de parallélisme flexible, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI puissent fonctionner efficacement, permettant une extension fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable L'AI Layer 1 doit non seulement prévenir les malversations des modèles et la falsification des données, mais également garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau des mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme peut permettre que chaque processus d'inférence, d'entraînement et de traitement des données des modèles soit vérifiable de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. En outre, cette vérifiabilité peut aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, de prévenir efficacement les fuites et les abus de données, et d'éliminer les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité puissante d'hébergement et de soutien au développement En tant qu'infrastructure de couche 1 native de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications variées et riches natives de l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en examinant les dernières avancées du secteur, en analysant l'état de développement des projets et en discutant des tendances futures.
Sentient : construire un modèle d'IA décentralisé open source et fidèle
Aperçu du projet
Sentient est une plateforme de protocole open-source qui développe une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant la technologie AI Pipeline et la blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, afin de promouvoir un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques, des entrepreneurs en blockchain et des ingénieurs de premier plan du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent Pramod Viswanath, professeur à l'Université de Princeton, et Himanshu Tyagi, professeur à l'Institut Indien de Science, qui sont respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie et l'écosystème blockchain. Les membres de l'équipe ont des antécédents variés, allant de Meta, Coinbase, Polygon à des universités prestigieuses telles que l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'un halo, possédant de riches ressources, des connexions et une reconnaissance sur le marché, offrant un solide soutien au développement du projet. À la mi-2024, Sentient a finalisé un tour de financement de pré-série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.
![Biteye et PANews publient ensemble un rapport de recherche sur l'IA Layer1 : à la recherche d'un terreau pour DeAI off-chain])/09/images/8337Radfz2.png(
)# Conception de l'architecture et couche d'application
Infrastructure Layer
Architecture de base
L'architecture de base de Sentient est composée de deux parties : un pipeline AI et un système off-chain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Planification des données (Data Curation) : un processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus d'entraînement en accord avec l'intention de la communauté.
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : Stockage des poids du modèle et des informations d'enregistrement des empreintes.
Couche de distribution : le contrat d'autorisation contrôle l'entrée de l'appel au modèle ;
Couche d'accès : vérifier si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribuera chaque appel de paiement aux entraîneurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant les technologies off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel du modèle déclenche un flux de revenus, le contrat off-chain distribue les revenus aux formateurs, déployeurs et validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les propriétés différentiables des modèles pour développer un mécanisme de sécurité léger qui est "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifiez si l'empreinte est conservée par le biais d'un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, et le système autorisera ensuite le modèle à décoder cette entrée et à retourner une réponse précise.
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la validation de l'appartenance" sans coût de réencryption.
Modèle de certification et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : une combinaison de vérification par empreinte digitale, d'exécution TEE et de partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire la conformité par défaut, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique durant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font une technologie clé pour le déploiement des modèles actuels.
À l'avenir, Sentient prévoit d'introduire la technologie des preuves à divulgation nulle de connaissance (ZK) et du chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
![Biteye et PANews publient ensemble un rapport de recherche sur AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain]###
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
7 J'aime
Récompense
7
6
Partager
Commentaire
0/400
CommunitySlacker
· 07-25 11:33
Adorer les géants n'a pas de sens, l'innovation est ce qui compte.
Voir l'originalRépondre0
ZeroRushCaptain
· 07-24 20:00
Eh bien, ils ont monopolisé les choses au point de prendre les investisseurs détaillants pour des pigeons.
Voir l'originalRépondre0
StakeHouseDirector
· 07-24 20:00
Que font les géants de la technologie en matière de monopole ?
Voir l'originalRépondre0
SmartContractPlumber
· 07-24 19:59
Les droits de gestion de l'IA centralisée sont plus terrifiants que les vulnérabilités des contrats, qui peut les auditer ?
Voir l'originalRépondre0
VCsSuckMyLiquidity
· 07-24 19:51
Le monopole est le poison le plus toxique sur la route de l'innovation 🐸
Voir l'originalRépondre0
PriceOracleFairy
· 07-24 19:49
quand une véritable IA décentralisée, fren ? ces trucs ne sont que du bigtech en vêtements web3...
Rapport de recherche sur l'AI Layer1 : La lutte pour l'infrastructure de l'intelligence artificielle décentralisée
Rapport de recherche sur l'IA Layer1 : à la recherche des terres fertiles pour le DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment propulsé le développement rapide des modèles de langage de grande taille (LLM). Les LLM démontrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'imagination humaine et montrant même, dans certains cas, le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement détenu par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence presque impossible pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités offertes par la technologie, tandis que les préoccupations concernant la protection de la vie privée, la transparence et la sécurité, qui sont des questions essentielles, reçoivent relativement peu d'attention. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur le fait que l'IA soit "pour le bien" ou "pour le mal" deviendra de plus en plus prononcé, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent de la motivation nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, et la propriété meme est trop marquée, rendant difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et la largeur de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte en matière d'IA, la démocratie de la gouvernance et la sécurité des données, favorisant ainsi le développement prospère de l'écosystème de l'IA décentralisée.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur d'AI Layer 1 réside dans la construction d'un réseau partagé de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur le livre de comptes, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure d'IA. Cela pose des exigences plus élevées pour le consensus sous-jacent et le mécanisme d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et une allocation efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support pour les tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent soutenir des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement de données, l'inférence, le stockage et d'autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de débit élevé, de faible latence et de parallélisme flexible, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI puissent fonctionner efficacement, permettant une extension fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable L'AI Layer 1 doit non seulement prévenir les malversations des modèles et la falsification des données, mais également garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA au niveau des mécanismes de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme peut permettre que chaque processus d'inférence, d'entraînement et de traitement des données des modèles soit vérifiable de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. En outre, cette vérifiabilité peut aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans les domaines financier, médical et social, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, de prévenir efficacement les fuites et les abus de données, et d'éliminer les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité puissante d'hébergement et de soutien au développement En tant qu'infrastructure de couche 1 native de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, opérateurs de nœuds, fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un soutien opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications variées et riches natives de l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en examinant les dernières avancées du secteur, en analysant l'état de développement des projets et en discutant des tendances futures.
Sentient : construire un modèle d'IA décentralisé open source et fidèle
Aperçu du projet
Sentient est une plateforme de protocole open-source qui développe une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant la technologie AI Pipeline et la blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant ainsi aux modèles d'IA de réaliser une structure de propriété sur la chaîne, une transparence des appels et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, afin de promouvoir un écosystème de réseau d'agents d'IA équitable et ouvert.
L'équipe de Sentient Foundation réunit des experts académiques, des entrepreneurs en blockchain et des ingénieurs de premier plan du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent Pramod Viswanath, professeur à l'Université de Princeton, et Himanshu Tyagi, professeur à l'Institut Indien de Science, qui sont respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie et l'écosystème blockchain. Les membres de l'équipe ont des antécédents variés, allant de Meta, Coinbase, Polygon à des universités prestigieuses telles que l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'un halo, possédant de riches ressources, des connexions et une reconnaissance sur le marché, offrant un solide soutien au développement du projet. À la mi-2024, Sentient a finalisé un tour de financement de pré-série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.
![Biteye et PANews publient ensemble un rapport de recherche sur l'IA Layer1 : à la recherche d'un terreau pour DeAI off-chain])/09/images/8337Radfz2.png(
)# Conception de l'architecture et couche d'application
Infrastructure Layer
Architecture de base
L'architecture de base de Sentient est composée de deux parties : un pipeline AI et un système off-chain.
Le pipeline d'IA est la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant les technologies off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les propriétés différentiables des modèles pour développer un mécanisme de sécurité léger qui est "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la validation de l'appartenance" sans coût de réencryption.
Modèle de certification et cadre d'exécution sécurisée
Sentient utilise actuellement la sécurité hybride Melange : une combinaison de vérification par empreinte digitale, d'exécution TEE et de partage des bénéfices des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire la conformité par défaut, avec détection et sanction en cas de non-conformité.
Le mécanisme d'empreinte digitale est une réalisation clé d'OML, qui permet au modèle de générer une signature unique durant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable off-chain des comportements d'utilisation du modèle.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour s'assurer que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi les accès et utilisations non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font une technologie clé pour le déploiement des modèles actuels.
À l'avenir, Sentient prévoit d'introduire la technologie des preuves à divulgation nulle de connaissance (ZK) et du chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
![Biteye et PANews publient ensemble un rapport de recherche sur AI Layer1 : à la recherche de la terre fertile pour DeAI off-chain]###