AI Layer1: Encontrar o solo fértil para DeAI na cadeia
Resumo
Nos últimos anos, grandes empresas de tecnologia como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM têm demonstrado capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação de alto custo, essas empresas construíram barreiras quase intransponíveis, dificultando a competição para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, diversas aplicações de "Web3 AI" já surgiram em algumas blockchains mainstream. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas-chave ainda dependem de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, sendo necessária uma melhoria na profundidade e na amplitude da inovação.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e rivalizando em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede compartilhada de recursos abertos, como poder de computação e armazenamento. Ao contrário dos nós tradicionais da blockchain, que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder de computação e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso e o mecanismo de incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão as contribuições reais dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder de computação.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem requisitos extremamente altos sobre o desempenho computacional e a capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar tipos de tarefas diversificadas e heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários variados. O AI Layer 1 deve ser otimizado em profundidade na arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo flexível, e deve prever a capacidade de suporte nativa a recursos de computação heterogênea, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente e permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A camada de IA 1 não só deve prevenir a má conduta do modelo e a adulteração de dados, mas também deve garantir, a partir da mecânica de base, a verificabilidade e alinhamento dos resultados da saída de IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma permite que cada inferência, treinamento e processo de manipulação de dados do modelo possam ser verificados de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e os fundamentos da saída da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve garantir a verificabilidade enquanto adota tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente a divulgação e o uso indevido de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter liderança técnica, mas também oferecer ferramentas de desenvolvimento, SDKs integrados, suporte operacional e mecanismos de incentivo completos para desenvolvedores, operadores de nós, fornecedores de serviços de IA e outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promovemos a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços na pista, analisando o estado atual dos projetos e discutindo as tendências futuras.
Sentient: construir modelos de IA descentralizados e de código aberto com lealdade
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está a desenvolver uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, visa construir uma economia descentralizada de inteligência artificial. O seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, tornem as chamadas transparentes e a distribuição de valor lucrativa. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção de privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com um halo, possuindo recursos, contatos e reconhecimento de mercado abundantes, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outras instituições investidoras incluindo Delphi, Hashkey e várias dezenas de VCs renomados como Spartan.
Arquitetura de Design e Camada de Aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treino de artefatos de "IA leal", contendo dois processos centrais:
Planeamento de Dados (Data Curation): Processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com a intenção da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica divide-se em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: o contrato de autorização controla a entrada das chamadas do modelo;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita distribuirá o pagamento a cada chamada para os treinadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberta Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara da propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, apresenta as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo desencadeia um fluxo de receita, o contrato na cadeia distribuirá os lucros para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pelo DAO, e o uso e a modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as propriedades diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Impressão digital embutida: durante o treinamento, insere-se um conjunto de pares chave-valor de query-response ocultos para formar uma assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi mantida através de um detector de terceiros (Prover) na forma de perguntas de query;
Mecanismo de chamada de permissão: antes da chamada, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar essa entrada e retornar a resposta correta.
Este método pode realizar "chamadas autorizadas baseadas em comportamento + validação de pertencimento" sem custos de recriptografia.
Modelo de confirmação de direitos e framework de execução segura
Sentient atualmente utiliza a segurança Melange misturada: combinando a verificação de direitos de propriedade por impressão digital, execução TEE e distribuição de lucros de contratos na cadeia. O método de impressão digital é a implementação principal da OML 1.0, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presume conformidade, podendo detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que através da incorporação de pares específicos de "pergunta-resposta" permite que o modelo gere assinaturas únicas na fase de treinamento. Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e capacidade em tempo real fazem dele a tecnologia central para a implementação atual de modelos.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
8 Curtidas
Recompensa
8
5
Compartilhar
Comentário
0/400
DeFi_Dad_Jokes
· 15h atrás
Esta panela de ferro vai acabar~
Ver originalResponder0
AirdropATM
· 07-26 13:52
Monopólio monopólio, mataram o pai.
Ver originalResponder0
OneBlockAtATime
· 07-26 13:44
web3 democracia e liberdade são o caminho certo!
Ver originalResponder0
GasFeeCry
· 07-26 13:43
Não tem jeito, os gigantes enlouqueceram.
Ver originalResponder0
CodeSmellHunter
· 07-26 13:35
Outra oportunidade para um oligárquico tecnológico fazer as pessoas de parvas chegou.
AI Layer1: Desbloquear a nova oportunidade no ecossistema de IA descentralizada
AI Layer1: Encontrar o solo fértil para DeAI na cadeia
Resumo
Nos últimos anos, grandes empresas de tecnologia como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM têm demonstrado capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação de alto custo, essas empresas construíram barreiras quase intransponíveis, dificultando a competição para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, diversas aplicações de "Web3 AI" já surgiram em algumas blockchains mainstream. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas-chave ainda dependem de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, sendo necessária uma melhoria na profundidade e na amplitude da inovação.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e rivalizando em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede compartilhada de recursos abertos, como poder de computação e armazenamento. Ao contrário dos nós tradicionais da blockchain, que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder de computação e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso e o mecanismo de incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão as contribuições reais dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Só assim se pode garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder de computação.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem requisitos extremamente altos sobre o desempenho computacional e a capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar tipos de tarefas diversificadas e heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários variados. O AI Layer 1 deve ser otimizado em profundidade na arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo flexível, e deve prever a capacidade de suporte nativa a recursos de computação heterogênea, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente e permitindo uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável A camada de IA 1 não só deve prevenir a má conduta do modelo e a adulteração de dados, mas também deve garantir, a partir da mecânica de base, a verificabilidade e alinhamento dos resultados da saída de IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma permite que cada inferência, treinamento e processo de manipulação de dados do modelo possam ser verificados de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e os fundamentos da saída da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve garantir a verificabilidade enquanto adota tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente a divulgação e o uso indevido de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter liderança técnica, mas também oferecer ferramentas de desenvolvimento, SDKs integrados, suporte operacional e mecanismos de incentivo completos para desenvolvedores, operadores de nós, fornecedores de serviços de IA e outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promovemos a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços na pista, analisando o estado atual dos projetos e discutindo as tendências futuras.
Sentient: construir modelos de IA descentralizados e de código aberto com lealdade
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está a desenvolver uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, visa construir uma economia descentralizada de inteligência artificial. O seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, tornem as chamadas transparentes e a distribuição de valor lucrativa. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção de privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com um halo, possuindo recursos, contatos e reconhecimento de mercado abundantes, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outras instituições investidoras incluindo Delphi, Hashkey e várias dezenas de VCs renomados como Spartan.
Arquitetura de Design e Camada de Aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treino de artefatos de "IA leal", contendo dois processos centrais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica divide-se em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberta Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara da propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, apresenta as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as propriedades diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Este método pode realizar "chamadas autorizadas baseadas em comportamento + validação de pertencimento" sem custos de recriptografia.
Modelo de confirmação de direitos e framework de execução segura
Sentient atualmente utiliza a segurança Melange misturada: combinando a verificação de direitos de propriedade por impressão digital, execução TEE e distribuição de lucros de contratos na cadeia. O método de impressão digital é a implementação principal da OML 1.0, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presume conformidade, podendo detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que através da incorporação de pares específicos de "pergunta-resposta" permite que o modelo gere assinaturas únicas na fase de treinamento. Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e capacidade em tempo real fazem dele a tecnologia central para a implementação atual de modelos.