Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Fundo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de Modelos de Linguagem de Grande Escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversas indústrias, expandindo enormemente o espaço da imaginação humana e até mesmo mostrando potencial para substituir o trabalho humano em certas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes da tecnologia centralizados. Com capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras difíceis de superar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões impactarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, as controvérsias sobre se a IA deve "fazer o bem" ou "fazer o mal" tornar-se-ão cada vez mais proeminentes, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, diversas aplicações "Web3 AI" já surgiram em algumas blockchains populares. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas críticas ainda dependendo de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação a serem aprimoradas.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em grande escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, com o objetivo de apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede de compartilhamento de recursos abertos, como poder computacional e armazenamento. Diferente dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecer poder computacional, completar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio de gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e o mecanismo de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente dos recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo geral do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um alto desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A camada de IA 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo flexível, e deve prever a capacidade de suporte nativo a recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A camada de IA Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir, a partir da mecânica subjacente, a verificabilidade e alinhamento dos resultados da saída da IA. Ao integrar tecnologias de ponta, como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentemente verificáveis, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a esclarecer a lógica e a base das saídas da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve, ao garantir a verificabilidade, empregar técnicas de processamento de dados baseadas em criptografia, protocolos de computação em privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas Como infraestrutura Layer 1 nativa de IA, a plataforma não apenas deve possuir liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós e prestadores de serviços de IA, entre outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e expectativas acima, este artigo apresentará em detalhe seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes avanços na área, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, está a construir uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver questões de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA implementem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de agentes de IA justo e aberto.
A equipa da Sentient Foundation reúne os principais especialistas académicos, empreendedores de blockchain e engenheiros de todo o mundo, dedicando-se a construir uma plataforma AGI que seja impulsionada pela comunidade, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, co-fundador da Polygon, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipa têm experiências em empresas conhecidas como Meta, Coinbase, Polygon, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já nasceu com um brilho especial, possuindo recursos abundantes, conexões e reconhecimento de mercado, fornecendo um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de renomados VCs como Spartan.
Arquitetura de Design e Camada de Aplicação
Infraestrutura
Arquitetura central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:
Planeamento de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain fornece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: o contrato de autorização controla a entrada da chamada do modelo;
Camada de acesso: valida se o usuário está autorizado através da prova de permissão;
Camada de incentivo: O contrato de roteamento de收益 distribuirá o pagamento a cada chamada entre o treinador, o implementador e o validador.
Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é a ideia central proposta pela Sentient, destinada a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Combinando tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser open source, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada de modelo desencadeia um fluxo de receita, o contrato na cadeia distribui os rendimentos aos treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pelo DAO, e o uso e modificação estão sob o controle de mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares chave-valor de query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi preservada através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de autorização: é necessário obter um "certificado de autorização" emitido pelo proprietário do modelo antes da chamada, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Este método permite a implementação de "chamadas autorizadas baseadas em comportamentos + validação de propriedade" sem custos de re-encriptação.
Modelo de direitos de propriedade e estrutura de execução segura
Sentient atualmente usa Melange segurança mista: combinação de verificação de identidade por impressões digitais, execução TEE e contratos inteligentes na cadeia. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, presume-se a conformidade e, em caso de violação, pode ser detectada e punida.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento, através da incorporação de pares de "pergunta-resposta" específicos. Com essas assinaturas, o proprietário do modelo pode validar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para reforçar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
 e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
3
Compartilhar
Comentário
0/400
YieldChaser
· 5h atrás
A camada 1 do AI Layer1 é isso!
Ver originalResponder0
PoolJumper
· 5h atrás
Agora os vc estão todos a entrar no campo da ai Até à lua
Panorama da corrida Layer1 de IA: a disputa pela infraestrutura de IA Descentralização
Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Fundo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de Modelos de Linguagem de Grande Escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversas indústrias, expandindo enormemente o espaço da imaginação humana e até mesmo mostrando potencial para substituir o trabalho humano em certas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de poucos gigantes da tecnologia centralizados. Com capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras difíceis de superar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões impactarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, as controvérsias sobre se a IA deve "fazer o bem" ou "fazer o mal" tornar-se-ão cada vez mais proeminentes, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, geralmente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, diversas aplicações "Web3 AI" já surgiram em algumas blockchains populares. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas críticas ainda dependendo de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação a serem aprimoradas.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a blockchain suporte aplicações de IA em grande escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, com o objetivo de apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades essenciais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede de compartilhamento de recursos abertos, como poder computacional e armazenamento. Diferente dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecer poder computacional, completar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio de gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e o mecanismo de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente dos recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo geral do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um alto desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A camada de IA 1 deve ser profundamente otimizada na arquitetura subjacente para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo flexível, e deve prever a capacidade de suporte nativo a recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A camada de IA Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir, a partir da mecânica subjacente, a verificabilidade e alinhamento dos resultados da saída da IA. Ao integrar tecnologias de ponta, como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentemente verificáveis, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a esclarecer a lógica e a base das saídas da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve, ao garantir a verificabilidade, empregar técnicas de processamento de dados baseadas em criptografia, protocolos de computação em privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte e desenvolvimento de ecossistemas Como infraestrutura Layer 1 nativa de IA, a plataforma não apenas deve possuir liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós e prestadores de serviços de IA, entre outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversificadas, alcançando a prosperidade contínua de um ecossistema de IA descentralizado.
Com base no contexto e expectativas acima, este artigo apresentará em detalhe seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes avanços na área, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, está a construir uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver questões de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA implementem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de agentes de IA justo e aberto.
A equipa da Sentient Foundation reúne os principais especialistas académicos, empreendedores de blockchain e engenheiros de todo o mundo, dedicando-se a construir uma plataforma AGI que seja impulsionada pela comunidade, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, co-fundador da Polygon, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipa têm experiências em empresas conhecidas como Meta, Coinbase, Polygon, bem como nas principais universidades como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já nasceu com um brilho especial, possuindo recursos abundantes, conexões e reconhecimento de mercado, fornecendo um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e dezenas de renomados VCs como Spartan.
Arquitetura de Design e Camada de Aplicação
Infraestrutura
Arquitetura central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA Leal", contendo dois processos principais:
O sistema de blockchain fornece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é a ideia central proposta pela Sentient, destinada a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Combinando tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Este método permite a implementação de "chamadas autorizadas baseadas em comportamentos + validação de propriedade" sem custos de re-encriptação.
Modelo de direitos de propriedade e estrutura de execução segura
Sentient atualmente usa Melange segurança mista: combinação de verificação de identidade por impressões digitais, execução TEE e contratos inteligentes na cadeia. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, presume-se a conformidade e, em caso de violação, pode ser detectada e punida.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas durante a fase de treinamento, através da incorporação de pares de "pergunta-resposta" específicos. Com essas assinaturas, o proprietário do modelo pode validar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que o modelo responda apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para reforçar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
![Biteye e PANews publicam em conjunto um relatório de pesquisa sobre AI Layer1: procurando o solo fértil para DeAI na cadeia](