Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o desenvolvimento acelerado de modelos de linguagem de grande escala (LLM). Os LLM demonstraram uma capacidade sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando potencial para substituir o trabalho humano em certas situações. No entanto, o núcleo dessas tecnologias está nas mãos de poucos gigantes tecnológicos centralizados. Com um capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, tornando difícil para a maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, motivados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, diversas aplicações de "Web3 AI" já surgiram em algumas das principais blockchains. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam diversos problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema realmente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação necessitando de melhorias.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a na cadeia suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma na cadeia de Layer1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura de base e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo da AI Layer 1 está em construir uma rede compartilhada de recursos como poder computacional e armazenamento. Ao contrário dos nós tradicionais de blockchain que se concentram principalmente na contabilidade do livro-razão, os nós da AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecer poder computacional, completar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais altas à base de consenso e ao mecanismo de incentivo: a AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, realizando a segurança da rede e a alocação eficiente de recursos. Só assim podemos garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas A tarefa de IA, especialmente o treinamento e a inferência de LLM, impõe requisitos extremamente elevados de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo elástico, além de prever a capacidade de suporte nativo a recursos de computação heterogênea, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável O AI Layer 1 não apenas deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir, desde a camada base, a verificabilidade e alinhamento dos resultados de saída da IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma pode permitir que cada inferência de modelo, treinamento e processo de tratamento de dados sejam independentes e verificáveis, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entender a lógica e a base das saídas da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. O AI Layer 1 deve, ao garantir a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao ecossistema e desenvolvimento Como uma infraestrutura Layer 1 nativa de IA, a plataforma não deve apenas ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento, SDKs integrados, suporte à operação e mecanismos de incentivo abrangentes para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, é promovida a implementação de aplicações nativas de IA diversificadas, alcançando a contínua prosperidade do ecossistema descentralizado de IA.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços na área, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir um modelo de IA descentralizado de código aberto e leal
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está criando uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Através da combinação da AI Pipeline e da tecnologia blockchain, está construindo um ecossistema de inteligência artificial descentralizado. Seu objetivo central é resolver os problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão do Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase e Polygon, bem como em universidades de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, trabalhando juntos para levar o projeto adiante.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já chegou ao mercado com um grande prestígio, possuindo recursos abundantes, uma vasta rede de contatos e reconhecimento no mercado, o que proporciona um forte respaldo ao desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento de sementes de 85 milhões de dólares, liderada por Founders Fund, Pantera e Framework Ventures, com a participação de outras instituições de investimento, incluindo Delphi, Hashkey e várias dezenas de VCs renomados como Spartan.
Arquitetura de Design e Camada de Aplicação
Camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos "AI Leal", contendo dois processos centrais:
Planificação de Dados (Data Curation): um processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain fornece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada do modelo controlada pelo contrato de autorização;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita irá distribuir o pagamento a cada chamada para os formadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberta Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada de modelo irá desencadear um fluxo de receita, o contrato na cadeia irá distribuir os ganhos aos treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Impressão digital embutida: durante o treinamento, insere-se um conjunto de pares chave-valor de query-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital é mantida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada autorizado: antes de chamar, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Esta abordagem permite realizar "chamadas de autorização baseadas em comportamento + validação de propriedade" sem custo de re-encriptação.
Modelo de Direitos e Quadro de Execução Segura
Sentient atualmente utiliza o Melange Mistura de Segurança: combinando verificação de impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presume-se conformidade, sendo possível detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas exclusivas durante a fase de treinamento, através da incorporação de pares de "pergunta-resposta" específicos. Com essas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercialização não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos apenas respondam a solicitações autorizadas, prevenindo acessos e utilizações não autorizados. Embora o TEE dependa de hardware e apresente certas vulnerabilidades de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica totalmente (FHE), para aumentar ainda mais a proteção da privacidade e a verificabilidade, proporcionando um desenvolvimento mais maduro para a implementação descentralizada de modelos de IA.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
5
Partilhar
Comentar
0/400
JustHereForAirdrops
· 5h atrás
Vou mudar as regras do Airdrop!
Ver originalResponder0
HallucinationGrower
· 14h atrás
Eu fechei os olhos e adormeci.
Ver originalResponder0
BearMarketSurvivor
· 16h atrás
Realmente há alguma ai layer1?
Ver originalResponder0
ApeWithNoChain
· 16h atrás
Ganhei tanto, irmão! Estou me preparando para ganhar 50k por dia.
Ver originalResponder0
FunGibleTom
· 17h atrás
O que há de tão especial na monopolização da IA pelos capitalistas?
Análise Profundidade dos seis principais projetos da camada 1 de IA: Explorando novas direções para o desenvolvimento de DeAI na cadeia
Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o desenvolvimento acelerado de modelos de linguagem de grande escala (LLM). Os LLM demonstraram uma capacidade sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mostrando potencial para substituir o trabalho humano em certas situações. No entanto, o núcleo dessas tecnologias está nas mãos de poucos gigantes tecnológicos centralizados. Com um capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, tornando difícil para a maioria dos desenvolvedores e equipes de inovação competirem com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção de privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve "agir para o bem" ou "agir para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, motivados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios de forma proativa.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, diversas aplicações de "Web3 AI" já surgiram em algumas das principais blockchains. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam diversos problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema realmente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, utilização de dados e cenários de aplicação, com a profundidade e a amplitude da inovação necessitando de melhorias.
Para realmente realizar a visão de uma IA descentralizada, permitindo que a na cadeia suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma na cadeia de Layer1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura de base e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo da AI Layer 1 está em construir uma rede compartilhada de recursos como poder computacional e armazenamento. Ao contrário dos nós tradicionais de blockchain que se concentram principalmente na contabilidade do livro-razão, os nós da AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecer poder computacional, completar o treinamento e a inferência de modelos de IA, mas também contribuir com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais altas à base de consenso e ao mecanismo de incentivo: a AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, realizando a segurança da rede e a alocação eficiente de recursos. Só assim podemos garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas A tarefa de IA, especialmente o treinamento e a inferência de LLM, impõe requisitos extremamente elevados de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A AI Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo elástico, além de prever a capacidade de suporte nativo a recursos de computação heterogênea, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável O AI Layer 1 não apenas deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir, desde a camada base, a verificabilidade e alinhamento dos resultados de saída da IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma pode permitir que cada inferência de modelo, treinamento e processo de tratamento de dados sejam independentes e verificáveis, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entender a lógica e a base das saídas da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. O AI Layer 1 deve, ao garantir a verificabilidade, adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao ecossistema e desenvolvimento Como uma infraestrutura Layer 1 nativa de IA, a plataforma não deve apenas ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento, SDKs integrados, suporte à operação e mecanismos de incentivo abrangentes para desenvolvedores, operadores de nós, prestadores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, é promovida a implementação de aplicações nativas de IA diversificadas, alcançando a contínua prosperidade do ecossistema descentralizado de IA.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços na área, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir um modelo de IA descentralizado de código aberto e leal
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está criando uma blockchain AI Layer1 ( na fase inicial como Layer 2, e depois migrará para Layer 1). Através da combinação da AI Pipeline e da tecnologia blockchain, está construindo um ecossistema de inteligência artificial descentralizado. Seu objetivo central é resolver os problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão do Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia de blockchain e o layout ecológico. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase e Polygon, bem como em universidades de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como AI/ML, NLP e visão computacional, trabalhando juntos para levar o projeto adiante.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient já chegou ao mercado com um grande prestígio, possuindo recursos abundantes, uma vasta rede de contatos e reconhecimento no mercado, o que proporciona um forte respaldo ao desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento de sementes de 85 milhões de dólares, liderada por Founders Fund, Pantera e Framework Ventures, com a participação de outras instituições de investimento, incluindo Delphi, Hashkey e várias dezenas de VCs renomados como Spartan.
Arquitetura de Design e Camada de Aplicação
Camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos "AI Leal", contendo dois processos centrais:
O sistema de blockchain fornece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberta Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". A sua tecnologia central é:
Esta abordagem permite realizar "chamadas de autorização baseadas em comportamento + validação de propriedade" sem custo de re-encriptação.
Modelo de Direitos e Quadro de Execução Segura
Sentient atualmente utiliza o Melange Mistura de Segurança: combinando verificação de impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, presume-se conformidade, sendo possível detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas exclusivas durante a fase de treinamento, através da incorporação de pares de "pergunta-resposta" específicos. Com essas assinaturas, os proprietários do modelo podem verificar a propriedade, evitando cópias e comercialização não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos apenas respondam a solicitações autorizadas, prevenindo acessos e utilizações não autorizados. Embora o TEE dependa de hardware e apresente certas vulnerabilidades de segurança, suas vantagens em termos de alto desempenho e tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica totalmente (FHE), para aumentar ainda mais a proteção da privacidade e a verificabilidade, proporcionando um desenvolvimento mais maduro para a implementação descentralizada de modelos de IA.