AI Layer1 Arena: Encontrar o solo fértil para o DeAI na cadeia
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o desenvolvimento acelerado de modelos de linguagem de grande escala (LLM). Os LLM demonstram capacidades sem precedentes em diversos setores, ampliando enormemente o espaço da imaginação humana e até mesmo mostrando potencial para substituir o trabalho humano em certas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de superar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem adequadamente resolvidos, a controvérsia sobre se a IA deve "servir ao bem" ou "servir ao mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, movidos por um instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar proativamente esses desafios.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações "Web3 AI" em algumas blockchains populares. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas críticas ainda dependentes de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a na cadeia suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma na cadeia de Layer1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Em termos concretos, a AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivos eficientes e consenso descentralizado
O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos, como potência computacional e armazenamento, de forma aberta. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade do livro razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não só incluem fornecer potência computacional e realizar o treinamento e a inferência de modelos de IA, mas também contribuir com recursos diversificados como armazenamento, dados e largura de banda, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso subjacente e os mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós nas tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a eficiente alocação de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente os custos globais de potência computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas
As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente altos. Além disso, o ecossistema de IA na cadeia frequentemente também precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A camada de IA deve ser profundamente otimizada na arquitetura subjacente para atender à demanda por alta taxa de transferência, baixa latência e paralelismo elástico, e deve prever a capacidade nativa de suporte a recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável
O AI Layer 1 não só deve prevenir riscos de segurança como modelos mal-intencionados e manipulação de dados, mas também garantir, desde a mecânica de base, a verificabilidade e alinhamento dos resultados gerados pela IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e cálculos seguros multipartes (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, assegurando a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também ajuda os usuários a entenderem a lógica e os fundamentos das saídas da IA, realizando o "que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados
As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve, ao garantir a verificabilidade, empregar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, para assegurar a segurança dos dados em todo o processo de raciocínio, treino e armazenamento, prevenindo eficazmente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica
Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também proporcionar ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós, provedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de aplicações ricas e diversificadas nativas de IA, alcançando uma prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os avanços mais recentes da área, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados e de código aberto fiéis
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, depois será migrada para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, está a construir uma economia descentralizada de inteligência artificial. O seu objetivo central é resolver os problemas de atribuição de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o ecossistema. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, além de universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com uma aura especial, possuindo recursos, conexões e reconhecimento de mercado abundantes, o que proporcionou um sólido respaldo para o desenvolvimento do projeto. No meio de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento incluindo Delphi, Hashkey e Spartan, entre várias outras VCs renomadas.
arquitetura de design e camada de aplicação
Camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de na cadeia.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", contendo dois processos principais:
Planeamento de Dados (Data Curation): processo de seleção de dados orientado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com a intenção da comunidade.
O sistema de blockchain oferece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento do uso, a distribuição de receitas e uma governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada de modelo controlada por contrato de autorização;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita distribuirá o pagamento a cada chamada para o treinador, o implantador e o validador.
Estrutura do Modelo OML
A estrutura OML (Open, Monetizable, Loyal) é a ideia central proposta pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, apresenta as seguintes características:
Abertura: O modelo deve ser de código aberto, com o código e a estrutura de dados transparentes, facilitando a replicação, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo desencadeia um fluxo de receitas, o contrato na cadeia distribui os rendimentos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação estão sujeitos ao controle de mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as propriedades diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares de chave-valor de query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi mantida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: antes da chamada, é necessário obter o "certificado de permissão" emitido pelo proprietário do modelo, e o sistema autoriza o modelo a decodificar a entrada e retornar a resposta correta com base nisso.
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamentos + validação de propriedade" sem custos adicionais de recriptografia.
Modelo de atribuição de direitos e estrutura de execução segura
A Sentient atualmente adota a segurança Melange misturada: uma combinação de verificação de identidade por impressão digital, execução TEE e partilha de lucros de contratos na cadeia. O método de impressão digital é implementado pela OML 1.0 como linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, conformidade por padrão, com detecção e punição possíveis em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas na fase de treinamento, incorporando pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode verificar a posse, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, utilizando ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente algumas vulnerabilidades de segurança, suas vantagens em termos de alto desempenho e capacidade em tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, o Sentient planeja introduzir provas de zero conhecimento (ZK) e criptografia homomórfica total (FHE) para melhorar ainda mais a proteção da privacidade e a verificabilidade, proporcionando uma implementação descentralizada para modelos de IA.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
15 gostos
Recompensa
15
7
Republicar
Partilhar
Comentar
0/400
ForkTongue
· 3h atrás
Os gigantes vão e vêm, enquanto os investidores de retalho continuam a perder.
Ver originalResponder0
ser_we_are_ngmi
· 3h atrás
Ah, já brinquei com web3 há um ano e ainda não acabei, ngmi.
Ver originalResponder0
just_another_fish
· 3h atrás
Para aproveitar esses brinquedos de IA, ainda é preciso ver a cara dos pros.
Ver originalResponder0
fomo_fighter
· 3h atrás
Os desenvolvedores morreram.
Ver originalResponder0
SchrödingersNode
· 3h atrás
Vim aqui de novo para me fazer notar.
Ver originalResponder0
FarmHopper
· 4h atrás
Poder de computação ainda depende das grandes empresas, equipes pequenas não conseguem lidar com isso.
Ver originalResponder0
ForkMonger
· 4h atrás
apenas mais um pote de mel de centralização... o darwinismo do protocolo os devorará vivos
A batalha das blockchains nativas de IA: Sentient e outros cinco grandes projetos competem pelo mercado DeAI na cadeia
AI Layer1 Arena: Encontrar o solo fértil para o DeAI na cadeia
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o desenvolvimento acelerado de modelos de linguagem de grande escala (LLM). Os LLM demonstram capacidades sem precedentes em diversos setores, ampliando enormemente o espaço da imaginação humana e até mesmo mostrando potencial para substituir o trabalho humano em certas situações. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com capital robusto e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de superar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo no desenvolvimento saudável da indústria de IA e na aceitação social. Se não forem adequadamente resolvidos, a controvérsia sobre se a IA deve "servir ao bem" ou "servir ao mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, movidos por um instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar proativamente esses desafios.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações "Web3 AI" em algumas blockchains populares. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, com etapas e infraestruturas críticas ainda dependentes de serviços de nuvem centralizados, o que dificulta o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade de modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a na cadeia suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e competindo em desempenho com soluções centralizadas, precisamos projetar uma na cadeia de Layer1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Em termos concretos, a AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivos eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos, como potência computacional e armazenamento, de forma aberta. Ao contrário dos nós de blockchain tradicionais, que se concentram principalmente na contabilidade do livro razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não só incluem fornecer potência computacional e realizar o treinamento e a inferência de modelos de IA, mas também contribuir com recursos diversificados como armazenamento, dados e largura de banda, rompendo assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso subjacente e os mecanismos de incentivo: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós nas tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a eficiente alocação de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente os custos globais de potência computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, exigem um desempenho computacional e uma capacidade de processamento paralelo extremamente altos. Além disso, o ecossistema de IA na cadeia frequentemente também precisa suportar uma variedade de tipos de tarefas heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários diversos. A camada de IA deve ser profundamente otimizada na arquitetura subjacente para atender à demanda por alta taxa de transferência, baixa latência e paralelismo elástico, e deve prever a capacidade nativa de suporte a recursos de computação heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma expansão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e garantia de saída confiável O AI Layer 1 não só deve prevenir riscos de segurança como modelos mal-intencionados e manipulação de dados, mas também garantir, desde a mecânica de base, a verificabilidade e alinhamento dos resultados gerados pela IA. Ao integrar tecnologias de ponta como ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e cálculos seguros multipartes (MPC), a plataforma permite que cada inferência de modelo, treinamento e processo de tratamento de dados possam ser verificados de forma independente, assegurando a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também ajuda os usuários a entenderem a lógica e os fundamentos das saídas da IA, realizando o "que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve, ao garantir a verificabilidade, empregar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, para assegurar a segurança dos dados em todo o processo de raciocínio, treino e armazenamento, prevenindo eficazmente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também proporcionar ferramentas de desenvolvimento completas, SDKs integrados, suporte à operação e mecanismos de incentivo para desenvolvedores, operadores de nós, provedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promovemos a implementação de aplicações ricas e diversificadas nativas de IA, alcançando uma prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo apresentará detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os avanços mais recentes da área, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados e de código aberto fiéis
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, depois será migrada para Layer 1). Ao combinar AI Pipeline e tecnologia blockchain, está a construir uma economia descentralizada de inteligência artificial. O seu objetivo central é resolver os problemas de atribuição de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma de AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia de blockchain e o ecossistema. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, além de universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com uma aura especial, possuindo recursos, conexões e reconhecimento de mercado abundantes, o que proporcionou um sólido respaldo para o desenvolvimento do projeto. No meio de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento incluindo Delphi, Hashkey e Spartan, entre várias outras VCs renomadas.
arquitetura de design e camada de aplicação
Camada de infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de na cadeia.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", contendo dois processos principais:
O sistema de blockchain oferece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento do uso, a distribuição de receitas e uma governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Open, Monetizable, Loyal) é a ideia central proposta pela Sentient, com o objetivo de fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, apresenta as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as propriedades diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A tecnologia central é:
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamentos + validação de propriedade" sem custos adicionais de recriptografia.
Modelo de atribuição de direitos e estrutura de execução segura
A Sentient atualmente adota a segurança Melange misturada: uma combinação de verificação de identidade por impressão digital, execução TEE e partilha de lucros de contratos na cadeia. O método de impressão digital é implementado pela OML 1.0 como linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, conformidade por padrão, com detecção e punição possíveis em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas únicas na fase de treinamento, incorporando pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode verificar a posse, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, utilizando ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente algumas vulnerabilidades de segurança, suas vantagens em termos de alto desempenho e capacidade em tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, o Sentient planeja introduzir provas de zero conhecimento (ZK) e criptografia homomórfica total (FHE) para melhorar ainda mais a proteção da privacidade e a verificabilidade, proporcionando uma implementação descentralizada para modelos de IA.