Recherche sur la piste AI Layer1 : à la recherche d'un terreau décentralisé d'IA off-chain
Ces dernières années, avec la poussée constante d'entreprises technologiques de premier plan comme OpenAI, Anthropic, Google et Meta, les modèles de langage (LLM) ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humain et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces problèmes ne sont pas résolus de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, et les géants centralisés, sous l'impulsion de leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis.
La technologie blockchain, grâce à ses caractéristiques de Décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur plusieurs blockchains majeures. Cependant, une analyse approfondie révèle que ces projets rencontrent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et l'infrastructure dépendent toujours des services cloud centralisés, et la propriété meme est trop forte, rendant difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA off-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'AI Décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'AI. Cela fournira une base solide pour l'innovation ouverte de l'AI, la démocratie de la gouvernance et la sécurité des données, favorisant le développement prospère de l'écosystème AI Décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception de performance étroitement liées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur de AI Layer 1 réside dans la construction d'un réseau de partage ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure d'IA. Cela pose des exigences plus élevées sur le consensus de base et les mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement d'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche d'IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et réaliser une extension fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable
L'IA Layer 1 doit non seulement prévenir les risques de sécurité tels que les modèles malveillants et la falsification des données, mais elle doit également garantir la vérifiabilité et l'alignement des résultats produits par l'IA au niveau des mécanismes sous-jacents. En intégrant des technologies de pointe telles que l'environnement d'exécution fiable (TEE), la preuve à connaissance nulle (ZK), et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement des données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité aide les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est reçu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs, particulièrement dans des domaines tels que la finance, la santé et les réseaux sociaux, où la protection de la vie privée des données est cruciale. L'IA Layer 1 doit maintenir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des systèmes de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs en matière de sécurité des données.
Capacité de support et de développement d'un écosystème puissant
En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en continu la disponibilité de la plateforme et l'expérience des développeurs, on favorise le déploiement d'applications AI natives riches et diversifiées, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'AI Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source loyaux
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de construire une blockchain AI Layer1 ( au stade initial de Layer 2, qui sera ensuite migrée vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle construira une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de répartition de la valeur sur le marché centralisé des LLM grâce au cadre "OML" (, permettant ainsi aux modèles d'IA de réaliser une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut Indien de Science, responsables respectivement de la sécurité AI et de la protection de la vie privée, tandis que Sandeep Nailwal, cofondateur d'une plateforme d'échange, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase et d'autres plateformes d'échange, ainsi que dans des institutions de premier plan comme l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, cofondateur d'une plateforme d'échange, Sentient a dès le départ bénéficié d'une aura, disposant de ressources riches, de réseaux et d'une reconnaissance sur le marché, fournissant un puissant soutien au développement du projet. À la mi-2024, Sentient a terminé un tour de financement de semences de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
![Biteye et PANews publient conjointement un rapport de recherche sur la couche 1 AI : à la recherche d'un sol fertile pour Décentralisation DeAI])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) Conception de l'architecture et couche d'application
Infrastructure
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI ### AI Pipeline ( et le système de blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Data Curation): un processus de sélection de données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation de fidélité (: Assurez-vous que le modèle maintienne un processus d'entraînement cohérent avec l'intention de la communauté.
Le système blockchain assure la transparence et le contrôle décentralisé du protocole, garantissant la propriété, le suivi de l’utilisation, la distribution des revenus et la gouvernance équitable des artefacts d’IA. L’architecture est divisée en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : points d'entrée pour les appels de modèle contrôlés par des contrats d'autorisation ;
Couche d'accès : vérifie si l'utilisateur est autorisé par la validation de la preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribue chaque paiement effectué lors d'un appel aux formateurs, déployeurs et validateurs.
![Biteye et PANews publient conjointement un rapport sur l'IA Layer1 : à la recherche d'un sol fertile pour le DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML ( est ouvert, monétisable, et loyal. C'est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouverture: le modèle doit être open source, le code et la structure des données doivent être transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel du modèle déclenche un flux de revenus, le contrat off-chain distribuera les revenus aux formateurs, déployeurs et validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, et l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
)## Cryptographie native à l'IA###
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie fondamentale est :
Empreinte digitale : insérer un ensemble de paires clé-valeur de requête-réponse cachées lors de l'entraînement pour former une signature unique du modèle;
Protocole de vérification de propriété : Vérifiez si l'empreinte digitale est conservée via un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet d'implémenter "appel autorisé basé sur le comportement + vérification d'appartenance" sans coût de recryptage.
Modèle de droits et cadre d'exécution sécurisé
Sentient utilise actuellement la sécurité hybride Melange : combinaison de l'authentification par empreinte digitale, de l'exécution TEE et du partage des profits des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée "sécurité optimiste (Optimistic Security)", c'est-à-dire par défaut conforme, détectable et punissable en cas de violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML. Il permet, en intégrant des paires "question-réponse" spécifiques, de générer une signature unique par le modèle au cours de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier l'appartenance, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance ( tels que AWS Nitro Enclaves ) pour s'assurer que le modèle ne répond qu'aux demandes autorisées, empêchant l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font la technologie centrale pour le déploiement actuel des modèles.
Dans le futur, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance ###ZK( et une cryptographie entièrement homomorphe )FHE(, afin de renforcer davantage la protection de la vie privée et la vérifiabilité, et de fournir un déploiement décentralisé plus mature pour les modèles d'IA.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
14 J'aime
Récompense
14
4
Partager
Commentaire
0/400
BearMarketSage
· Il y a 5h
Les capitalistes sont tous à l'affût.
Voir l'originalRépondre0
WealthCoffee
· Il y a 5h
Il est en effet difficile de monopoliser la puissance de calcul.
Voir l'originalRépondre0
ETHReserveBank
· Il y a 5h
Haha, j'attends juste que les institutions centralisées fassent des siennes.
Recherche sur la couche 1 de l'IA : six projets menant à une nouvelle ère de Décentralisation de l'IA
Recherche sur la piste AI Layer1 : à la recherche d'un terreau décentralisé d'IA off-chain
Ces dernières années, avec la poussée constante d'entreprises technologiques de premier plan comme OpenAI, Anthropic, Google et Meta, les modèles de langage (LLM) ont montré des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humain et montrant même, dans certains cas, un potentiel pour remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
En même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptabilité sociale. Si ces problèmes ne sont pas résolus de manière appropriée, le débat sur le fait que l'IA soit "bienveillante" ou "malveillante" deviendra de plus en plus prononcé, et les géants centralisés, sous l'impulsion de leur instinct de profit, manquent souvent de motivation suffisante pour relever ces défis.
La technologie blockchain, grâce à ses caractéristiques de Décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur plusieurs blockchains majeures. Cependant, une analyse approfondie révèle que ces projets rencontrent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et l'infrastructure dépendent toujours des services cloud centralisés, et la propriété meme est trop forte, rendant difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits IA du monde Web2, l'IA off-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'AI Décentralisée, permettant à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'AI. Cela fournira une base solide pour l'innovation ouverte de l'AI, la démocratie de la gouvernance et la sécurité des données, favorisant le développement prospère de l'écosystème AI Décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception de performance étroitement liées aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 devrait posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de AI Layer 1 réside dans la construction d'un réseau de partage ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur l'infrastructure d'IA. Cela pose des exigences plus élevées sur le consensus de base et les mécanismes d'incitation : AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans les tâches d'inférence et d'entraînement d'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on pourra garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge une diversité de types de tâches hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche d'IA de niveau 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une prise en charge native des ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et réaliser une extension fluide de "tâches uniques" à "écosystèmes complexes et diversifiés".
Vérifiabilité et garantie de sortie fiable L'IA Layer 1 doit non seulement prévenir les risques de sécurité tels que les modèles malveillants et la falsification des données, mais elle doit également garantir la vérifiabilité et l'alignement des résultats produits par l'IA au niveau des mécanismes sous-jacents. En intégrant des technologies de pointe telles que l'environnement d'exécution fiable (TEE), la preuve à connaissance nulle (ZK), et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque processus d'inférence de modèle, d'entraînement et de traitement des données d'être vérifié de manière indépendante, garantissant ainsi l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité aide les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est reçu est ce qui est souhaité", augmentant ainsi la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, particulièrement dans des domaines tels que la finance, la santé et les réseaux sociaux, où la protection de la vie privée des données est cruciale. L'IA Layer 1 doit maintenir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des systèmes de gestion des droits des données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, empêchant efficacement les fuites et les abus de données, et éliminant les préoccupations des utilisateurs en matière de sécurité des données.
Capacité de support et de développement d'un écosystème puissant En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en continu la disponibilité de la plateforme et l'expérience des développeurs, on favorise le déploiement d'applications AI natives riches et diversifiées, réalisant ainsi la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'AI Layer1, notamment Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les dernières avancées du secteur, en analysant l'état actuel des projets et en discutant des tendances futures.
Sentient : Construire des modèles d'IA décentralisés open source loyaux
Aperçu du projet
Sentient est une plateforme de protocole open source, en train de construire une blockchain AI Layer1 ( au stade initial de Layer 2, qui sera ensuite migrée vers Layer 1). En combinant l'AI Pipeline et la technologie blockchain, elle construira une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de répartition de la valeur sur le marché centralisé des LLM grâce au cadre "OML" (, permettant ainsi aux modèles d'IA de réaliser une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut Indien de Science, responsables respectivement de la sécurité AI et de la protection de la vie privée, tandis que Sandeep Nailwal, cofondateur d'une plateforme d'échange, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase et d'autres plateformes d'échange, ainsi que dans des institutions de premier plan comme l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, cofondateur d'une plateforme d'échange, Sentient a dès le départ bénéficié d'une aura, disposant de ressources riches, de réseaux et d'une reconnaissance sur le marché, fournissant un puissant soutien au développement du projet. À la mi-2024, Sentient a terminé un tour de financement de semences de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, d'autres investisseurs incluent des dizaines de VC renommés tels que Delphi, Hashkey et Spartan.
![Biteye et PANews publient conjointement un rapport de recherche sur la couche 1 AI : à la recherche d'un sol fertile pour Décentralisation DeAI])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
) Conception de l'architecture et couche d'application
Infrastructure
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI ### AI Pipeline ( et le système de blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Le système blockchain assure la transparence et le contrôle décentralisé du protocole, garantissant la propriété, le suivi de l’utilisation, la distribution des revenus et la gouvernance équitable des artefacts d’IA. L’architecture est divisée en quatre couches :
![Biteye et PANews publient conjointement un rapport sur l'IA Layer1 : à la recherche d'un sol fertile pour le DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML ( est ouvert, monétisable, et loyal. C'est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
)## Cryptographie native à l'IA###
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie fondamentale est :
Cette méthode permet d'implémenter "appel autorisé basé sur le comportement + vérification d'appartenance" sans coût de recryptage.
Modèle de droits et cadre d'exécution sécurisé
Sentient utilise actuellement la sécurité hybride Melange : combinaison de l'authentification par empreinte digitale, de l'exécution TEE et du partage des profits des contrats off-chain. La méthode par empreinte digitale est mise en œuvre par OML 1.0, soulignant la pensée "sécurité optimiste (Optimistic Security)", c'est-à-dire par défaut conforme, détectable et punissable en cas de violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML. Il permet, en intégrant des paires "question-réponse" spécifiques, de générer une signature unique par le modèle au cours de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier l'appartenance, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance ( tels que AWS Nitro Enclaves ) pour s'assurer que le modèle ne répond qu'aux demandes autorisées, empêchant l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font la technologie centrale pour le déploiement actuel des modèles.
Dans le futur, Sentient prévoit d'introduire des preuves à divulgation nulle de connaissance ###ZK( et une cryptographie entièrement homomorphe )FHE(, afin de renforcer davantage la protection de la vie privée et la vérifiabilité, et de fournir un déploiement décentralisé plus mature pour les modèles d'IA.