Selon les nouvelles de 深潮 TechFlow, le 27 juin, Decrypt a rapporté que le projet Web3+AI Inference Labs a levé un total de 6,3 millions de dollars pour construire une couche de confiance en chiffrement pour les agents AI et le calcul off-chain. Les investisseurs incluent DACM, Delphi Ventures, Arche Capital, Lvna Capital, ainsi que la ronde communautaire Echo Syndicate dirigée par Native Capital.
Inference Labs développe "preuve d'inférence" ( Proof of Inference ), un protocole de chiffrement à connaissance nulle qui permet aux modèles d'IA de réaliser une mise à l'échelle massive via des ressources décentralisées off-chain, tout en prouvant la fiabilité de leurs sorties. Ce protocole résout le problème de confiance en IA, permettant aux opérateurs de modèle de maintenir la confidentialité de la propriété intellectuelle tout en fournissant des services vérifiables.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le projet Web3+AI Inference Labs a levé 6,3 millions de dollars, avec la participation de DACM, Delphi Ventures et d'autres.
Selon les nouvelles de 深潮 TechFlow, le 27 juin, Decrypt a rapporté que le projet Web3+AI Inference Labs a levé un total de 6,3 millions de dollars pour construire une couche de confiance en chiffrement pour les agents AI et le calcul off-chain. Les investisseurs incluent DACM, Delphi Ventures, Arche Capital, Lvna Capital, ainsi que la ronde communautaire Echo Syndicate dirigée par Native Capital.
Inference Labs développe "preuve d'inférence" ( Proof of Inference ), un protocole de chiffrement à connaissance nulle qui permet aux modèles d'IA de réaliser une mise à l'échelle massive via des ressources décentralisées off-chain, tout en prouvant la fiabilité de leurs sorties. Ce protocole résout le problème de confiance en IA, permettant aux opérateurs de modèle de maintenir la confidentialité de la propriété intellectuelle tout en fournissant des services vérifiables.