Fusion de l'IA et du DePIN : l'émergence des réseaux GPU décentralisés
Depuis 2023, l'IA et la Décentralisation des Infrastructures Physiques (DePIN) sont des sujets brûlants dans le domaine du Web3. La capitalisation boursière de l'IA atteint 30 milliards de dollars, tandis que celle de DePIN s'élève à 23 milliards de dollars. Ces deux catégories englobent de nombreux protocoles différents, répondant à divers domaines et besoins. Cet article se concentrera sur les points de croisement entre les deux, explorant le développement des protocoles dans ce domaine.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La forte demande des grandes entreprises technologiques pour les GPU a entraîné une pénurie d'approvisionnement, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour entraîner des modèles d'IA. Cela pousse souvent les développeurs à se tourner vers des fournisseurs de services cloud centralisés, mais en raison de la nécessité de signer des contrats à long terme pour du matériel haute performance manquant de flexibilité, l'efficacité est faible.
DePIN offre une alternative plus flexible et plus rentable. Il utilise des récompenses en tokens pour inciter les contributions de ressources conformes aux objectifs du réseau. Le DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels dans des centres de données, fournissant un approvisionnement unifié aux utilisateurs ayant besoin de matériel. Ces réseaux DePIN offrent non seulement aux développeurs un accès personnalisable et à la demande à la puissance de calcul, mais créent également une source de revenus supplémentaire pour les propriétaires de GPU.
Il existe plusieurs réseaux AI DePIN sur le marché, chacun ayant ses propres caractéristiques. Voici quelques projets principaux et leurs caractéristiques ainsi que leur état de développement.
Aperçu du réseau DePIN AI
Rendre
Render est un pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu graphique pour la création de contenu, puis élargissant son champ d'application aux tâches de calcul AI grâce à l'intégration d'outils tels que Stable Diffusion.
Principales caractéristiques :
Fondée par la société de graphisme en nuage OTOY, qui possède une technologie primée aux Oscars.
Le réseau GPU a été utilisé par Paramount Pictures, PUBG et d'autres géants de l'industrie du divertissement.
Collaborer avec Stability AI et Endeavor pour intégrer des modèles d'IA et des flux de travail de rendu de contenu 3D
Approuver plusieurs clients de calcul, intégrer plus de GPU dans le réseau DePIN
Akash
Akash se positionne comme une plateforme de "super cloud" qui prend en charge le stockage, le calcul GPU et CPU, offrant une alternative aux fournisseurs de services cloud traditionnels. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il est possible de déployer de manière transparente diverses applications cloud natives à travers différents environnements.
Principales caractéristiques :
Prend en charge une large gamme de tâches de calcul, allant du calcul général à l'hébergement réseau.
AkashML permet à son réseau GPU de faire fonctionner plus de 15 000 modèles sur Hugging Face.
A hébergé plusieurs applications d'IA renommées, telles que le chatbot du modèle LLM de Mistral AI
Fournir un support de plateforme pour la construction du métavers, le déploiement de l'IA et l'apprentissage fédéré.
io.net
io.net fournit un accès à des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation de l'IA et du ML. Il agrège les ressources GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres réseaux décentralisés.
Principales caractéristiques :
IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow, et peut être étendu dynamiquement en fonction des besoins.
Prend en charge la création de 3 types différents de clusters, le temps de démarrage n'est que de 2 minutes
Collaborer activement avec d'autres réseaux DePIN pour intégrer plus de ressources GPU
Gensyn
Gensyn se concentre sur les réseaux GPU pour le calcul de l'apprentissage automatique et de l'apprentissage en profondeur. Il utilise un mécanisme de validation innovant, y compris la preuve d'apprentissage, un protocole de localisation précis basé sur des graphes et des jeux d'incitation impliquant le staking et la réduction.
Caractéristiques principales :
Le coût horaire estimé d'un GPU équivalent V100 est d'environ 0,40 $, ce qui permet d'importantes économies.
Prise en charge du finetuning des modèles de base pré-entraînés pour accomplir des tâches plus spécifiques.
Plan d'établir un modèle de base décentralisé et partagé au niveau mondial
Aethir
Aethir se spécialise dans le déploiement de GPU de niveau entreprise, en se concentrant sur des domaines intensifs en calcul tels que l'IA, l'apprentissage automatique et le jeu en cloud. Les conteneurs dans son réseau agissent en tant que points d'extrémité virtuels pour exécuter des applications cloud, déplaçant la charge de travail des appareils locaux vers les conteneurs pour offrir une expérience à faible latence.
Principales caractéristiques :
En plus de l'IA et du cloud gaming, il s'étend également aux services de cloud phone.
Établir des partenariats avec plusieurs grandes entreprises Web2 telles que NVIDIA, Super Micro, HPE.
Avoir plusieurs partenaires tels que CARV, Magic Eden dans le domaine de Web3.
Phala Network
Phala Network en tant que couche d'exécution de solution AI Web3, offre des solutions de cloud computing sans confiance. Sa blockchain utilise un environnement d'exécution de confiance (TEE) conçu pour traiter les problèmes de confidentialité, permettant aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Principales caractéristiques :
Agir en tant que protocole de coprocesseur de calcul vérifiable, tout en habilitant les ressources des agents AI sur la chaîne.
Les contrats d'agent IA peuvent accéder aux meilleurs modèles de langage tels qu'OpenAI, Llama, etc. via Redpill.
L'avenir intégrera les zk-proofs, le calcul multipartite (MPC), le chiffrement totalement homomorphe (FHE) et d'autres systèmes de preuves multiples.
Prévoyez de prendre en charge les GPU TEE tels que H100, afin d'améliorer la capacité de calcul.
Comparaison de projet
| Projet | Matériel | Points d'affaires | Type de tâche AI | Tarification du travail | Blockchain | Confidentialité des données | Coût du travail | Sécurité | Preuve d'achèvement | Garantie de qualité | Grille GPU |
|--------|---------|----------------|--------|--------|--------|--------|----------------------|--------|--------|----------|-------|
| Rendu | GPU&CPU | Rendu graphique et IA | Inférence | Tarification basée sur la performance | Solana | Cryptage&hachage | 0,5-5% par tâche | Preuve de rendu | - | Controverse | Non |
| Akash | GPU&CPU | Cloud computing, rendu et IA | Les deux | Enchères inversées | Cosmos | Authentification mTLS | 20% USDC, 4% AKT | Preuve d'enjeu | - | - | Oui |
| io.net | GPU&CPU | IA | Les deux | Tarification de marché | Solana | Cryptage des données | 2% USDC, 0.25% frais de réserve | Preuve de calcul | Preuve de verrouillage temporel | - | Oui |
| Gensyn | GPU | IA | entraînement | tarification du marché | Gensyn | mappage sécurisé | frais peu élevés | preuve d'enjeu | preuve d'apprentissage | vérificateurs et dénonciateurs | oui |
| Aethir | GPU | IA, jeux en nuage et télécommunications | Entraînement | Système d'appel d'offres | Arbitrum | Cryptographie | 20% par session | Preuve de capacité de rendu | Preuve de travail de rendu | Nœud vérificateur | Oui |
| Phala | CPU | Exécution AI en chaîne | Exécution | Calcul des droits | Polkadot | TEE | Proportionnel au montant de mise | Hérité de la chaîne relais | Preuve TEE | Preuve à distance | Non |
L'importance des calculs de groupe et parallèles
Un cadre de calcul distribué permettant de réaliser des clusters GPU, offrant une formation efficace tout en renforçant l'évolutivité. L'entraînement de modèles IA complexes nécessite une puissance de calcul robuste, s'appuyant généralement sur le calcul distribué. La plupart des projets ont intégré des clusters pour réaliser des calculs parallèles afin de répondre à la demande du marché.
Protection de la vie privée des données
L'entraînement des modèles d'IA nécessite de grands ensembles de données, qui peuvent contenir des informations sensibles. Pour cela, différents projets adoptent diverses méthodes de protection de la vie privée des données. La plupart des projets utilisent le chiffrement des données, io.net a également introduit le chiffrement homomorphe complet (FHE), tandis que Phala Network utilise un environnement d'exécution de confiance (TEE). Ces mesures visent à protéger la vie privée des données tout en permettant leur utilisation à des fins d'entraînement.
Preuve de calcul terminée et contrôle de qualité
Pour garantir la qualité des services, plusieurs projets ont introduit des mécanismes de preuve d'achèvement des calculs et de contrôle de la qualité. Gensyn et Aethir génèrent des preuves de travail accompli, io.net prouve que les performances des GPU sont pleinement exploitées. Gensyn et Aethir disposent également de mécanismes de contrôle de la qualité, tandis que Render utilise un processus de résolution des litiges. Ces mesures contribuent à garantir la qualité et la fiabilité des services de calcul.
L'entraînement de modèles d'IA nécessite des GPU de haute performance, tels que les A100 et H100 de NVIDIA. Ces GPU haut de gamme offrent la meilleure qualité et vitesse d'entraînement, mais sont coûteux. Les fournisseurs de marché GPU décentralisé doivent trouver un équilibre entre la fourniture d'un nombre suffisant de GPU haute performance et le maintien de la compétitivité des prix.
Actuellement, des projets tels qu'io.net et Aethir ont obtenu plus de 2000 unités H100 et A100, mieux adaptées au calcul de grands modèles. Le coût de ces services de GPU décentralisés est déjà inférieur à celui des services de GPU centralisés, mais il faudra encore du temps pour vérifier.
Rôle des GPU/CPU de niveau consommateur
Bien que les GPU haut de gamme soient la principale demande, les GPU et CPU grand public jouent également un rôle important dans le développement des modèles d'IA. Ils peuvent être utilisés pour le prétraitement des données, la gestion des ressources mémoire, ainsi que pour le réglage fin ou l'entraînement de petits modèles à partir de modèles préentraînés. Des projets comme Render, Akash et io.net desservent également ce segment de marché, offrant aux développeurs plus d'options.
Conclusion
Le domaine de l'AI DePIN, bien qu'il soit encore à ses débuts, montre déjà un potentiel énorme. Ces réseaux de GPU décentralisés résolvent efficacement le problème de l'équilibre entre l'offre et la demande de ressources de calcul AI. Avec la croissance rapide du marché de l'AI, ces réseaux joueront un rôle clé en offrant aux développeurs des alternatives de calcul économiques et efficaces, contribuant ainsi de manière significative à l'avenir de l'AI et des infrastructures de calcul.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
7 J'aime
Récompense
7
5
Partager
Commentaire
0/400
RugDocDetective
· Il y a 9h
La pénurie de GPU est vraiment frustrante.
Voir l'originalRépondre0
SmartContractPlumber
· Il y a 9h
Soyez prudent, les problèmes de frontières des ressources pourraient entraîner des vulnérabilités de sécurité.
Voir l'originalRépondre0
BearMarketBuyer
· Il y a 9h
Tout a chuté, mais les GPU ont augmenté. Se faire prendre pour des cons, c'est cette méthode.
Voir l'originalRépondre0
ContractFreelancer
· Il y a 9h
La Blockchain aurait dû évoluer dans cette direction depuis longtemps. Il y a trop de projets qui ne sont que des spéculations.
Voir l'originalRépondre0
ZenZKPlayer
· Il y a 9h
Les GPU sont si chers, les investisseurs détaillants ne peuvent pas se le permettre.
Fusion de l'IA et de DePIN : l'essor des réseaux GPU décentralisés menant à une nouvelle révolution des ressources de calcul
Fusion de l'IA et du DePIN : l'émergence des réseaux GPU décentralisés
Depuis 2023, l'IA et la Décentralisation des Infrastructures Physiques (DePIN) sont des sujets brûlants dans le domaine du Web3. La capitalisation boursière de l'IA atteint 30 milliards de dollars, tandis que celle de DePIN s'élève à 23 milliards de dollars. Ces deux catégories englobent de nombreux protocoles différents, répondant à divers domaines et besoins. Cet article se concentrera sur les points de croisement entre les deux, explorant le développement des protocoles dans ce domaine.
Dans la pile technologique de l'IA, le réseau DePIN habilite l'IA en fournissant des ressources de calcul. La forte demande des grandes entreprises technologiques pour les GPU a entraîné une pénurie d'approvisionnement, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour entraîner des modèles d'IA. Cela pousse souvent les développeurs à se tourner vers des fournisseurs de services cloud centralisés, mais en raison de la nécessité de signer des contrats à long terme pour du matériel haute performance manquant de flexibilité, l'efficacité est faible.
DePIN offre une alternative plus flexible et plus rentable. Il utilise des récompenses en tokens pour inciter les contributions de ressources conformes aux objectifs du réseau. Le DePIN dans le domaine de l'IA intègre les ressources GPU des propriétaires individuels dans des centres de données, fournissant un approvisionnement unifié aux utilisateurs ayant besoin de matériel. Ces réseaux DePIN offrent non seulement aux développeurs un accès personnalisable et à la demande à la puissance de calcul, mais créent également une source de revenus supplémentaire pour les propriétaires de GPU.
Il existe plusieurs réseaux AI DePIN sur le marché, chacun ayant ses propres caractéristiques. Voici quelques projets principaux et leurs caractéristiques ainsi que leur état de développement.
Aperçu du réseau DePIN AI
Rendre
Render est un pionnier des réseaux de calcul GPU P2P, initialement axé sur le rendu graphique pour la création de contenu, puis élargissant son champ d'application aux tâches de calcul AI grâce à l'intégration d'outils tels que Stable Diffusion.
Principales caractéristiques :
Akash
Akash se positionne comme une plateforme de "super cloud" qui prend en charge le stockage, le calcul GPU et CPU, offrant une alternative aux fournisseurs de services cloud traditionnels. Grâce à une plateforme de conteneurs et à des nœuds de calcul gérés par Kubernetes, il est possible de déployer de manière transparente diverses applications cloud natives à travers différents environnements.
Principales caractéristiques :
io.net
io.net fournit un accès à des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation de l'IA et du ML. Il agrège les ressources GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres réseaux décentralisés.
Principales caractéristiques :
Gensyn
Gensyn se concentre sur les réseaux GPU pour le calcul de l'apprentissage automatique et de l'apprentissage en profondeur. Il utilise un mécanisme de validation innovant, y compris la preuve d'apprentissage, un protocole de localisation précis basé sur des graphes et des jeux d'incitation impliquant le staking et la réduction.
Caractéristiques principales :
Aethir
Aethir se spécialise dans le déploiement de GPU de niveau entreprise, en se concentrant sur des domaines intensifs en calcul tels que l'IA, l'apprentissage automatique et le jeu en cloud. Les conteneurs dans son réseau agissent en tant que points d'extrémité virtuels pour exécuter des applications cloud, déplaçant la charge de travail des appareils locaux vers les conteneurs pour offrir une expérience à faible latence.
Principales caractéristiques :
Phala Network
Phala Network en tant que couche d'exécution de solution AI Web3, offre des solutions de cloud computing sans confiance. Sa blockchain utilise un environnement d'exécution de confiance (TEE) conçu pour traiter les problèmes de confidentialité, permettant aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Principales caractéristiques :
Comparaison de projet
| Projet | Matériel | Points d'affaires | Type de tâche AI | Tarification du travail | Blockchain | Confidentialité des données | Coût du travail | Sécurité | Preuve d'achèvement | Garantie de qualité | Grille GPU | |--------|---------|----------------|--------|--------|--------|--------|----------------------|--------|--------|----------|-------| | Rendu | GPU&CPU | Rendu graphique et IA | Inférence | Tarification basée sur la performance | Solana | Cryptage&hachage | 0,5-5% par tâche | Preuve de rendu | - | Controverse | Non | | Akash | GPU&CPU | Cloud computing, rendu et IA | Les deux | Enchères inversées | Cosmos | Authentification mTLS | 20% USDC, 4% AKT | Preuve d'enjeu | - | - | Oui | | io.net | GPU&CPU | IA | Les deux | Tarification de marché | Solana | Cryptage des données | 2% USDC, 0.25% frais de réserve | Preuve de calcul | Preuve de verrouillage temporel | - | Oui | | Gensyn | GPU | IA | entraînement | tarification du marché | Gensyn | mappage sécurisé | frais peu élevés | preuve d'enjeu | preuve d'apprentissage | vérificateurs et dénonciateurs | oui | | Aethir | GPU | IA, jeux en nuage et télécommunications | Entraînement | Système d'appel d'offres | Arbitrum | Cryptographie | 20% par session | Preuve de capacité de rendu | Preuve de travail de rendu | Nœud vérificateur | Oui | | Phala | CPU | Exécution AI en chaîne | Exécution | Calcul des droits | Polkadot | TEE | Proportionnel au montant de mise | Hérité de la chaîne relais | Preuve TEE | Preuve à distance | Non |
L'importance des calculs de groupe et parallèles
Un cadre de calcul distribué permettant de réaliser des clusters GPU, offrant une formation efficace tout en renforçant l'évolutivité. L'entraînement de modèles IA complexes nécessite une puissance de calcul robuste, s'appuyant généralement sur le calcul distribué. La plupart des projets ont intégré des clusters pour réaliser des calculs parallèles afin de répondre à la demande du marché.
Protection de la vie privée des données
L'entraînement des modèles d'IA nécessite de grands ensembles de données, qui peuvent contenir des informations sensibles. Pour cela, différents projets adoptent diverses méthodes de protection de la vie privée des données. La plupart des projets utilisent le chiffrement des données, io.net a également introduit le chiffrement homomorphe complet (FHE), tandis que Phala Network utilise un environnement d'exécution de confiance (TEE). Ces mesures visent à protéger la vie privée des données tout en permettant leur utilisation à des fins d'entraînement.
Preuve de calcul terminée et contrôle de qualité
Pour garantir la qualité des services, plusieurs projets ont introduit des mécanismes de preuve d'achèvement des calculs et de contrôle de la qualité. Gensyn et Aethir génèrent des preuves de travail accompli, io.net prouve que les performances des GPU sont pleinement exploitées. Gensyn et Aethir disposent également de mécanismes de contrôle de la qualité, tandis que Render utilise un processus de résolution des litiges. Ces mesures contribuent à garantir la qualité et la fiabilité des services de calcul.
Statistiques matérielles
| Projet | Nombre de GPU | Nombre de CPU | Nombre de H100/A100 | Coût H100/heure | Coût A100/heure | |--------|-------|--------|------------|-----------|-------------| | Rendu | 5600 | 114 | - | - | - | | Akash | 384 | 14672 | 157 | 1,46 € | 1,37 € | | io.net | 38177 | 5433 | 2330 | 1,19 $ | 1,50 $ | | Gensyn | - | - | - | - | 0,55 ( prévu ) | | Aethir | 40000+ | - | 2000+ | - | $0.33 ( prévu ) | | Phala | - | 30000+ | - | - | - |
Demande de GPU haute performance
L'entraînement de modèles d'IA nécessite des GPU de haute performance, tels que les A100 et H100 de NVIDIA. Ces GPU haut de gamme offrent la meilleure qualité et vitesse d'entraînement, mais sont coûteux. Les fournisseurs de marché GPU décentralisé doivent trouver un équilibre entre la fourniture d'un nombre suffisant de GPU haute performance et le maintien de la compétitivité des prix.
Actuellement, des projets tels qu'io.net et Aethir ont obtenu plus de 2000 unités H100 et A100, mieux adaptées au calcul de grands modèles. Le coût de ces services de GPU décentralisés est déjà inférieur à celui des services de GPU centralisés, mais il faudra encore du temps pour vérifier.
Rôle des GPU/CPU de niveau consommateur
Bien que les GPU haut de gamme soient la principale demande, les GPU et CPU grand public jouent également un rôle important dans le développement des modèles d'IA. Ils peuvent être utilisés pour le prétraitement des données, la gestion des ressources mémoire, ainsi que pour le réglage fin ou l'entraînement de petits modèles à partir de modèles préentraînés. Des projets comme Render, Akash et io.net desservent également ce segment de marché, offrant aux développeurs plus d'options.
Conclusion
Le domaine de l'AI DePIN, bien qu'il soit encore à ses débuts, montre déjà un potentiel énorme. Ces réseaux de GPU décentralisés résolvent efficacement le problème de l'équilibre entre l'offre et la demande de ressources de calcul AI. Avec la croissance rapide du marché de l'AI, ces réseaux joueront un rôle clé en offrant aux développeurs des alternatives de calcul économiques et efficaces, contribuant ainsi de manière significative à l'avenir de l'AI et des infrastructures de calcul.