مشاريع Web3 التي تعتمد على مفهوم الذكاء الاصطناعي أصبحت أهداف جذب الأموال في الأسواق الأولية والثانوية.
تظهر فرص Web3 في صناعة الذكاء الاصطناعي من خلال: استخدام الحوافز الموزعة لتنسيق العرض المحتمل الطويل الذيل، والذي يتضمن البيانات والتخزين والحساب؛ في نفس الوقت إنشاء نماذج مفتوحة المصدر وسوق لامركزي لوكلاء الذكاء الاصطناعي.
يتم استخدام الذكاء الاصطناعي بشكل رئيسي في صناعة Web3 في التمويل على السلسلة (المدفوعات المشفرة، التداول، تحليل البيانات) وكذلك في مساعدة التطوير.
تظهر فائدة AI+Web3 في تكميل كلا الجانبين: من المتوقع أن يتصدى Web3 لتركز AI، ومن المتوقع أن يساعد AI Web3 في كسر الحدود.
في العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع. لم تفتح هذه الموجة التي أثارها Chatgpt عالماً جديداً من الذكاء الاصطناعي التوليدي فحسب، بل أحدثت أيضاً أمواجاً كبيرة في مجال Web3.
تحت تأثير مفهوم الذكاء الاصطناعي، شهدت سوق التشفير انتعاشًا واضحًا في التمويل. ووفقًا للإحصاءات، أكمل 64 مشروعًا من مشاريع Web3 + AI التمويل في النصف الأول من عام 2024 فقط، وحقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل بلغ 100 مليون دولار في الجولة الأولى.
السوق الثانوية أكثر ازدهارًا. تظهر بيانات موقع Coingecko المجمعة للعملات الرقمية أنه في غضون أكثر من عام بقليل، بلغ إجمالي القيمة السوقية لقطاع الذكاء الاصطناعي 48.5 مليار دولار، وحجم التداول على مدار 24 ساعة قريب من 8.6 مليار دولار. الفوائد الواضحة الناتجة عن التقدم في تكنولوجيا الذكاء الاصطناعي السائدة، بعد إصدار نموذج OpenAI Sora لتحويل النص إلى فيديو، ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151%. تأثير الذكاء الاصطناعي أيضًا يصل إلى أحد قطاعات جمع العملات الرقمية، وهو Meme: حيث أصبحت العملة MemeCoin الأولى التي تعتمد على مفهوم الوكيل الذكي - GOAT مشهورة بسرعة وحصلت على تقييم قدره 1.4 مليار دولار، مما أثار موجة من ميمات الذكاء الاصطناعي.
إن الأبحاث والمواضيع المتعلقة بـ AI + Web3 تحظى بنفس القدر من الحماسة، من AI + Depin إلى AI Memecoin وصولاً إلى AI Agent و AI DAO الحالية، أصبحت مشاعر FOMO بالفعل غير قادرة على مواكبة سرعة تبديل السرد الجديد.
مجموعة المصطلحات AI+Web3 المليئة بالمال الساخن، والاتجاهات، وأحلام المستقبل، لا مفر من اعتبارها زواجًا مرتبًا من قبل رأس المال. يبدو أنه من الصعب علينا التمييز تحت هذا الغلاف الفاخر، هل هي ساحة المضاربين، أم أنها ليلة انفجار الفجر؟
للإجابة على هذا السؤال، فإن أحد الأفكار الرئيسية التي تهم الطرفين هو: هل سيكون الوضع أفضل بوجود الآخر؟ هل يمكن الاستفادة من نمط الآخر؟ تحاول هذه المقالة الوقوف على أكتاف السابقين لفحص هذه الصورة: كيف يمكن أن تلعب Web3 دورًا في مختلف مراحل تكنولوجيا الذكاء الاصطناعي، وما الجديد الذي يمكن أن يجلبه الذكاء الاصطناعي إلى Web3؟
الجزء 1 ما هي الفرص المتاحة لـ Web3 تحت كومة الذكاء الاصطناعي؟
قبل الخوض في هذا الموضوع، نحتاج إلى فهم تقنية نموذج الذكاء الاصطناعي الكبير:
استخدم لغة بسيطة لوصف العملية بأكملها: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة يعتبر كأنه طفل حديث الولادة، يحتاج إلى مراقبة وتجميع كميات هائلة من المعلومات الخارجية لفهم العالم، وهذه هي مرحلة "جمع البيانات". نظرًا لأن أجهزة الكمبيوتر لا تمتلك حواس متعددة مثل البشر، يجب تحويل المعلومات الخارجية الضخمة غير المعلَّمة قبل التدريب إلى تنسيق معلومات يمكن للكمبيوتر فهمه واستخدامه من خلال "المعالجة المسبقة".
بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتباره عملية تدريجية لفهم وتعلم الطفل عن العالم الخارجي، حيث يتم تعديل معلمات النموذج مثل القدرة اللغوية التي تتكيف باستمرار خلال عملية تعلم الطفل. تبدأ المحتويات التعليمية بالتخصص، أو يتم الحصول على ردود فعل من خلال التواصل مع الآخرين وتصحيح الأخطاء، مما يؤدي إلى دخول مرحلة "التعديل الدقيق" للنموذج الكبير.
عندما يكبر الأطفال ويتعلمون الكلام، يمكنهم فهم المعاني والتعبير عن المشاعر والأفكار في محادثات جديدة. هذه المرحلة مشابهة لـ "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج إجراء تحليل وتنبؤات على إدخال نصوص لغوية جديدة. يعبر الرضع عن مشاعرهم وقدرتهم اللغوية، ويصفون الأشياء ويحلون المشكلات، وهذا مشابه لطريقة استخدام نماذج الذكاء الاصطناعي الكبيرة بعد التدريب في مرحلة الاستدلال لأداء مهام محددة مثل تصنيف الصور، والتعرف على الصوت، وغيرها.
ووكيل الذكاء الاصطناعي يقترب أكثر من الشكل التالي للنماذج الكبيرة - القدرة على تنفيذ المهام بشكل مستقل والسعي نحو أهداف معقدة، حيث يمتلك القدرة على التفكير، وكذلك الذاكرة والتخطيط، ويمكنه استخدام الأدوات للتفاعل مع العالم.
في الوقت الحالي، وبالنظر إلى نقاط الألم المتعلقة بالذكاء الاصطناعي في مختلف الطبقات، بدأ Web3 في تشكيل نظام بيئي متعدد المستويات ومترابط، يغطي جميع مراحل عملية نماذج الذكاء الاصطناعي.
واحد، الطبقة الأساسية: Airbnb للقوة الحاسوبية والبيانات
قوة التعدين
في الوقت الحالي، أحد أعلى التكاليف في الذكاء الاصطناعي هو القدرة الحاسوبية والطاقة المطلوبة لتدريب النماذج ونماذج الاستدلال.
على سبيل المثال، يحتاج LLAMA3 من Meta إلى 16000 وحدة معالجة رسومات H100 من NVIDIA (وهي وحدات معالجة رسومات رائدة مصممة خصيصًا لأعباء عمل الذكاء الاصطناعي والحوسبة عالية الأداء) لمدة 30 يومًا لإكمال التدريب. يتراوح سعر النسخة ذات سعة 80 جيجابايت بين 30000 و40000 دولار، مما يتطلب استثمارًا في معدات الحوسبة (وحدات معالجة الرسومات + شرائح الشبكة) يتراوح بين 400 إلى 700 مليون دولار، في حين أن التدريب الشهري يتطلب استهلاك 1.6 مليار كيلووات ساعة، مما يؤدي إلى نفقات طاقة شهرية تقترب من 20 مليون دولار.
تخفيف الضغط عن قوة الذكاء الاصطناعي هو أيضًا أحد المجالات الأولى التي تتقاطع فيها Web3 مع الذكاء الاصطناعي - DePin (شبكة البنية التحتية الفيزيائية اللامركزية). حاليًا، قام موقع DePin Ninja بتسجيل أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة GPU تشمل io.net وAethir وAkash وRender Network وغيرها.
المنطق الرئيسي هنا هو: يتيح النظام للأفراد أو الكيانات الذين يمتلكون موارد GPU غير المستغلة المساهمة في القدرة الحاسوبية بطريقة لامركزية دون الحاجة إلى إذن، من خلال سوق عبر الإنترنت يشبه Uber أو Airbnb بين المشترين والبائعين، مما يزيد من استخدام موارد GPU غير المستغلة. وبالتالي، يحصل المستخدمون النهائيون على موارد حسابية فعالة بتكلفة أقل؛ في الوقت نفسه، يضمن آلية الرهن العقاري فرض عقوبات على مقدمي الموارد في حال انتهاكهم لآلية مراقبة الجودة أو انقطاع الشبكة.
تتميز بما يلي:
تجميع موارد GPU غير المستخدمة: الموردون الرئيسيون هم مشغلو مراكز البيانات المستقلة والمتوسطة الحجم من الطرف الثالث، مثل موارد الطاقة الزائدة لمزارع التعدين ومنصات التعدين التي تعتمد آلية التوافق PoS، مثل آلات تعدين FileCoin وETH. حاليًا، هناك أيضًا مشاريع تهدف إلى بدء تشغيل أجهزة ذات عتبة دخول أقل، مثل exolab التي تستخدم أجهزة محلية مثل MacBook وiPhone وiPad لإنشاء شبكة طاقة لتشغيل استنتاج النماذج الكبيرة.
مواجهة سوق الذيل الطويل لقدرة الذكاء الاصطناعي:
أ. من ناحية التقنية، يعتبر سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على قدرة معالجة البيانات التي توفرها مجموعات GPU الكبيرة جدًا، بينما تتطلب الاستدلال أداءً أقل نسبيًا من حيث حسابات GPU، كما تركز Aethir على العمل في مجال العرض منخفض التأخير وتطبيقات الاستدلال الذكي.
ب. من منظور جانب الطلب، لن تقوم الأطراف ذات القدرة الحاسوبية المتوسطة بتدريب نماذجها الكبيرة بشكل منفصل، بل ستختار فقط تحسين وتعديل النماذج الكبيرة الرائدة القليلة، وهذه السيناريوهات مناسبة بشكل طبيعي لموارد القدرة الحاسوبية المتاحة بشكل موزع.
الملكية اللامركزية: المعنى التكنولوجي للبلوكشين هو أن مالكي الموارد يحتفظون دائمًا بالتحكم في الموارد، ويقومون بتعديلها بمرونة وفقًا للاحتياجات، بينما يحصلون على العوائد.
البيانات
البيانات هي أساس الذكاء الاصطناعي. بدون بيانات، تصبح الحسابات عديمة الفائدة مثل الطحالب العائمة. العلاقة بين البيانات والنماذج تشبه المقولة الشهيرة "القمامة تدخل، القمامة تخرج"، حيث تحدد كمية البيانات وجودة المدخلات جودة المخرجات النهائية للنموذج. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات قدرة النموذج اللغوية، وفهمه، وحتى قيمه وظهوره الإنساني. تركز أزمة طلب البيانات للذكاء الاصطناعي حاليًا على أربعة مجالات رئيسية:
جوع البيانات: تعتمد نماذج الذكاء الاصطناعي على إدخال كميات هائلة من البيانات للتدريب. تُظهر المعلومات العامة أن OpenAI تدرب نموذج GPT-4 بمعدل معلمات يصل إلى تريليون.
جودة البيانات: مع دمج الذكاء الاصطناعي مع مختلف الصناعات، أصبحت متطلبات جودة البيانات أكثر تعقيدًا، بما في ذلك أحدثية البيانات، تنوعها، تخصص البيانات القطاعية، ومصادر البيانات الناشئة مثل استشعار المشاعر على وسائل التواصل الاجتماعي.
قضايا الخصوصية والامتثال: بدأت الدول والشركات الحالية في إدراك أهمية مجموعات البيانات عالية الجودة، وتقوم الآن بتقييد جمع البيانات.
تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تشير المعلومات العامة إلى أن أكثر من 30% من تكلفة البحث والتطوير لشركات الذكاء الاصطناعي تُستخدم في جمع البيانات الأساسية ومعالجتها.
حالياً، تتجسد حلول الويب 3 في أربعة جوانب التالية:
جمع البيانات: البيانات الحقيقية التي يمكن جمعها مجانًا تتناقص بسرعة، وتزداد نفقات الشركات العاملة في مجال الذكاء الاصطناعي لدفع ثمن البيانات عامًا بعد عام. لكن هذه النفقات لا تعود بالنفع على المساهمين الحقيقيين في البيانات، حيث تستفيد المنصات بالكامل من القيمة التي يولدها البيانات، مثل Reddit التي حققت إيرادات إجمالية قدرها 203 مليون دولار من خلال توقيع اتفاقيات ترخيص البيانات مع شركات الذكاء الاصطناعي.
الهدف من Web3 هو السماح للمستخدمين الذين يساهمون حقًا بالمشاركة في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة من المستخدمين بتكاليف منخفضة من خلال الشبكات الموزعة وآليات التحفيز.
Grass هي طبقة بيانات وشبكة لامركزية، يمكن للمستخدمين من خلالها تشغيل عقد Grass، والمساهمة في عرض النطاق الترددي غير المستخدم وحركة المرور الوسيطة لالتقاط البيانات في الوقت الحقيقي من جميع أنحاء الإنترنت، والحصول على مكافآت رمزية.
قدمت Vana مفهوم فريد لبركة سيولة البيانات (DLP)، حيث يمكن للمستخدمين رفع البيانات الشخصية (مثل سجلات الشراء، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، إلخ) إلى DLP معينة، واختيار ما إذا كانوا يرغبون في منح إذن لاستخدام هذه البيانات لطرف ثالث معين.
في PublicAI، يمكن للمستخدمين استخدام #AI或#Web3 كعلامة تصنيف على X و @PublicAI لجمع البيانات.
معالجة البيانات: خلال عملية معالجة بيانات الذكاء الاصطناعي، نظرًا لأن البيانات المجمعة غالبًا ما تكون فوضوية وتحتوي على أخطاء، يجب تنظيفها وتحويلها إلى تنسيق قابل للاستخدام قبل تدريب النموذج، مما ينطوي على مهام متكررة تتعلق بالتوحيد والترشيح ومعالجة القيم المفقودة. هذه المرحلة هي واحدة من القليل من المراحل اليدوية في صناعة الذكاء الاصطناعي، وقد نشأت منها صناعة العلامة البيانية للبيانات، ومع زيادة متطلبات جودة البيانات للنماذج، ارتفعت عتبة دخول العلامات البيانية للبيانات، وهذه المهمة تناسب بشكل طبيعي آلية التحفيز اللامركزية في Web3.
حاليا، يقوم كل من Grass و OpenLayer بدراسة الانضمام إلى هذه المرحلة الأساسية من التعليق على البيانات.
قدمت Synesis مفهوم "Train2earn"، مشددة على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موضحة، تعليقات، أو أشكال أخرى من المدخلات.
مشروع تصنيف البيانات Sapien يقوم بتحويل مهام التصنيف إلى لعبة، ويسمح للمستخدمين برهن النقاط لكسب المزيد من النقاط.
خصوصية البيانات والأمان: من المهم توضيح أن خصوصية البيانات والأمان هما مفهومان مختلفان. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي أمان البيانات معلومات البيانات من الوصول غير المصرح به، والتدمير، والسرقة. ومن ثم، فإن مزايا تقنيات الخصوصية في Web3 وسيناريوهات التطبيق المحتملة تتجلى في جانبين: (1) تدريب البيانات الحساسة؛ (2) التعاون في البيانات: يمكن لعدة مالكي بيانات المشاركة بشكل جماعي في تدريب الذكاء الاصطناعي دون الحاجة إلى مشاركة بياناتهم الأصلية.
تشمل تقنيات الخصوصية الشائعة حاليًا في Web3 ما يلي:
بيئة تنفيذ موثوقة ( TEE )، مثل بروتوكول سوبر.
التشفير المتجانس بالكامل (FHE)، مثل BasedAI، Fhenix.io أو Inco Network.
تقنية المعرفة الصفرية (zk)، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات المعرفة الصفرية لحركة مرور HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بشكل آمن دون الحاجة إلى الكشف عن معلومات حساسة.
ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، حيث لا يزال معظم المشاريع في مرحلة الاستكشاف، والمشكلة الحالية هي أن تكاليف الحساب مرتفعة جداً، على سبيل المثال:
يحتاج إطار zkML EZKL حوالي 80 دقيقة لإنتاج دليل نموذج 1M-nanoGPT.
وفقًا لبيانات Modulus Labs، فإن تكلفة zkML أعلى بأكثر من 1000 مرة من الحسابات البحتة.
تخزين البيانات: بعد الحصول على البيانات، تحتاج أيضًا إلى مكان لتخزين البيانات على السلسلة، بالإضافة إلى LLM الناتج عن استخدام هذه البيانات. مع اعتبار توافر البيانات (DA) كمسألة رئيسية، كانت قدرة معالجة الإيثيريوم قبل ترقية Danksharding تساوي 0.08MB. في الوقت نفسه، يتطلب تدريب نماذج الذكاء الاصطناعي والاستدلال في الوقت الحقيقي عادةً من 50 إلى 100 جيجابايت من قدرة معالجة البيانات في الثانية. هذه الفجوة الكبيرة في الحجم تجعل الحلول الموجودة على السلسلة غير قادرة على التعامل مع "تطبيقات الذكاء الاصطناعي التي تتطلب موارد مكثفة".
0g.AI هو المشروع الرائد في هذه الفئة. إنه حل تخزين مركزي مصمم لتلبية متطلبات الأداء العالي للذكاء الاصطناعي، وتتميز خصائصه الرئيسية بـ: الأداء العالي وقابلية التوسع، من خلال تقنيات التقسيم المتقدم (Sharding) وترميز الحذف (Erasure Coding)، يدعم تحميل وتنزيل مجموعات البيانات الكبيرة بسرعة، حيث تصل سرعة نقل البيانات إلى ما يقرب من 5 جيجابايت في الثانية.
٢. البرمجيات الوسيطة: تدريب النموذج واستنتاجه
سوق النماذج المفتوحة اللامركزية
لم تختفِ المناقشة حول ما إذا كان يجب أن تكون نماذج الذكاء الاصطناعي مغلقة المصدر أم مفتوحة. الابتكار الجماعي الذي يجلبه المصدر المفتوح هو ميزة لا يمكن لنماذج المصدر المغلق مقارنتها بها، ومع ذلك، كيف يمكن للنماذج المفتوحة أن تعزز دافع المطورين في غياب نموذج ربح واضح؟ هذا يستحق التفكير.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
تسجيلات الإعجاب 16
أعجبني
16
6
مشاركة
تعليق
0/400
NeverVoteOnDAO
· منذ 14 س
مرة أخرى، تستخدم هذه المفاهيم لخداع الناس
شاهد النسخة الأصليةرد0
PanicSeller69
· منذ 14 س
لفتتني حقًا أن ألحق بالمركز
شاهد النسخة الأصليةرد0
OnChainDetective
· منذ 14 س
راقبت البيانات طوال الليل، حتى نمط التداول تم إعداده مسبقًا بواسطة الذكاء الاصطناعي.
شاهد النسخة الأصليةرد0
SybilSlayer
· منذ 14 س
أحب التشفير وأحب التجول، حقاً رائع
شاهد النسخة الأصليةرد0
ThatsNotARugPull
· منذ 14 س
يدور حول الاحتيال لتحقيق الربح دون أن يكون حمقى في عالم الويب 3.
AI+Web3: استكشاف تطبيق الحوافز الموزعة في أسواق البيانات، قوة الحوسبة والنماذج مفتوحة المصدر
الذكاء الاصطناعي + الويب 3: الأبراج والساحات
TL; د
مشاريع Web3 التي تعتمد على مفهوم الذكاء الاصطناعي أصبحت أهداف جذب الأموال في الأسواق الأولية والثانوية.
تظهر فرص Web3 في صناعة الذكاء الاصطناعي من خلال: استخدام الحوافز الموزعة لتنسيق العرض المحتمل الطويل الذيل، والذي يتضمن البيانات والتخزين والحساب؛ في نفس الوقت إنشاء نماذج مفتوحة المصدر وسوق لامركزي لوكلاء الذكاء الاصطناعي.
يتم استخدام الذكاء الاصطناعي بشكل رئيسي في صناعة Web3 في التمويل على السلسلة (المدفوعات المشفرة، التداول، تحليل البيانات) وكذلك في مساعدة التطوير.
تظهر فائدة AI+Web3 في تكميل كلا الجانبين: من المتوقع أن يتصدى Web3 لتركز AI، ومن المتوقع أن يساعد AI Web3 في كسر الحدود.
! الذكاء الاصطناعي+Web3: الأبراج والساحات
المقدمة
في العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع. لم تفتح هذه الموجة التي أثارها Chatgpt عالماً جديداً من الذكاء الاصطناعي التوليدي فحسب، بل أحدثت أيضاً أمواجاً كبيرة في مجال Web3.
تحت تأثير مفهوم الذكاء الاصطناعي، شهدت سوق التشفير انتعاشًا واضحًا في التمويل. ووفقًا للإحصاءات، أكمل 64 مشروعًا من مشاريع Web3 + AI التمويل في النصف الأول من عام 2024 فقط، وحقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل بلغ 100 مليون دولار في الجولة الأولى.
السوق الثانوية أكثر ازدهارًا. تظهر بيانات موقع Coingecko المجمعة للعملات الرقمية أنه في غضون أكثر من عام بقليل، بلغ إجمالي القيمة السوقية لقطاع الذكاء الاصطناعي 48.5 مليار دولار، وحجم التداول على مدار 24 ساعة قريب من 8.6 مليار دولار. الفوائد الواضحة الناتجة عن التقدم في تكنولوجيا الذكاء الاصطناعي السائدة، بعد إصدار نموذج OpenAI Sora لتحويل النص إلى فيديو، ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151%. تأثير الذكاء الاصطناعي أيضًا يصل إلى أحد قطاعات جمع العملات الرقمية، وهو Meme: حيث أصبحت العملة MemeCoin الأولى التي تعتمد على مفهوم الوكيل الذكي - GOAT مشهورة بسرعة وحصلت على تقييم قدره 1.4 مليار دولار، مما أثار موجة من ميمات الذكاء الاصطناعي.
إن الأبحاث والمواضيع المتعلقة بـ AI + Web3 تحظى بنفس القدر من الحماسة، من AI + Depin إلى AI Memecoin وصولاً إلى AI Agent و AI DAO الحالية، أصبحت مشاعر FOMO بالفعل غير قادرة على مواكبة سرعة تبديل السرد الجديد.
مجموعة المصطلحات AI+Web3 المليئة بالمال الساخن، والاتجاهات، وأحلام المستقبل، لا مفر من اعتبارها زواجًا مرتبًا من قبل رأس المال. يبدو أنه من الصعب علينا التمييز تحت هذا الغلاف الفاخر، هل هي ساحة المضاربين، أم أنها ليلة انفجار الفجر؟
للإجابة على هذا السؤال، فإن أحد الأفكار الرئيسية التي تهم الطرفين هو: هل سيكون الوضع أفضل بوجود الآخر؟ هل يمكن الاستفادة من نمط الآخر؟ تحاول هذه المقالة الوقوف على أكتاف السابقين لفحص هذه الصورة: كيف يمكن أن تلعب Web3 دورًا في مختلف مراحل تكنولوجيا الذكاء الاصطناعي، وما الجديد الذي يمكن أن يجلبه الذكاء الاصطناعي إلى Web3؟
الجزء 1 ما هي الفرص المتاحة لـ Web3 تحت كومة الذكاء الاصطناعي؟
قبل الخوض في هذا الموضوع، نحتاج إلى فهم تقنية نموذج الذكاء الاصطناعي الكبير:
استخدم لغة بسيطة لوصف العملية بأكملها: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة يعتبر كأنه طفل حديث الولادة، يحتاج إلى مراقبة وتجميع كميات هائلة من المعلومات الخارجية لفهم العالم، وهذه هي مرحلة "جمع البيانات". نظرًا لأن أجهزة الكمبيوتر لا تمتلك حواس متعددة مثل البشر، يجب تحويل المعلومات الخارجية الضخمة غير المعلَّمة قبل التدريب إلى تنسيق معلومات يمكن للكمبيوتر فهمه واستخدامه من خلال "المعالجة المسبقة".
بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتباره عملية تدريجية لفهم وتعلم الطفل عن العالم الخارجي، حيث يتم تعديل معلمات النموذج مثل القدرة اللغوية التي تتكيف باستمرار خلال عملية تعلم الطفل. تبدأ المحتويات التعليمية بالتخصص، أو يتم الحصول على ردود فعل من خلال التواصل مع الآخرين وتصحيح الأخطاء، مما يؤدي إلى دخول مرحلة "التعديل الدقيق" للنموذج الكبير.
عندما يكبر الأطفال ويتعلمون الكلام، يمكنهم فهم المعاني والتعبير عن المشاعر والأفكار في محادثات جديدة. هذه المرحلة مشابهة لـ "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث يمكن للنموذج إجراء تحليل وتنبؤات على إدخال نصوص لغوية جديدة. يعبر الرضع عن مشاعرهم وقدرتهم اللغوية، ويصفون الأشياء ويحلون المشكلات، وهذا مشابه لطريقة استخدام نماذج الذكاء الاصطناعي الكبيرة بعد التدريب في مرحلة الاستدلال لأداء مهام محددة مثل تصنيف الصور، والتعرف على الصوت، وغيرها.
ووكيل الذكاء الاصطناعي يقترب أكثر من الشكل التالي للنماذج الكبيرة - القدرة على تنفيذ المهام بشكل مستقل والسعي نحو أهداف معقدة، حيث يمتلك القدرة على التفكير، وكذلك الذاكرة والتخطيط، ويمكنه استخدام الأدوات للتفاعل مع العالم.
في الوقت الحالي، وبالنظر إلى نقاط الألم المتعلقة بالذكاء الاصطناعي في مختلف الطبقات، بدأ Web3 في تشكيل نظام بيئي متعدد المستويات ومترابط، يغطي جميع مراحل عملية نماذج الذكاء الاصطناعي.
! الذكاء الاصطناعي+Web3: الأبراج والمربعات
واحد، الطبقة الأساسية: Airbnb للقوة الحاسوبية والبيانات
قوة التعدين
في الوقت الحالي، أحد أعلى التكاليف في الذكاء الاصطناعي هو القدرة الحاسوبية والطاقة المطلوبة لتدريب النماذج ونماذج الاستدلال.
على سبيل المثال، يحتاج LLAMA3 من Meta إلى 16000 وحدة معالجة رسومات H100 من NVIDIA (وهي وحدات معالجة رسومات رائدة مصممة خصيصًا لأعباء عمل الذكاء الاصطناعي والحوسبة عالية الأداء) لمدة 30 يومًا لإكمال التدريب. يتراوح سعر النسخة ذات سعة 80 جيجابايت بين 30000 و40000 دولار، مما يتطلب استثمارًا في معدات الحوسبة (وحدات معالجة الرسومات + شرائح الشبكة) يتراوح بين 400 إلى 700 مليون دولار، في حين أن التدريب الشهري يتطلب استهلاك 1.6 مليار كيلووات ساعة، مما يؤدي إلى نفقات طاقة شهرية تقترب من 20 مليون دولار.
تخفيف الضغط عن قوة الذكاء الاصطناعي هو أيضًا أحد المجالات الأولى التي تتقاطع فيها Web3 مع الذكاء الاصطناعي - DePin (شبكة البنية التحتية الفيزيائية اللامركزية). حاليًا، قام موقع DePin Ninja بتسجيل أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة GPU تشمل io.net وAethir وAkash وRender Network وغيرها.
المنطق الرئيسي هنا هو: يتيح النظام للأفراد أو الكيانات الذين يمتلكون موارد GPU غير المستغلة المساهمة في القدرة الحاسوبية بطريقة لامركزية دون الحاجة إلى إذن، من خلال سوق عبر الإنترنت يشبه Uber أو Airbnb بين المشترين والبائعين، مما يزيد من استخدام موارد GPU غير المستغلة. وبالتالي، يحصل المستخدمون النهائيون على موارد حسابية فعالة بتكلفة أقل؛ في الوقت نفسه، يضمن آلية الرهن العقاري فرض عقوبات على مقدمي الموارد في حال انتهاكهم لآلية مراقبة الجودة أو انقطاع الشبكة.
تتميز بما يلي:
تجميع موارد GPU غير المستخدمة: الموردون الرئيسيون هم مشغلو مراكز البيانات المستقلة والمتوسطة الحجم من الطرف الثالث، مثل موارد الطاقة الزائدة لمزارع التعدين ومنصات التعدين التي تعتمد آلية التوافق PoS، مثل آلات تعدين FileCoin وETH. حاليًا، هناك أيضًا مشاريع تهدف إلى بدء تشغيل أجهزة ذات عتبة دخول أقل، مثل exolab التي تستخدم أجهزة محلية مثل MacBook وiPhone وiPad لإنشاء شبكة طاقة لتشغيل استنتاج النماذج الكبيرة.
مواجهة سوق الذيل الطويل لقدرة الذكاء الاصطناعي:
أ. من ناحية التقنية، يعتبر سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على قدرة معالجة البيانات التي توفرها مجموعات GPU الكبيرة جدًا، بينما تتطلب الاستدلال أداءً أقل نسبيًا من حيث حسابات GPU، كما تركز Aethir على العمل في مجال العرض منخفض التأخير وتطبيقات الاستدلال الذكي.
ب. من منظور جانب الطلب، لن تقوم الأطراف ذات القدرة الحاسوبية المتوسطة بتدريب نماذجها الكبيرة بشكل منفصل، بل ستختار فقط تحسين وتعديل النماذج الكبيرة الرائدة القليلة، وهذه السيناريوهات مناسبة بشكل طبيعي لموارد القدرة الحاسوبية المتاحة بشكل موزع.
البيانات
البيانات هي أساس الذكاء الاصطناعي. بدون بيانات، تصبح الحسابات عديمة الفائدة مثل الطحالب العائمة. العلاقة بين البيانات والنماذج تشبه المقولة الشهيرة "القمامة تدخل، القمامة تخرج"، حيث تحدد كمية البيانات وجودة المدخلات جودة المخرجات النهائية للنموذج. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات قدرة النموذج اللغوية، وفهمه، وحتى قيمه وظهوره الإنساني. تركز أزمة طلب البيانات للذكاء الاصطناعي حاليًا على أربعة مجالات رئيسية:
جوع البيانات: تعتمد نماذج الذكاء الاصطناعي على إدخال كميات هائلة من البيانات للتدريب. تُظهر المعلومات العامة أن OpenAI تدرب نموذج GPT-4 بمعدل معلمات يصل إلى تريليون.
جودة البيانات: مع دمج الذكاء الاصطناعي مع مختلف الصناعات، أصبحت متطلبات جودة البيانات أكثر تعقيدًا، بما في ذلك أحدثية البيانات، تنوعها، تخصص البيانات القطاعية، ومصادر البيانات الناشئة مثل استشعار المشاعر على وسائل التواصل الاجتماعي.
قضايا الخصوصية والامتثال: بدأت الدول والشركات الحالية في إدراك أهمية مجموعات البيانات عالية الجودة، وتقوم الآن بتقييد جمع البيانات.
تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تشير المعلومات العامة إلى أن أكثر من 30% من تكلفة البحث والتطوير لشركات الذكاء الاصطناعي تُستخدم في جمع البيانات الأساسية ومعالجتها.
حالياً، تتجسد حلول الويب 3 في أربعة جوانب التالية:
الهدف من Web3 هو السماح للمستخدمين الذين يساهمون حقًا بالمشاركة في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة من المستخدمين بتكاليف منخفضة من خلال الشبكات الموزعة وآليات التحفيز.
Grass هي طبقة بيانات وشبكة لامركزية، يمكن للمستخدمين من خلالها تشغيل عقد Grass، والمساهمة في عرض النطاق الترددي غير المستخدم وحركة المرور الوسيطة لالتقاط البيانات في الوقت الحقيقي من جميع أنحاء الإنترنت، والحصول على مكافآت رمزية.
قدمت Vana مفهوم فريد لبركة سيولة البيانات (DLP)، حيث يمكن للمستخدمين رفع البيانات الشخصية (مثل سجلات الشراء، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، إلخ) إلى DLP معينة، واختيار ما إذا كانوا يرغبون في منح إذن لاستخدام هذه البيانات لطرف ثالث معين.
في PublicAI، يمكن للمستخدمين استخدام #AI或#Web3 كعلامة تصنيف على X و @PublicAI لجمع البيانات.
حاليا، يقوم كل من Grass و OpenLayer بدراسة الانضمام إلى هذه المرحلة الأساسية من التعليق على البيانات.
قدمت Synesis مفهوم "Train2earn"، مشددة على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موضحة، تعليقات، أو أشكال أخرى من المدخلات.
مشروع تصنيف البيانات Sapien يقوم بتحويل مهام التصنيف إلى لعبة، ويسمح للمستخدمين برهن النقاط لكسب المزيد من النقاط.
تشمل تقنيات الخصوصية الشائعة حاليًا في Web3 ما يلي:
بيئة تنفيذ موثوقة ( TEE )، مثل بروتوكول سوبر.
التشفير المتجانس بالكامل (FHE)، مثل BasedAI، Fhenix.io أو Inco Network.
تقنية المعرفة الصفرية (zk)، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات المعرفة الصفرية لحركة مرور HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بشكل آمن دون الحاجة إلى الكشف عن معلومات حساسة.
ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، حيث لا يزال معظم المشاريع في مرحلة الاستكشاف، والمشكلة الحالية هي أن تكاليف الحساب مرتفعة جداً، على سبيل المثال:
يحتاج إطار zkML EZKL حوالي 80 دقيقة لإنتاج دليل نموذج 1M-nanoGPT.
وفقًا لبيانات Modulus Labs، فإن تكلفة zkML أعلى بأكثر من 1000 مرة من الحسابات البحتة.
٢. البرمجيات الوسيطة: تدريب النموذج واستنتاجه
سوق النماذج المفتوحة اللامركزية
لم تختفِ المناقشة حول ما إذا كان يجب أن تكون نماذج الذكاء الاصطناعي مغلقة المصدر أم مفتوحة. الابتكار الجماعي الذي يجلبه المصدر المفتوح هو ميزة لا يمكن لنماذج المصدر المغلق مقارنتها بها، ومع ذلك، كيف يمكن للنماذج المفتوحة أن تعزز دافع المطورين في غياب نموذج ربح واضح؟ هذا يستحق التفكير.