تُعيد الذكاء الاصطناعي تشكيل كل ركن من أركان الحياة الحديثة بهدوء. من كيفية بحثنا على الويب إلى كيفية استثمارنا، وتعلمنا، وتصويتنا، أصبحت نماذج الذكاء الاصطناعي الآن تتوسط بعض من أهم قراراتنا. لكن وراء هذا الراحة المتزايدة يكمن قلق أعمق وأكثر إلحاحًا: لا يمتلك الجمهور أي رؤية حول كيفية عمل هذه النماذج، وما الذي يتم تدريبها عليه، أو من يستفيد منها.
هذا هو شعور الديجافو.
لقد عشنا هذا من قبل مع وسائل التواصل الاجتماعي، موكلين مجموعة صغيرة من الشركات بسلطة غير مسبوقة على الخطاب العام. وقد أدى ذلك إلى عدم وضوح الخوارزميات، والغضب المربح، وتآكل الواقع المشترك. هذه المرة، ليست خلاصاتنا فقط في خطر، بل أنظمة اتخاذ القرار لدينا، والأطر القانونية، والمؤسسات الأساسية.
ونحن نمشي نحوها وعيوننا مغلقة.
شكل المستقبل المركزي بدأ بالفعل يتضح
تسيطر مجموعة من المختبرات القوية التي تعمل في الخفاء على مشهد الذكاء الاصطناعي اليوم. تقوم هذه الشركات بتدريب نماذج كبيرة على مجموعات بيانات ضخمة - تم جمعها من الإنترنت، أحيانًا دون موافقة - وتصدرها في منتجات تشكل مليارات التفاعلات الرقمية كل يوم. هذه النماذج ليست مفتوحة للتدقيق. البيانات ليست قابلة للتدقيق. النتائج ليست مسؤولة.
هذه المركزية ليست مجرد قضية تقنية. إنها قضية سياسية واقتصادية. يتم بناء مستقبل الإدراك في صناديق سوداء، محجوبة خلف جدران قانونية، ومُحسّنة لقيمة المساهمين. مع تحول أنظمة الذكاء الاصطناعي إلى مزيد من الاستقلالية واندماجها في المجتمع، نواجه خطر تحويل البنية التحتية العامة الأساسية إلى محركات تحكمها جهات خاصة.
السؤال ليس ما إذا كانت الذكاء الاصطناعي سيغير المجتمع؛ لقد حدث ذلك بالفعل. القضية الحقيقية هي ما إذا كان لدينا أي قول في كيفية حدوث هذا التحول.
القضية من أجل الذكاء الاصطناعي اللامركزي
ومع ذلك، هناك مسار بديل - واحد يتم استكشافه بالفعل من قبل المجتمعات والباحثين والمطورين في جميع أنحاء العالم.
بدلاً من تعزيز النظم البيئية المغلقة، يقترح هذا التحرك بناء أنظمة ذكاء اصطناعي تكون شفافة من حيث التصميم، لامركزية في الحوكمة، وقابلة للمساءلة أمام الأشخاص الذين يدعمونها. يتطلب هذا التحول أكثر من مجرد ابتكار تقني - إنه يتطلب إعادة توجيه ثقافي حول الملكية، والاعتراف، والمسؤولية الجماعية.
في مثل هذا النموذج، لا يتم استخراج البيانات وتحقيق الربح منها دون اعتراف. يتم المساهمة بها، والتحقق منها، وإدارتها من قبل الأشخاص الذين ينتجونها. يمكن للمساهمين الحصول على اعتراف أو مكافآت. يصبح المدققون أصحاب مصلحة. وتتطور الأنظمة مع الإشراف العام بدلاً من السيطرة الأحادية.
بينما لا تزال هذه الأساليب في مراحلها الأولى من التطوير، فإنها تشير إلى مستقبل مختلف جذريًا—مستقبل يتدفق فيه الذكاء من نظير إلى نظير، وليس من أعلى إلى أسفل.
لماذا لا يمكن أن تنتظر الشفافية
تحدث عملية توحيد بنية الذكاء الاصطناعي بسرعة فائقة. الشركات التي تقدر قيمتها بتريليونات الدولارات تتسابق لبناء أنابيب متكاملة عمودياً. الحكومات تقترح تنظيمات لكنها تكافح لمواكبة ذلك. في الوقت نفسه، تتراجع ثقة الناس في الذكاء الاصطناعي. وجدت دراسة حديثة من إيدلمان أن 35% فقط من الأمريكيين يثقون بشركات الذكاء الاصطناعي، وهو انخفاض كبير عن السنوات السابقة.
هذه الأزمة في الثقة ليست مفاجئة. كيف يمكن للجمهور أن يثق في أنظمة لا يفهمونها، ولا يمكنهم تدقيقها، وليس لديهم سبيل للطعن فيها؟
العلاج الوحيد المستدام هو الشفافية، ليس فقط في النماذج نفسها، ولكن عبر كل طبقة: من كيفية جمع البيانات، إلى كيفية تدريب النماذج، إلى من يستفيد من استخدامها. من خلال دعم البنية التحتية المفتوحة وبناء أطر عمل تعاونية للتخصيص، يمكننا أن نبدأ في إعادة توازن ديناميكية القوة.
هذا ليس عن عرقلة الابتكار. إنه عن تشكيله.
كيف يمكن أن يبدو الملكية المشتركة
يتطلب بناء اقتصاد AI الشفاف إعادة التفكير في أكثر من مجرد قواعد الشفرة. يعني ذلك إعادة النظر في الحوافز التي حددت صناعة التكنولوجيا على مدى العقدين الماضيين.
قد يتضمن مستقبل الذكاء الاصطناعي الأكثر ديمقراطية دفاتر أستاذ عامة تتعقب كيف تؤثر مساهمات البيانات على النتائج، والحوكمة الجماعية على تحديثات النموذج وقرارات النشر، والمشاركة الاقتصادية للمساهمين والمدربين والمصادقين، وأنظمة التدريب الفيدرالية التي تعكس القيم والسياقات المحلية.
إنها نقاط انطلاق لمستقبل لا تستجيب فيه الذكاء الاصطناعي فقط لرأس المال ولكن للمجتمع.
الساعة تدق
لا يزال لدينا خيار في كيفية تطور هذا الأمر. لقد رأينا بالفعل ما يحدث عندما نتخلى عن وكالتنا الرقمية لمنصات مركزية. مع الذكاء الاصطناعي، ستكون العواقب أكثر عمقًا وأقل قابلية للعكس.
إذا كنا نريد مستقبلًا تكون فيه الذكاء منفعة عامة مشتركة، وليس أصلًا خاصًا، فعلينا أن نبدأ في بناء أنظمة تكون مفتوحة وقابلة للتدقيق وعادلة.
يبدأ بسؤال بسيط: من يجب أن يخدم الذكاء الاصطناعي في النهاية؟
رام كومار هو مساهم رئيسي في OpenLedger، طبقة اقتصادية جديدة للذكاء الاصطناعي حيث يتم التعرف على المساهمين في البيانات، وبناة النماذج، ومطوري التطبيقات، ومكافأتهم أخيرًا على القيمة التي يخلقونها. مع خبرة واسعة في التعامل مع حسابات الشركات التي تبلغ قيمتها عدة مليارات من الدولارات، عمل رام بنجاح مع عمالقة عالميين مثل وول مارت، وسوني، وGSK، وLA Times
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
يتم بناء الذكاء الاصطناعي خلف أبواب مغلقة، وهذه غلطة
تُعيد الذكاء الاصطناعي تشكيل كل ركن من أركان الحياة الحديثة بهدوء. من كيفية بحثنا على الويب إلى كيفية استثمارنا، وتعلمنا، وتصويتنا، أصبحت نماذج الذكاء الاصطناعي الآن تتوسط بعض من أهم قراراتنا. لكن وراء هذا الراحة المتزايدة يكمن قلق أعمق وأكثر إلحاحًا: لا يمتلك الجمهور أي رؤية حول كيفية عمل هذه النماذج، وما الذي يتم تدريبها عليه، أو من يستفيد منها.
هذا هو شعور الديجافو.
لقد عشنا هذا من قبل مع وسائل التواصل الاجتماعي، موكلين مجموعة صغيرة من الشركات بسلطة غير مسبوقة على الخطاب العام. وقد أدى ذلك إلى عدم وضوح الخوارزميات، والغضب المربح، وتآكل الواقع المشترك. هذه المرة، ليست خلاصاتنا فقط في خطر، بل أنظمة اتخاذ القرار لدينا، والأطر القانونية، والمؤسسات الأساسية.
ونحن نمشي نحوها وعيوننا مغلقة.
شكل المستقبل المركزي بدأ بالفعل يتضح
تسيطر مجموعة من المختبرات القوية التي تعمل في الخفاء على مشهد الذكاء الاصطناعي اليوم. تقوم هذه الشركات بتدريب نماذج كبيرة على مجموعات بيانات ضخمة - تم جمعها من الإنترنت، أحيانًا دون موافقة - وتصدرها في منتجات تشكل مليارات التفاعلات الرقمية كل يوم. هذه النماذج ليست مفتوحة للتدقيق. البيانات ليست قابلة للتدقيق. النتائج ليست مسؤولة.
هذه المركزية ليست مجرد قضية تقنية. إنها قضية سياسية واقتصادية. يتم بناء مستقبل الإدراك في صناديق سوداء، محجوبة خلف جدران قانونية، ومُحسّنة لقيمة المساهمين. مع تحول أنظمة الذكاء الاصطناعي إلى مزيد من الاستقلالية واندماجها في المجتمع، نواجه خطر تحويل البنية التحتية العامة الأساسية إلى محركات تحكمها جهات خاصة.
السؤال ليس ما إذا كانت الذكاء الاصطناعي سيغير المجتمع؛ لقد حدث ذلك بالفعل. القضية الحقيقية هي ما إذا كان لدينا أي قول في كيفية حدوث هذا التحول.
القضية من أجل الذكاء الاصطناعي اللامركزي
ومع ذلك، هناك مسار بديل - واحد يتم استكشافه بالفعل من قبل المجتمعات والباحثين والمطورين في جميع أنحاء العالم.
بدلاً من تعزيز النظم البيئية المغلقة، يقترح هذا التحرك بناء أنظمة ذكاء اصطناعي تكون شفافة من حيث التصميم، لامركزية في الحوكمة، وقابلة للمساءلة أمام الأشخاص الذين يدعمونها. يتطلب هذا التحول أكثر من مجرد ابتكار تقني - إنه يتطلب إعادة توجيه ثقافي حول الملكية، والاعتراف، والمسؤولية الجماعية.
في مثل هذا النموذج، لا يتم استخراج البيانات وتحقيق الربح منها دون اعتراف. يتم المساهمة بها، والتحقق منها، وإدارتها من قبل الأشخاص الذين ينتجونها. يمكن للمساهمين الحصول على اعتراف أو مكافآت. يصبح المدققون أصحاب مصلحة. وتتطور الأنظمة مع الإشراف العام بدلاً من السيطرة الأحادية.
بينما لا تزال هذه الأساليب في مراحلها الأولى من التطوير، فإنها تشير إلى مستقبل مختلف جذريًا—مستقبل يتدفق فيه الذكاء من نظير إلى نظير، وليس من أعلى إلى أسفل.
لماذا لا يمكن أن تنتظر الشفافية
تحدث عملية توحيد بنية الذكاء الاصطناعي بسرعة فائقة. الشركات التي تقدر قيمتها بتريليونات الدولارات تتسابق لبناء أنابيب متكاملة عمودياً. الحكومات تقترح تنظيمات لكنها تكافح لمواكبة ذلك. في الوقت نفسه، تتراجع ثقة الناس في الذكاء الاصطناعي. وجدت دراسة حديثة من إيدلمان أن 35% فقط من الأمريكيين يثقون بشركات الذكاء الاصطناعي، وهو انخفاض كبير عن السنوات السابقة.
هذه الأزمة في الثقة ليست مفاجئة. كيف يمكن للجمهور أن يثق في أنظمة لا يفهمونها، ولا يمكنهم تدقيقها، وليس لديهم سبيل للطعن فيها؟
العلاج الوحيد المستدام هو الشفافية، ليس فقط في النماذج نفسها، ولكن عبر كل طبقة: من كيفية جمع البيانات، إلى كيفية تدريب النماذج، إلى من يستفيد من استخدامها. من خلال دعم البنية التحتية المفتوحة وبناء أطر عمل تعاونية للتخصيص، يمكننا أن نبدأ في إعادة توازن ديناميكية القوة.
هذا ليس عن عرقلة الابتكار. إنه عن تشكيله.
كيف يمكن أن يبدو الملكية المشتركة
يتطلب بناء اقتصاد AI الشفاف إعادة التفكير في أكثر من مجرد قواعد الشفرة. يعني ذلك إعادة النظر في الحوافز التي حددت صناعة التكنولوجيا على مدى العقدين الماضيين.
قد يتضمن مستقبل الذكاء الاصطناعي الأكثر ديمقراطية دفاتر أستاذ عامة تتعقب كيف تؤثر مساهمات البيانات على النتائج، والحوكمة الجماعية على تحديثات النموذج وقرارات النشر، والمشاركة الاقتصادية للمساهمين والمدربين والمصادقين، وأنظمة التدريب الفيدرالية التي تعكس القيم والسياقات المحلية.
إنها نقاط انطلاق لمستقبل لا تستجيب فيه الذكاء الاصطناعي فقط لرأس المال ولكن للمجتمع.
الساعة تدق
لا يزال لدينا خيار في كيفية تطور هذا الأمر. لقد رأينا بالفعل ما يحدث عندما نتخلى عن وكالتنا الرقمية لمنصات مركزية. مع الذكاء الاصطناعي، ستكون العواقب أكثر عمقًا وأقل قابلية للعكس.
إذا كنا نريد مستقبلًا تكون فيه الذكاء منفعة عامة مشتركة، وليس أصلًا خاصًا، فعلينا أن نبدأ في بناء أنظمة تكون مفتوحة وقابلة للتدقيق وعادلة.
يبدأ بسؤال بسيط: من يجب أن يخدم الذكاء الاصطناعي في النهاية؟
! رام كومار
رام كومار
رام كومار هو مساهم رئيسي في OpenLedger، طبقة اقتصادية جديدة للذكاء الاصطناعي حيث يتم التعرف على المساهمين في البيانات، وبناة النماذج، ومطوري التطبيقات، ومكافأتهم أخيرًا على القيمة التي يخلقونها. مع خبرة واسعة في التعامل مع حسابات الشركات التي تبلغ قيمتها عدة مليارات من الدولارات، عمل رام بنجاح مع عمالقة عالميين مثل وول مارت، وسوني، وGSK، وLA Times