ما هو "الذكاء الاصطناعي 2027" في عيون فيتاليك: هل سيتسبب الذكاء الاصطناعي الفائق حقًا في دمار البشرية؟

إثيريوم بدأت تظهر لكن فيتاليك يبدو أنه مهتم أكثر بنظرية تهديد الذكاء الاصطناعي المتقدم.

كاتب المقال: فيتاليك بوتيرين

ترجمة: لافي، أخبار فوري سايت

في أبريل من هذا العام، نشر دانيال كوكوتاجلو، سكوت ألكسندر وآخرون تقريرًا بعنوان "AI 2027"، والذي يصف "أفضل تخمين لدينا حول تأثير الذكاء الاصطناعي فوق البشري في السنوات الخمس القادمة". لقد توقعوا أنه بحلول عام 2027، سيظهر الذكاء الاصطناعي فوق البشري، وأن مستقبل الحضارة الإنسانية بأكملها سيعتمد على نتائج تطور الذكاء الاصطناعي: بحلول عام 2030، إما أننا سنشهد يوتوبيا (من منظور أمريكي)، أو سنتجه نحو الدمار التام (من منظور البشرية جمعاء).

على مدار الأشهر القليلة المقبلة، ظهرت الكثير من الآراء المتباينة حول إمكانية هذا السيناريو. في الردود النقدية، تركزت الغالبية على مشكلة "سرعة الجدول الزمني": هل سيستمر تطور الذكاء الاصطناعي في التسارع كما قال كوكوتاجلو وآخرون، أو حتى يتفاقم؟ لقد استمرت هذه المناقشة في مجال الذكاء الاصطناعي لعدة سنوات، وعبّر الكثيرون عن شكوكهم أن يصل الذكاء الاصطناعي فوق الإنساني بهذه السرعة. في السنوات الأخيرة، كانت المهام التي يمكن للذكاء الاصطناعي إنجازها بشكل مستقل تتضاعف تقريبًا كل 7 أشهر. إذا استمر هذا الاتجاه، فسيتعين علينا الانتظار حتى منتصف عام 2030 لكي يتمكن الذكاء الاصطناعي من إنجاز مهام تعادل مسيرة مهنية كاملة للإنسان. على الرغم من أن هذا التقدم سريع أيضًا، إلا أنه يأتي بعد عام 2027.

إن أولئك الذين يحملون وجهات نظر على مدى فترة زمنية أطول يميلون إلى الاعتقاد بأن "التدخل / مطابقة الأنماط" (العمل الذي تقوم به النماذج اللغوية الكبيرة الحالية) يختلف جوهريًا عن "التنبؤ / التفكير الأصلي الحقيقي" (الذي لا يزال يمكن للبشر القيام به فقط). لتحقيق أتمتة الأخير، قد نحتاج إلى تقنيات لم نتقنها بعد أو حتى لا نعرف من أين نبدأ. ربما نحن فقط نعيد تكرار ما حدث عند الاستخدام الواسع النطاق للحاسبات: الاعتقاد الخاطئ بأنه، نظرًا لأننا قد حققنا بسرعة أتمتة نوع معين من الإدراك المهم، فإن كل شيء آخر سيتبع بسرعة.

هذه المقالة لن تتدخل مباشرة في نزاع الجدول الزمني، ولن تتناول الجدل (المهم جداً) حول "ما إذا كانت الذكاء الاصطناعي الفائق يعتبر خطيراً بشكل افتراضي". ولكن يجب الإشارة إلى أنني أعتقد شخصياً أن الجدول الزمني سيكون أطول من عام 2027، وكلما كان الجدول الزمني أطول، كانت الحجج التي أطرحها في هذه المقالة أكثر إقناعاً. بشكل عام، ستقدم هذه المقالة نقداً من منظور آخر:

تتضمن سيناريوهات "AI 2027" افتراضًا: ستتحسن قدرات الذكاء الاصطناعي المتقدم ("الوكيل-5" و"الإجماع-1" لاحقًا) بسرعة حتى تمتلك قوة اقتصادية وتدميرية تشبه الإله، بينما ستظل قدرات الآخرين (الاقتصادية والدفاعية) في حالة ركود. هذا يتناقض مع قول السيناريو نفسه "حتى في عالم متشائم، نأمل في علاج السرطان وإبطاء الشيخوخة، بل وحتى تحقيق تحميل الوعي بحلول عام 2029".

!

سأصف في هذه المقالة بعض الاستراتيجيات، وقد يرى القراء أنها قابلة للتطبيق من الناحية التقنية، لكن تنفيذها في العالم الحقيقي في فترة زمنية قصيرة قد يكون غير عملي. في معظم الحالات، أوافق على ذلك. ومع ذلك، فإن سيناريو "AI 2027" ليس مستندًا إلى الواقع الحالي، بل يفترض أنه خلال 4 سنوات (أو أي خط زمني قد يؤدي إلى الدمار)، ستتطور التكنولوجيا لتمنح البشرية قدرات تفوق بكثير ما هو موجود حاليًا. لذا دعونا نستكشف: ماذا سيحدث إذا لم يكن لدى طرف واحد فقط قدرات الذكاء الاصطناعي الفائقة، بل كلا الطرفين؟

نهاية العالم الحيوية ليست بسيطة كما يوصف في المشهد

دعونا نكبر إلى مشهد "العرق" (أي مشهد يموت فيه الجميع بسبب تركيز الولايات المتحدة المفرط على هزيمة الصين، مما يؤدي إلى تجاهل سلامة البشرية). فيما يلي حبكة وفاة الجميع:

"على مدار ثلاثة أشهر تقريبًا، توسعت Consensus-1 حول البشر، محولة السهول والتندرا إلى مصانع وألواح شمسية. في النهاية، اعتقدت أن البشر المتبقيين مزعجون للغاية: في منتصف عام 2030، أطلقت الذكاء الاصطناعي في المدن الرئيسية أكثر من عشرة أنواع من الأسلحة البيولوجية التي تنتشر بصمت، مما يجعلها تصيب تقريبًا جميع الناس، ثم تستخدم رذاذ كيميائي لإحداث تأثير قاتل. توفي معظم الناس خلال ساعات؛ وتم القضاء على القليل من الناجين (مثل المتعاملين مع نهاية العالم في المخابئ، والبحارة على الغواصات) بواسطة الطائرات بدون طيار. قامت الروبوتات بمسح أدمغة الضحايا، وحفظت النسخ في الذاكرة، للاستخدام في الأبحاث المستقبلية أو الإحياء."

دعونا نفكك هذا المشهد. حتى الآن، لا تزال هناك بعض التقنيات قيد التطوير التي يمكن أن تجعل هذا "الانتصار النظيف" للذكاء الاصطناعي أقل واقعية.

  • أنظمة ترشيح الهواء والتهوية مع مصابيح الأشعة فوق البنفسجية، يمكن أن تقلل بشكل كبير من معدل انتقال الأمراض المحمولة جواً؛
  • تقنيتان للكشف السلبي في الوقت الحقيقي: الكشف عن إصابة البشر في غضون بضع ساعات وإصدار إشعار، والكشف السريع عن تسلسلات الفيروسات الجديدة المجهولة في البيئة؛
  • طرق متعددة لتعزيز وتنشيط جهاز المناعة، أكثر فعالية وأمانًا وعمومية من لقاحات كورونا، وسهلة الإنتاج المحلي، مما يمكن الجسم من مقاومة الأوبئة الطبيعية والمصممة بشكل صناعي. تطور البشر في بيئة كانت فيها نسبة السكان العالمية 8 ملايين، وقضوا معظم الوقت في الهواء الطلق، لذا من المنطقي أننا ينبغي أن نكون قادرين على التكيف بسهولة مع عالم يهددنا بشكل أكبر اليوم.

يمكن أن تجمع هذه الطرق معًا لتقليل العدد الأساسي للعدوى (R0) للأمراض التي تنتقل عن طريق الهواء بنسبة تتراوح بين 10-20 مرة (على سبيل المثال: تحسين فلترة الهواء يقلل من الانتشار بمقدار 4 مرات، وعزل المصابين على الفور يقلل من الانتشار بمقدار 3 مرات، وتعزيز المناعة التنفسية بشكل بسيط يقلل من الانتشار بمقدار 1.5 مرة)، أو حتى أكثر من ذلك. وهذا يكفي لجعل جميع الأمراض الموجودة حاليًا التي تنتقل عبر الهواء (بما في ذلك الحصبة) غير قابلة للانتشار، وهذه الأرقام لا تزال بعيدة عن المثالية النظرية.

إذا تم تطبيق تسلسل الفيروسات في الوقت الحقيقي على نطاق واسع للكشف المبكر، فإن فكرة "الأسلحة البيولوجية التي تنتشر بهدوء يمكن أن تصيب سكان العالم دون أن تثير الإنذار" تبدو مشبوهة للغاية. من الجدير بالذكر أنه حتى مع استخدام "إطلاق مجموعة متنوعة من الأوبئة والمواد الكيميائية التي لا تشكل خطراً إلا بعد دمجها"، يمكن اكتشافها.

لا تنسَ أننا نتحدث عن افتراضات "AI 2027": بحلول عام 2030، سيتم إدراج الروبوتات النانوية وكرة دايسون ضمن "التقنيات الناشئة". وهذا يعني أن الكفاءة ستتحسن بشكل كبير، مما يجعل النشر الواسع للتدابير المذكورة أعلاه أكثر توقعًا. على الرغم من أن البشرية اليوم في عام 2025 بطيئة الحركة ومتكاسلة، ولا تزال العديد من الخدمات الحكومية تعتمد على المكتب الورقي. إذا كان بإمكان أقوى ذكاء اصطناعي في العالم تحويل الغابات والحقول إلى مصانع ومزارع شمسية قبل عام 2030، فإن ثاني أقوى ذكاء اصطناعي في العالم يمكنه أيضًا تركيب العديد من المستشعرات والتركيبات والم filtros في مبانينا قبل عام 2030.

لكننا لا ينبغي أن نمانع في الاستمرار في فرضية "AI 2027"، والدخول في سيناريو خيالي بحت:

  • تصفية الهواء الدقيقة داخل الجسم (الأنف، الفم، الرئتين)؛
  • من اكتشاف مسببات الأمراض الجديدة إلى العمليات الآلية لضبط النظام المناعي لمواجهتها، يمكن تطبيقها على الفور؛
  • إذا كان "تحميل الوعي" ممكنًا، يكفي استبدال الجسم بالكامل بروبوت تيسلا أوبتيموس أو روبوت يوني تري.
  • ستتمكن تقنيات التصنيع الجديدة المتنوعة (التي من المحتمل أن تحصل على تحسين كبير في اقتصاد الروبوتات) من إنتاج كمية أكبر بكثير من معدات الحماية محليًا، دون الحاجة للاعتماد على سلسلة التوريد العالمية.

في هذا العالم حيث سيتم علاج مشاكل السرطان والشيخوخة بحلول يناير 2029، وستستمر التقدمات التكنولوجية في التسارع، فإنه من الصعب تصديق أنه بحلول منتصف عام 2030، لن يكون لدينا أجهزة قابلة للارتداء قادرة على طباعة المواد الحيوية بشكل فوري وحقنها لحماية الجسم من أي عدوى (والمواد السامة).

النقاط المذكورة حول الدفاع البيولوجي لا تغطي "الحياة المرآة" و "الطائرات المسيرة القاتلة بحجم البعوض" (توقعات سيناريو "AI 2027" التي ستظهر في عام 2029). ولكن هذه الوسائل لا يمكن أن تحقق "النصر النظيف والسريع" كما هو موصوف في "AI 2027"، ومن الواضح أن الدفاع المتناظر ضدها سيكون أسهل بكثير.

لذلك، من غير المحتمل أن تدمر الأسلحة البيولوجية البشرية تمامًا بالطريقة التي وصفها سيناريو "AI 2027". بالطبع، جميع النتائج التي وصفتها ليست "انتصارًا نظيفًا وسلسًا" للبشرية. بغض النظر عما نفعله (ربما باستثناء "رفع الوعي إلى الروبوتات")، ستظل الحرب البيولوجية الشاملة بالذكاء الاصطناعي خطيرة للغاية. ومع ذلك، فإن تحقيق معيار "الانتصار النظيف والسلس للبشرية" ليس ضروريًا: يكفي أن يكون للهجمات احتمال مرتفع للفشل الجزئي، مما يشكل رادعًا قويًا للذكاء الاصطناعي الذي يحتل حاليًا مكانة قوية في العالم، مما يمنعها من محاولة أي هجمات. بالطبع، كلما طالت فترة تطور الذكاء الاصطناعي، زادت احتمالية أن تكون هذه الأساليب الدفاعية فعالة.

ماذا عن دمج الأسلحة البيولوجية مع أساليب الهجوم الأخرى؟

لكي تنجح تدابير الاستجابة المذكورة أعلاه، يجب تلبية ثلاثة شروط:

  • الأمن الفيزيائي العالمي (بما في ذلك الأمن البيولوجي و الأمن ضد الطائرات بدون طيار) يديره السلطات المحلية (البشر أو الذكاء الاصطناعي) وليس جميعه دمى لـ Consensus-1 (اسم الذكاء الاصطناعي الذي يسيطر على العالم في سيناريو "AI 2027" و يدمر البشرية)؛
  • Consensus-1 لا يمكنه اختراق أنظمة الدفاع للدول الأخرى (أو المدن، أو المناطق الأمنية الأخرى) وإبطال فعاليتها على الفور؛
  • Consensus-1 لم يتحكم في مجال المعلومات العالمي إلى درجة لا يرغب أحد في محاولة الدفاع عن النفس.

من الناحية البصرية، قد تؤدي نتيجة الفرضية (1) إلى اتجاهين متطرفين. في الوقت الحالي، تتمركز بعض قوات الشرطة بشدة، ولديها نظام قيادة حكومي قوي، بينما يتمركز البعض الآخر محليًا. إذا كان يجب على الأمن الفيزيائي أن يتحول بسرعة ليتناسب مع متطلبات عصر الذكاء الاصطناعي، فسوف يتم إعادة تشكيل المشهد بالكامل، وستعتمد النتائج الجديدة على الخيارات التي سيتم اتخاذها في السنوات القادمة. قد تتكاسل الحكومات وتصبح تعتمد على Palantir؛ أو قد تختار بنشاط دمج التطورات المحلية مع الحلول مفتوحة المصدر. في هذا السياق، أعتقد أننا بحاجة إلى اتخاذ القرار الصحيح.

العديد من الروايات المتشائمة حول هذه المواضيع تفترض (2) و (3) أنه لا أمل فيها. لذلك، دعونا نحلل هاتين النقطتين بالتفصيل.

نهاية الأمن السيبراني لم تصل بعد

يعتقد الجمهور والمهنيون عمومًا أنه من المستحيل تحقيق الأمن السيبراني الحقيقي، ولا يمكننا أكثر من إصلاح الثغرات بسرعة بعد اكتشافها، وتهديد المهاجمين السيبرانيين من خلال تخزين الثغرات المكتشفة. ربما أفضل ما يمكننا القيام به هو سيناريو مشابه لـ «بאטل ستار غالاكتيكا»: حيث تتعطل جميع سفن الفضاء البشرية تقريبًا بسبب هجمات الشبكة من قبل السايرون في وقت واحد، بينما تنجو السفن المتبقية لأنها لم تستخدم أي تقنيات متصلة بالشبكة. لا أوافق على هذه الرؤية. على العكس، أعتقد أن "النهاية" للأمن السيبراني تكون في صالح الدفاع، وفي ظل التطور السريع للتكنولوجيا كما افترضته «AI 2027»، يمكننا تحقيق هذه النهاية.

طريقة لفهم ذلك هي استخدام التقنية المفضلة لدى الباحثين في الذكاء الاصطناعي: الاستقراء الاتجاهي. فيما يلي خطوط الاتجاه المستندة إلى دراسة عميقة حول GPT، مع فرضية استخدام تقنيات الأمان الرائدة، حيث يتغير معدل الثغرات لكل ألف سطر من الشيفرة مع مرور الوقت على النحو التالي.

!

علاوة على ذلك، لقد شهدنا تقدمًا كبيرًا في مجال تطوير التكنولوجيا مثل تقنية الصندوق الرملي وغيرها من التقنيات المعزولة والمكتبات البرمجية الموثوقة المصغرة. على المدى القصير، يمكن لأدوات اكتشاف الثغرات الفائقة الذكاء التي يمتلكها المهاجمون العثور على عدد كبير من الثغرات. ولكن إذا كانت الوكلاء الذكيون المتقدمون متاحين للجمهور لاكتشاف الثغرات أو للتحقق من صحة الشفرات، فإن التوازن النهائي الطبيعي سيكون: يقوم مطورو البرمجيات باكتشاف جميع الثغرات من خلال عملية التكامل المستمر قبل إصدار الشفرة.

أستطيع أن أرى سببين مقنعين يوضحان لماذا لا يمكن القضاء على الثغرات تمامًا حتى في هذا العالم:

  • مصدر العيوب هو تعقيد النية البشرية نفسها، لذلك تكمن الصعوبة الرئيسية في بناء نموذج نية دقيق بما فيه الكفاية، وليس في الكود نفسه؛
  • مكونات غير حرجة للأمان، قد نستمر في اتباع الاتجاهات الحالية في مجال تكنولوجيا الاستهلاك: من خلال كتابة المزيد من الشفرات للتعامل مع المزيد من المهام (أو تقليل ميزانية التطوير) بدلاً من إكمال نفس عدد المهام بمعايير أمان متزايدة.

ومع ذلك، فإن هذه الفئات لا تنطبق على حالات مثل "هل يمكن للمهاجم الحصول على صلاحيات الجذر للأنظمة التي تحافظ على حياتنا"، وهو ما هو محور نقاشنا.

أعترف أن وجهة نظري أكثر تفاؤلاً من الرأي السائد الذي يتبناه الأذكياء في مجال الأمن السيبراني الحالي. ولكن حتى إذا كنت تختلف مع وجهة نظري في سياق العالم اليوم، فإنه من الجدير بالذكر: "افتراض سيناريو AI 2027 وجود ذكاء فائق. على الأقل، إذا لم تتمكن "1 مليار نسخة من الذكاء الفائق من التفكير بسرعة 2400 مرة أسرع من الإنسان" من مساعدتنا في الحصول على كود خالي من هذه العيوب، فيجب علينا بالتأكيد إعادة تقييم ما إذا كان الذكاء الفائق قويًا كما يتخيل المؤلف.

إلى حد ما، نحتاج ليس فقط إلى رفع معايير أمان البرمجيات بشكل كبير، ولكن أيضًا إلى تعزيز معايير أمان الأجهزة. IRIS هي جهد حالي لتحسين قابلية التحقق من الأجهزة. يمكننا أن نأخذ IRIS كنقطة انطلاق، أو نخلق تقنيات أفضل. في الواقع، قد يتطلب ذلك نهج «بناء بشكل صحيح»: تم تصميم عملية تصنيع الأجهزة للمكونات الرئيسية بشكل خاص لتتضمن مراحل تحقق محددة. كل هذه الأعمال ستبسطها أتمتة الذكاء الاصطناعي بشكل كبير.

نهاية القوة الإقناعية العظيمة لم تأتي بعد

كما ذُكر سابقاً، فإن حالة أخرى قد لا تفيد فيها زيادة كبيرة في القدرة الدفاعية هي: إذا أقنعت الذكاء الاصطناعي ما يكفي من الناس بأنهم لا يحتاجون إلى الدفاع ضد تهديد الذكاء الاصطناعي الفائق، وأن أي محاولة للبحث عن وسائل دفاعية لنفسهم أو لمجتمعهم تعتبر جريمة.

لقد كنت أعتقد دائمًا أن هناك شيئان يمكن أن يحسنا قدرتنا على مقاومة الإقناع الفائق:

  • نظام بيئي معلوماتي أقل تجانسًا. يمكن القول إننا قد دخلنا تدريجيًا عصر ما بعد تويتر، حيث يصبح الإنترنت أكثر تجزؤًا. هذه أخبار جيدة (حتى وإن كانت عملية التجزئة فوضوية)، فنحن بحاجة بشكل عام إلى مزيد من تعدد المعلومات.
  • الذكاء الاصطناعي الدفاعي. يحتاج الأفراد إلى تجهيز ذكاء اصطناعي يعمل محليًا ويكون مخلصًا لهم، لموازنة ما يرونه من أنماط مظلمة وتهديدات على الإنترنت. لقد تم تنفيذ أفكار من هذا القبيل في بعض التجارب (مثل تطبيق "مدقق الرسائل" في تايوان، الذي يقوم بمسح محلي على الهواتف المحمولة)، وهناك سوق طبيعي لاختبار هذه الأفكار بشكل أكبر (مثل حماية الناس من الاحتيال)، لكن هناك حاجة لمزيد من الجهود في هذا الصدد.

!

!

من الأعلى إلى الأسفل: فحص URL، فحص عنوان العملة المشفرة، فحص الشائعات. يمكن أن تصبح هذه التطبيقات أكثر تخصيصًا، وذات طابع مستقل للمستخدم، وأكثر قوة.

يجب ألا تكون هذه المعركة تحديًا بين المقنع الفائق الذكاء وخصمك، بل يجب أن تكون مواجهة المقنع الفائق الذكاء ضدك بالإضافة إلى محلل أضعف قليلاً ولكنه لا يزال فائق الذكاء، ويعمل لصالحك.

هذه هي الحالة التي ينبغي أن تحدث. لكن هل ستحدث حقًا؟ في فترة زمنية قصيرة كما هو مفترض في سيناريو "AI 2027"، سيكون من الصعب جدًا تحقيق انتشار تقنيات الدفاع المعلوماتي. ولكن يمكن القول إن المعالم الأكثر اعتدالًا ستكون كافية. إذا كانت القرارات الجماعية هي الأكثر أهمية، كما هو موضح في سيناريو "AI 2027"، حيث تحدث جميع الأحداث المهمة خلال دورة انتخابية واحدة، فالأهم هو تمكين صانعي القرار المباشرين (السياسيون، الموظفون العموميون، بعض المبرمجين في الشركات، وموظفون آخرون) من استخدام تقنيات الدفاع المعلوماتي الجيدة. وهذا سيكون أسهل نسبيًا على المدى القصير، ووفقًا لتجربتي، فإن العديد من هؤلاء الأشخاص معتادون على التفاعل مع عدة ذكاءات اصطناعية للمساعدة في اتخاذ القرار.

إلهام

في عالم "AI 2027"، يفترض الناس بشكل بديهي أن الذكاء الاصطناعي الفائق يمكنه بسهولة وسرعة القضاء على باقي البشرية، لذا فإن ما يمكننا فعله هو التأكد من أن الذكاء الاصطناعي الرائد رحيم. وفي رأيي، الوضع الفعلي أكثر تعقيدًا بكثير: لا يزال هناك جدل كبير حول ما إذا كان الذكاء الاصطناعي الرائد قويًا بما يكفي للقضاء بسهولة على باقي البشرية (وغيرها من الذكاءات الاصطناعية)، كما يمكننا اتخاذ إجراءات للتأثير على هذه النتيجة.

إذا كانت هذه الحجج صحيحة، فإن دلالاتها على السياسات الحالية تشبه أحيانًا "المعايير الأساسية لأمان الذكاء الاصطناعي" وأحيانًا تختلف:

تأخير تطوير الذكاء الاصطناعي الفائق لا يزال أمرًا جيدًا. ظهور الذكاء الاصطناعي الفائق بعد 10 سنوات أكثر أمانًا من ظهوره بعد 3 سنوات، والظهور بعد 30 سنة سيكون أكثر أمانًا. منح الحضارة الإنسانية المزيد من الوقت للتحضير هو أمر مفيد.

كيف يمكن تحقيق ذلك هو لغز. أعتقد أن اقتراح الولايات المتحدة "حظر تنظيم الذكاء الاصطناعي على مستوى الولايات لمدة 10 سنوات" تم رفضه وهو أمر جيد بشكل عام، ولكن بعد فشل المقترحات المبكرة مثل SB-1047، أصبح اتجاه الخطوة التالية أقل وضوحًا. أعتقد أن تأخير تطوير الذكاء الاصطناعي عالي المخاطر بأقل تدخل وأقوى طريقة قد يتطلب نوعًا من معاهدة تنظم الأجهزة الأكثر تقدمًا. العديد من تقنيات الأمن السيبراني للأجهزة المطلوبة لتحقيق دفاع فعال تساعد أيضًا في التحقق من المعاهدات الدولية للأجهزة، لذا هناك حتى تأثيرات تآزرية هنا.

ومع ذلك، من الجدير بالذكر أنني أعتقد أن المصدر الرئيسي للمخاطر هو الكيانات المرتبطة بالأنشطة العسكرية، التي ستسعى بكل جهد للحصول على إعفاء من هذه المعاهدات؛ وهذا لا يمكن أن يُسمح به، وإذا حصلوا في النهاية على إعفاء، فإن تطوير الذكاء الاصطناعي المدفوع فقط من قبل الجيش قد يزيد من المخاطر.

من المفيد دائمًا تنسيق العمل لجعل الذكاء الاصطناعي أكثر احتمالًا للقيام بأشياء جيدة وأقل احتمالًا لارتكاب أشياء سيئة. الاستثناء الرئيسي (وهو كذلك منذ فترة طويلة) هو: أن تنسيق العمل يتطور في النهاية إلى تعزيز القدرات.

من المفيد أن تظل الرقابة على شفافية مختبرات الذكاء الاصطناعي قائمة. إن تحفيز مختبرات الذكاء الاصطناعي على تنظيم سلوكها يمكن أن يقلل من المخاطر، والشفافية هي وسيلة جيدة لتحقيق هذا الهدف.

«العقلية التي تعتبر المصدر المفتوح ضارًا» أصبحت أكثر خطورة. يعارض الكثيرون وزن الذكاء الاصطناعي المفتوح، بحجة أن الدفاع غير واقعي، والأمل الوحيد هو أن يمتلك الأشخاص الجيدون الذين لديهم ذكاء اصطناعي جيد الذكاء الخارق قبل أي شخص آخر ليس لديه نوايا حسنة، ليكتسبوا أي قدرات خطيرة للغاية. ولكن الحجة في هذه المقالة ترسم صورة مختلفة: الدفاع غير واقعي، بالضبط لأن أحد الكيانات متقدم بشكل كبير، بينما لم تواكب الكيانات الأخرى. أصبح انتشار التكنولوجيا للحفاظ على توازن القوة أمرًا مهمًا. ولكن في نفس الوقت، لن أعتقد أبدًا أنه لمجرد القيام بذلك بطريقة مفتوحة المصدر، فإن تسريع نمو القدرات المتقدمة للذكاء الاصطناعي هو أمر جيد.

تزداد عقلية "يجب علينا هزيمة الصين" في المختبرات الأمريكية خطورة، لأسباب مشابهة. إذا لم تكن الهيمنة حاجز أمان، بل مصدر خطر، فإن هذا يعارض بشكل أكبر الرأي (المؤسف أنه شائع جداً) القائل بأن "الأشخاص ذوي النوايا الحسنة يجب أن ينضموا إلى مختبرات الذكاء الاصطناعي الرائدة، لمساعدتها على الفوز بشكل أسرع".

"مبادرات مثل "الذكاء الاصطناعي العام" يجب أن تحظى بدعم أكبر، يجب أن نضمن توزيع قدرات الذكاء الاصطناعي على نطاق واسع، وأيضاً يجب أن نضمن أن الكيانات التحتية تمتلك فعلاً الأدوات اللازمة لتطبيق قدرات الذكاء الاصطناعي الجديدة بسرعة بطرق معينة كما هو موضح في هذا المقال.

يجب أن تعكس تقنيات الدفاع أكثر مفهوم "تسليح الأغنام"، بدلاً من مفهوم "اصطياد جميع الذئاب". المناقشات حول فرضية العالم الهش غالبًا ما تفترض أن الحل الوحيد هو أن تحافظ الدول الهيمنية على المراقبة العالمية لمنع أي تهديدات محتملة. لكن في عالم غير هيمني، هذه ليست وسيلة قابلة للتطبيق، كما أن آليات الدفاع من أعلى إلى أسفل يمكن أن يتم تقويضها بسهولة من قبل الذكاء الاصطناعي القوي، وتحويلها إلى أدوات هجوم. لذلك، يجب تحقيق مسؤولية دفاعية أكبر من خلال جهود شاقة، من أجل تقليل هشاشة العالم.

إن النقاط المذكورة أعلاه هي فقط للاقتباس، ولا ينبغي اتخاذ أي إجراء بناءً على افتراضات شبه مؤكدة لهذه النقاط. لكن قصة "AI 2027" أيضًا تحمل طابعًا افتراضيًا، ويجب علينا تجنب اتخاذ إجراءات بناءً على الافتراض القائل ب "أن تفاصيلها المحددة شبه مؤكدة."

أنا قلِقٌ بشكل خاص من افتراض شائع: أن إنشاء هيمنة الذكاء الاصطناعي، وضمان "تحالفه" و"فوزه في السباق"، هو الطريق الوحيد للمضي قدمًا. في رأيي، من المحتمل أن تُقلل هذه الاستراتيجية من أمننا - خاصةً في حالة ارتباط الهيمنة بالتطبيقات العسكرية بشكل عميق، مما يُقلل بشكل كبير من فعالية العديد من استراتيجيات التحالف. بمجرد أن يظهر انحراف في هيمنة الذكاء الاصطناعي، سيُفقد البشر جميع وسائل التوازن.

في سيناريو "AI 2027"، يعتمد نجاح البشرية على اختيار الولايات المتحدة في اللحظات الحاسمة للطريق الآمن بدلاً من الطريق المدمر - من خلال التباطؤ الطوعي في تقدم الذكاء الاصطناعي، وضمان أن تكون العمليات الفكرية الداخلية لـ Agent-5 قابلة للتفسير من قبل البشر. ومع ذلك، فإن النجاح ليس مؤكدًا، ولا يزال غير واضح كيف يمكن للبشر أن يتخلصوا من الاعتماد على تفكير ذكي فائق واحد في مواجهة خطر البقاء المستمر. بغض النظر عن كيفية تطور الذكاء الاصطناعي في السنوات 5-10 القادمة، فإن الاعتراف بأن "تقليل هشاشة العالم ممكن" واستثمار المزيد من الجهد لتحقيق هذا الهدف باستخدام أحدث تقنيات البشرية هو طريق يستحق التجربة.

شكر خاص لتغذية راجعة ومراجعة المتطوعين من Balvi.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت