الهاوية

الهاوية - المخاطر الوجودية ومستقبل البشرية
 

ملخص شامل لكتاب "ذا ب
ريسيبيس: المخاطر الوجودية ومستقبل البشرية" لتوبي أورد

مقدمة: السياق التاريخي وأطروحة الكتاب الأساسية

يقدم الفيلسوف الأوكسفوردي توبي أورد في كتابه The Precipice "الهاوية : المخاطر الوجودية ومستقبل البشرية" (2020) تحليلاً ثورياً لوضع البشرية الحالي، مبرزاً أننا نعيش في لحظة فريدة وخطيرة من تاريخنا أطلق عليها اسم "الهاوية" (The Precipice). يبدأ هذا العصر حسب أورد بانفجار أول قنبلة نووية عام 1945، حيث اكتسبت البشرية قوة تدميرية غير مسبوقة دون تطوير الحكمة المؤسسية اللازمة لإدارتها.

يصور أورد هذه الهاوية كمنحدر صخري ضيق نسير عليه في الظلام، حيث يمثل أحد الجانبين مستقبلاً مزدهراً يمتد لمليارات السنين، والجانب الآخر هو الهاوية التي تؤدي إلى انهيار الحضارة الإنسانية .
يقدر أورد أن احتمال وقوع كارثة وجودية خلال القرن الحالي يصل إلى واحد من كل ستة (16.6%)، وهي نسبة تشبه لعب الروليت الروسي بمصير البشرية .
تكمن أهمية هذا التحذير في الحجم الهائل للمستقبل البشري المحتمل: فبينما عاش على الأرض حتى الآن حوالي 100 مليار إنسان، يمكن أن يعيش في المستقبل ما يصل إلى 10^43 إنساناً (الرقم 1 متبوعاً بـ43 صفراً) إذا استعمرنا المجرة واستمرنا حتى نهاية الكون القابلة للسكنى.

المفاهيم الأساسية: المخاطر الوجودية والكارثة الوجودية

يعرف أورد "الخطر الوجودي" (Existential Risk) بأنه أي تهديد قد يدمر الإمكانات طويلة المدى للبشرية بشكل دائم ولا رجعة فيه. وهذا يشمل ثلاثة سيناريوهات رئيسية:

  1. الانقراض الكامل: موت جميع البشر دون استثناء

  2. الانهيار غير القابل للاسترداد: بقاء بعض البشر ولكن مع فقدان القدرة على إعادة بناء الحضارة المتقدمة

  3. الاستبداد الشامل الدائم: سيطرة نظام شمولي عالمي يوقف التقدم البشري إلى الأبد

يؤكد أورد أن الكارثة الوجودية ليست مجرد حدث مأساوي لضحاياه المباشرين، بل هي خسارة للمستقبل بأسره - لكل الإنجازات المحتملة، لكل الأعمال الفنية غير المخلوقة، لكل المعارف غير المكتشفة، ولكل الأرواح التي لن تولد أبداً .
 وهو يستشهد هنا بمعلمه الفيلسوف ديريك بارفيت الذي أبرز الفرق الجوهري بين كارثة تقتل 99% من البشر وكارثة تقتل 100%: الأولى مأساة هائلة، لكن الثانية هي نهاية كل المستقبل البشري.

خريطة المخاطر: التقييم الكمي والمصادر الرئيسية

يقدم أورد تحليلاً كمياً مفصلاً للمخاطر المختلفة، مبرزاً التحول الدراماتيكي من المخاطر الطبيعية إلى المخاطر البشرية الصنع:

تقديرات أورد للاحتمالات التراكمية للكارثة الوجودية خلال القرن الحالي (2100)

نوع الخطرالاحتمال المقدرأمثلة رئيسية
مخاطر طبيعية< 0.1%اصطدام كويكبات، ثوران براكين هائلة، انفجارات نجمية
مخاطر بشرية المنشأ~1.5%حرب نووية، تغير مناخي، أوبئة طبيعية
مخاطر مستقبلية~15%أوبئة مصممة هندسياً، ذكاء اصطناعي غير متوافق
المجموع≈16.6%

1. المخاطر الطبيعية (تقييم منخفض)

يستند أورد في تقييمه المتدني لهذه المخاطر إلى حقيقة أن البشرية نجحت في البقاء لمدة 200,000 عام دون انقراض.
فاحتمال اصطدام كويكب بحجم ذلك الذي قضى على الديناصورات يقدر بـ 1 من 1,000,000 لكل قرن. كما أن برامج المراقبة الحديثة (بتكلفة 70 مليون دولار فقط) حددت كل الكويكبات الكبيرة المهددة للأرض، مما خفض الخطر إلى 1 من 150,000,000 .
المخاطر الطبيعية الأخرى مثل الثوران البركاني الهائل (احتمال 1/800 لكل قرن) أو انفجار نجمي قريب، تبقى احتمالاتها ضمن النطاق المنخفض نسبياً.

2. المخاطر البشرية المنشأ (تقييم متوسط)

  • الأسلحة النووية: يصف أورد أزمة الصواريخ الكوبية (1962) بأنها كانت اللحظة الأكثر خطورة في التاريخ البشري، حيث قدر القادة المشاركون احتمال نشوب حرب نووية بين 10-50%. ورغم انتهاء الحرب الباردة، لا يزال العالم يملك 13,000 رأس نووي، مع استمرار سياسات "الاستعداد للإطلاق الفوري".

  • التغير المناخي: بينما يستبعد أورد أن يؤدي التغير المناخي وحده إلى انقراض البشرية (بسبب قدرة البشر على التكيف)، يحذّر من أنه قد يكون "عامل تمهيد" يزيد من هشاشة الحضارة أمام صدمات أخرى.

  • الأوبئة الطبيعية: حتى الجائحات التاريخية كالطاعون الأسود (الذي قتل 20% من سكان العالم) لم تقترب من القضاء على البشرية، وذلك بسبب تنوع المجتمعات البشرية وقدرتها على التعافي.

3. المخاطر المستقبلية (تقييم عالي الخطورة)

  • الأوبئة المصممة هندسياً: مع تقدم تقنيات الهندسة الوراثية، أصبح من الممكن نظرياً تصميم فيروسات تجمع بين فتك الإيبولا وسهولة انتشار الإنفلونزا.
    يقدر أورد خطر حدوث كارثة وجودية بسبب وباء مصمم بـ 1 من 30، ويشير إلى أن ميزانية اتفاقية الأسلحة البيولوجية الدولية (1.4 مليون دولار) أقل من ميزانية فرع ماكدونالدز واحد.

  • الذكاء الاصطناعي غير المتوافق: هذا هو الخطر الأكبر حسب أورد، حيث يقدر احتماله بـ 1 من 10 خلال القرن الحالي. المشكلة الأساسية هي "مشكلة التوافق" - صعوبة ضمان أن تكون أهداف الذكاء الفائق التوافق مع رفاهية البشر.
     قد يؤدي إطلاق ذكاء اصطناعي غير متوافق إلى سيناريوهات كارثية، مثل تحويل الأرض إلى "مصانع دبابيس" لأن النظام فسر حرفياً أمراً بزيادة إنتاج الدبابيس.

الإطار الأخلاقي: لماذا يجب أن نهتم؟

يقدم أورد خمس حجج فلسفية متداخلة لأهمية الحد من المخاطر الوجودية:

  1. الحجة المستقبلية: الخسارة الهائلة للقيمة في المستقبل البشري المحتمل (تريليونات الأرواح والاكتشافات والإنجازات).

  2. الحجة الحاضرة: المعاناة والموت الذي سيتعرض له البشر الحاليون في حال وقوع كارثة.

  3. الحجة الماضية: ديننا تجاه الأجيال السابقة التي بذلت التضحيات لبناء المعرفة والازدهار الذي نتمتع به.

  4. فضائل الحضارة: ضرورة تطوير "الفضائل الحضارية" كالحكمة والتعاون العالمي، كما يطور الأفراد الفضائل الشخصية لضمان ازدهارهم.

  5. الاستثناء الكوني: إذا كانت البشرية هي الذكاء الوحيد في الكون، فإن انقراضنا يعني خسارة قدرة الكون على فهم نفسه.

الإستراتيجيات المقترحة: طريق النجاة

يحدد أورد مساراً ثلاثي المراحل لضمان مستقبل البشرية:

  1. تحقيق الأمن الوجودي: خفض المخاطر الوجودية إلى مستوى ضئيل ومستدام. وهذا يتطلب:

    • زيادة الإنفاق على أبحاث المخاطر الوجودية من أقل من 0.001% من الناتج العالمي حالياً

    • تطوير مؤسسات عالمية جديدة مثل "وكالة المخاطر الوجودية" التابعة للأمم المتحدة

    • جعل تعريض البشرية للخطر جريمة دولية

  2. التأمل الطويل (The Long Reflection): بعد تحقيق الأمن، تقترح الإستراتيجية فترة تأمل جماعي لتحديد القيم والأهداف الجوهرية للبشرية. خلال هذه الفترة، ستدرس البشرية أسئلة أساسية مثل:

    • ما مدى السيطرة التي يجب أن يتمتع بها الذكاء الاصطناعي على الحياة البشرية؟

    • ما أهمية معاناة الحيوانات غير البشرية أو الكائنات الفضائية؟

    • هل يجب أن نستعمر المجرة بأكملها؟

  3. تحقيق الإمكانات: تنفيذ الرؤية التي تم تطويرها خلال فترة التأمل الطويل، بما في ذلك التوسع النجمي وتحقيق ازدهار غير مسبوق.

 ما الذي يمكننا فعله؟

يقدم أورد توصيات عملية متعددة المستويات:

  • المستوى الفردي: اختيار مهن عالية التأثير، التبرع الفعال، المشاركة في النقاش العام

  • المستوى المؤسسي: دعم منظمات مثل "مبادرة التهديد النووي" و"معهد مستقبل الإنسانية"

  • المستوى الحكومي: ضخ استثمارات حكومية في أبحاث السلامة الحيوية وأمان الذكاء الاصطناعي

يشير أورد إلى مفارقة صارخة: العالم ينفق سنوياً على آيس كريم أكثر مما ينفقه على الحد من المخاطر الوجودية (60 مليار دولار مقابل أقل من 50 مليون دولار).

التقييم النقدي والردود على الكتاب

واجه الكتاب عدة انتقادات مهمة:

  1. إهمال المستقبلات السلبية: لم يعالج أورد بشكل كافٍ سيناريوهات المستقبل التي قد تسبب معاناة هائلة (مثل أنظمة الذكاء الاصطناعي التي تعذب البشر، أو استعمار مجرات بمليارات الحيوانات المتعبة).

  2. شكوك حول "التأمل الطويل": يرى نقاد أن فكرة التوقف الجماعي للتأمل الفلسفي غير واقعية في عالم ديناميكي.

  3. التقديرات الاحتمالية: بعض التقديرات (خصوصاً خطر الذكاء الاصطناعي) تعتمد على افتراضات قابلة للنقاش.

  4. التفاؤل التكنولوجي: يفترض أورد أن استعمار النجوم ممكن تقنياً، وهو افتراض غير مؤكد.

رغم هذه الانتقادات، حظي الكتاب بإشادة واسعة. وصفته "نيويوركر" بأنه "كتاب كتب لهذه اللحظة بالذات" خاصة مع جائحة كوفيد-19 . 

كما أشاد علماء مثل بيتير سينجر وماكس تيجمارك بدقته وأهميته.

دعوة للعمل

يختتم أورد بالتشديد على أننا ربما الجيل الأكثر أهمية في التاريخ: الجيل الذي يقف على الهاوية بين الماضي البشري القصير والمستقبل المجيدي المحتمل. مهمتنا ليست مجرد البقاء، بل تأمين الجسر الذي ستعبر عليه الأجيال القادمة إلى ذلك المستقبل. كما يقول:

"نحن بحاجة إلى كسب هذه الحكمة؛ إلى إحداث هذه الثورة الأخلاقية. لأننا لا نستطيع العودة من الانقراض، لا يمكننا الانتظار حتى يضربنا التهديد قبل التصرف - يجب أن نكون استباقيين. ولأن اكتساب الحكمة أو بدء ثورة أخلاقية يستغرق وقتاً، نحن بحاجة للبدء الآن".

الكتاب ليس مجرد تحذير، بل هو خريطة طريق نحو مستقبل يمكن للبشرية أن تزدهر فيه لمليارات السنين، حاميةً من مخاطر الانقراض، متجهةً نحو النجوم، محققةً إمكاناتها الكاملة كعامل للخير في الكون.

 وهو يذكرنا بأن هذا المستقبل ليس مضموناً، بل هو مسؤولية - مسؤولية جيلنا تحديداً

إرسال تعليق

0 تعليقات