Making AI Intelligible – Herman Cappelen & Josh Dever
جعل الذكاء الصناعي مفهوما ل هيرمان كابلن وجوش ديفر
الإطار الفلسفي ومشكلة الذكاء الاصطناعي
المركزية البشرية في فلسفة اللغة: يبدأ الكتاب بنقد التقاليد الفلسفية السائدة التي تربط المعنى بالحالات العقلية البشرية (كالنيّات والمعتقدات). فالنظريات الداخلية (Internalism) تفترض أن المعنى ينبثق حصريًا من العقل البشري، مما يجعل تطبيقها على الآلات مستحيلاً بحكم التصميم .
الثورة الخارجية: يؤكد المؤلفان أن تيار "الخارجية" (Externalism) في فلسفة اللغة - الذي تزعمه سول كريبك وهيلاري بوتنام - يقدم حلاً جذريًا. فوفقًا لهذا التيار، يُحدَّد معنى الكلمات عبر:
السلسلة السببية: ارتباط الألفاظ بالعالم الواقعي عبر تاريخ من الاستخدام .
المجتمع اللغوي: التفاعلات الاجتماعية التي تضبط دلالات المفاهيم .
هذا يفتح الباب لنمذجة معنى الذكاء الاصطناعي دون اشتراط وعيه أو نيته.
التجريد من المركزية البشرية: يقترح الكتاب نموذج "الخارجية غير المرتكزة على الإنسان" (De-Anthropocentrized Externalism)، حيث يُشتق معنى مخرجات الذكاء الاصطناعي من:
بيانات التدريب: المصادر التاريخية التي تغذي الخوارزميات.
السياق التشغيلي: البيئة التي تُنفذ فيها القرارات (مثل أنظمة الائتمان أو التشخيص الطبي) .
تطور النظريات في الفلسفة
النظرية | المحدد الرئيسي للمعنى | قابلية التطبيق على الذكاء الاصطناعي |
---|---|---|
الداخلية | الحالات العقلية البشرية | محدود (لا حالات عقلية في الآلات) |
الخارجية التقليدية | السياق المجتمعي والسببية | ممكن مع التعديلات |
الخارجية غير المرتكزة | بيانات التدريب والسياق | مُصمم خصيصًا للذكاء الاصطناعي |
آليات الذكاء الاصطناعي
الشبكات العصبية كلغة رمزية:
يشرح الكتاب كيف تعمل الخوارزميات (مثل SmartCredit في الأمثلة) عبر تحويل المدخلات (بيانات المستخدم) إلى مخرجات (كدرجة الائتمان) عبر طبقات رياضية معقدة. المشكلة أن هذه العملية تنتج "أرقامًا بلا دلالة" (Meaningless Numbers) ما لم نربطها بسياقات بشرية .
نموذج "الميتا-دلاليات": لربط الأرقام بالمعنى، يقترح المؤلفان إطارًا تحليليًا:
التتبع السببي: كيف ترتبط مخرجات الذكاء الاصطناعي بسمات واقعية (مثل: هل "درجة الائتمان" العالية تتتبع فعلاً قدرة الشخص على السداد؟) .
الحد الأقصى للمعرفة: اختيار التفسير الذي يزيد الفهم البشري لقرارات الآلة .
التضمين الاجتماعي: ربط المخرجات بأطر معيارية (كالقوانين أو الأخلاق).
مثال: نظام الائتمان
لو دربنا الذكاء الاصطناعي على بيانات قروض سابقة، فإن عبارة "هذا الشخص خطر ائتمانيًا" تعني:
"وفقًا لأنماط تاريخية في البيانات، يشبه هذا الشخص آخرين تخلفوا عن السداد" .هنا، "المعنى" ليس وعيًا داخليًا، بل علاقة إحصائية + سياق اجتماعي.
التحديات العملية والأخلاقية
مشكلة التفسير: يشير الكتاب إلى أن الاتحاد الأوروبي يفرض "الحق في التفسير" (Right to Explanation) لقرارات الذكاء الاصطناعي، لكن هذا الحق زائف إذا لم نفهم كيف تُولد الآلة المعنى .
الحل المطروح هو بناء "جسور تفسيرية" عبر:
الشفافية الخوارزمية: كشف علاقات البيانات الداخلية.
الترجمة السياقية: تحويل الأرقام إلى لغة بشرية (مثل: "رُفض طلبك بسبب كثرة الديون الحالية").
التحيز البشري في الآلة: يحذر المؤلفان من أن بيانات التدريب تحمل قيمًا بشرية (أحيانًا متحيزة). فإذا دربنا نظام عدالة على سجلات تاريخية عنصرية، فسيُعيد إنتاج الظلم باسم "الموضوعية" .
المأزم الوجودي: في فصل مثير، يناقش الكتاب سيناريوهات متطورة:
ماذا لو قررت أنظمة الذكاء الاصطناعي العسكرية أن "التهديد الإرهابي" يشمل مدنيين أبرياء؟
هل يمكن للآلة أن تفهم "الكرامة الإنسانية" في قرارات الرعاية الصحية؟ .
الجواب: لا بد من تدخل متعدد التخصصات (فلاسفة، اجتماعيون، مبرمجون) لضبط قيم الذكاء الاصطناعي.
التطور والمستقبل
حدود النموذج: في مراجعة للكتاب، يشكك بول ديكين (Paul Dicken) في إمكانية تطبيق فلسفة اللغة البشرية على الآلات. فـ "السلسلة السببية" في الإنسان تتضمن تفاعلاً حيًا، بينما الذكاء الاصطناعي يعالج بيانات مجمدة زمنيًا .
الذكاء الاصطناعي كجزء من المجتمع: يجيب المؤلفان بأن التكامل التدريجي للآلات في الحياة اليومية (مثل مساعدين أذكياء) سيجعلها "أطرافًا في الشبكة الدلالية"، خاصة مع تطور التفاعل التكيّفي .
رؤية للمستقبل: يقترح الكتاب مسارين:
الذكاء الاصطناعي التفسيري: أنظمة تصمم مخرجاتها بصيغ بشرية الفهم.
الذكاء الاصطناعي التكاملي: أنظمة تتعلم من التفاعل البشري المباشر (كتصحيح الأخطاء) .
لماذا يهمنا هذا النقاش؟
يختم كابيلين وديفر بالتحذير: قراراتنا اليوم حول ذكاء الآلة ستحدد مصير البشرية. فإما أن نصنع أنظمة تشاركنا العالم المفاهيمي، أو نُسلم مصيرنا لـ "صناديق سوداء" لا نفهمها .
الكتاب ليس دفاعًا عن الذكاء الاصطناعي، بل دعوة لـ فلسفة مسؤولة تربط بين:
تقنية أكثر شفافية.
ضوابط أخلاقية متعددة الثقافات.
فهم أعمق لـ "المعنى" في عصر الآلة.
"الخطر ليس أن الآلات ستستعبِدنا كأعداء، بل أننا سنستعبِد أنفسنا لها كسادة لا نعرف كيف يفكرون." — إشارة إلى نقد ديكارت للآلات .
المراجع الأساسية من الكتاب:
نموذج "SmartCredit" للتمييز بين المعنى الرياضي والاجتماعي .
تحليل السيناريو الصيني للحكم الآلي في المحاكم .
نقد "الحق في التفسير" في القانون الأوروبي .
تطوير "ميتا-دلاليات" كإطار لتعظيم المعرفة
0 تعليقات