العقل هو الأساس: «ذكاء اصطناعي» ومشاعر الحب لدى الروبوت
مقدمة
ديفيد يبلغ من العمر أحد عشر عامًا، يزن ستين رطلًا، ويبلغ طوله أربعة أقدام وست بوصات. شعره بني. حب ديفيد حقيقي، لكن ديفيد ليس حقيقيًّا.
يقدم الفيلم شخصية ديفيد في دور روبوت واعٍ تمامًا، ويعلن عن هذا بوضوح؛ إذ تُصرِّح شخصية البروفيسور هوبي في بداية الفيلم (الدقيقة ٦) أن ديفيد هو نوع جديد من الروبوتات، نوع مصمم بحيث يتمتع بحياة داخلية؛ أي إنه يشعر ويتخيل ويَتوق ويحلم. هل كان هوبي محقًّا في وصفه للروبوت؟ هذا هو السؤال الذي سننشغل به على مدار هذا الفصل. لا «يبدو» ديفيد واعيًا فحسب، بل يتمتع بوعي عميق ومتكامل؛ فلا يبدو مستوعبًا لما يحيط به فقط، بل يجاهد لإرضاء رغباته، ويشعر بمشاعر على ما يبدو. يبدو أنه يشعر بحب الصبي لأمه (ليست أمه الحقيقية بالطبع بل مونيكا؛ الشخصية التي يعتبرها أمه). ينطلق ديفيد في مَسعاهُ للتحول إلى صبي حقيقي (أي صبي عضوي لا آلي) من أجل أن يستعيد حب مونيكا. ويخبرنا الشعار الدعائي أن حبه حقيقي، لكن كيف يتأتَّى هذا؟ ما الذي يحتاجه الحب كي يصبح حقيقيًّا؟ قبل أن نشق طريقنا عبر فلسفة الذكاء الاصطناعي، يجدر بنا التوقف للحظة وتأمُّل هذا السؤال. ما الذي يجعل الحب حبًّا حقيقيًّا؟ تعتمد الإجابة بالطبع على ما نعنيه بالحب.
لا يحب الطفل والديه مثلما قد يحب شخصٌ ناضج شخصًا آخر ناضجًا، أو مثلما قد يحب شخص ناضج طفلًا (على الرغم من أن التشابه بين الحالتين جدير بالملاحظة). حب الطفل هو شكل من الاعتماد العاطفي في المقام الأول — شكل خاص مفعم بالحيوية، لكنه في النهاية يظل شكلًا من الاعتماد. يتألف حب ديفيد من ميل إلى إبداء العاطفة، مرارًا وتكرارًا، إلى جانب نوع من الحاجة المُلحَّة، الحاجة إلى عاطفة مونيكا وقربها واهتمامها وقبولها وحضورها. لا يحتاج ديفيد أن ترعاه مونيكا بطريقة عملية (فهو روبوت، وهي ليست مسئولة عن صيانته). رغم ذلك هو يحتاج أن «تهتم» به. لا يحتاج ديفيد أن تكون مونيكا سعيدة فقط، بل يحتاج أن تكون سعيدة معه؛ أي راضية عنه وسعيدة في صحبته أيضًا. في بلاد الإغريق قديمًا، ميَّز الفلاسفة بين ثلاثة أنواع من الحب: الحب الشهواني، والمحبة، والألفة. يعتمد الحب الشهواني — وهو عادةً، وإن لم يكن بالضرورة، الحب الشَّبقي أو الجنسي — على رغبة وحاجة عاطفية (الحاجة العاطفية هي رغبة قد تؤدي حال عدم إرضائها إلى ضرر عاطفي كبير). أما المحبة الخالصة فهي نوع من الحب المُنزَّه من الأغراض، الحب الذي يمنح المتلقي قيمة بدلًا من أن يستمد منه قيمة، ونموذجه هو الحب الذي يُقال أحيانًا إن الله يشعر به تجاه البشر، وربما المخلوقات جميعها، أو حب الوالدين لطفلهما. وعلى النقيض تأتي الألفة، وهي مزيج من النوعين. عمليًّا هي نوع من المتعة المستمدة من الصداقة، ومن الاهتمام والاحترام اللذَين يُكنُّهما المرء لأصدقائه. في ضوء هذا التصنيف الثلاثي، يبدو أن حب الطفل لوالديه شكل من الحب الشهواني وحب ديفيد لمونيكا يُجسِّد نموذجًا معبرًا عن ذلك. في هذا الصدد يبدو حب ديفيد لأمه لا يختلف كثيرًا عما تتوقع من أي طفل طبيعي في الحادية عشرة من عمره. هو حنون وأناني ومتمركز حول ذاته وضعيف وحساس.
ربما يبدو حب ديفيد لمونيكا أشبه كثيرًا بحب الطفل، لكن هل يحبها حقًّا؟ يمنعنا سببان من الإجابة عن هذا السؤال بنعم. الأول أمر ذكرناه بالفعل؛ وهو أن ديفيد روبوت، ليس إنسانًا من لحم ودم، هو إنسان آلي أو «ميكا» كما يطلقون عليه في الفيلم. هل يُعتبر حب الإنسان الآلي تجرِبة عاطفية من الأساس؟ ربما كان حبه مجموعة من السلوكيات الروتينية التي تحاكي سلوك الحب ليس إلا. ربما هو شيء يشبه الحب كثيرًا من الناحية الظاهرية، بينما لا يحوي في باطنه سوى فراغ. ربما كان الأمر كذلك. لكن يوجد سبب آخر يدفعنا إلى الشك في حقيقة أو أصالة حب ديفيد لمونيكا؛ لقد صُمم ديفيد خصوصًا كي يتعلق عاطفيًّا برمز أبوي. هل الحب الذي زرعه المصمِّم داخله هو حب حقيقي؟ هل هو حب «أصيل»؟ لقد صُمم ديفيد كي يحب، بطريقته الطفولية بالغة الحدة، الشخص الذي يطبع بصمته عليه أولًا. يقتضي نظامُ البصمة ترديدَ قائمة من كلمات مِفتاحية بالترتيب مع لمس جسد ديفيد عند نقاط معينة. وهي عملية محددة سلفًا إلى حدٍّ كبير، وآلية. رغم ذلك فإن مشهد طبع البصمة (الذي يبدأ في الدقيقة ٢١، الثانية ٤٥ من الفيلم) مشهد رائع حقًّا بفضل أداء أوزمنت البارع والبعيد عن المبالغة. قبل طبع البصمة، يؤدي أوزمنت دور ديفيد أداءً متصلبًا للغاية؛ إذ يجلس جامدًا بينما تعلو وجهه ابتسامة ثابتة أشبه بابتسامة معتوه. يبدو وجه ديفيد عادةً إما جامدًا أو مشوهًا نتيجة لتعبيرٍ مُبالَغ فيه (كما هي الحال في مشهد الضحك في الدقيقة ١٩، الثانية ٥٠ من الفيلم). لكن في مشهد طبع البصمة تَلين ملامح ديفيد، وتبدو نظرته أكثر طبيعية، ويكتسب التعبير على وجهه سَمتًا أكثر بشرية. إن عملية طبع البصمة تُحول الروبوت إلى شيء أشبه كثيرًا بالإنسان. لكنها رغم ذلك ليست سوى عملية مثبتة داخله مسبقًا. هي ليست تجرِبة اختار ديفيد خوضها أو شيئًا حدث له في المسار الطبيعي للأحداث، بل هي عملية أُعد لخوضها بطريقة محددة جدًّا. هل يعني هذا أن ارتباط ديفيد العاطفي بمونيكا ارتباط مصطنَع ومزيَّف؟
من الصعب تحديد مفهوم التجرِبة العاطفية «الأصيلة» بدقة، لكنه على ما يبدو يرتبط جزئيًّا بالسبب وراء التجرِبة العاطفية. على سبيل المثال، إذا جعلنا شخصًا ما سعيدًا عبر حقنه ﺑ «عقار السعادة»، فإن سعادته لن تبدو سعادة أصيلة؛ فهي لم تحدث على النحو الصحيح، إذا جاز القول. وقد نزعم أن ذلك الشخص ليس سعيدًا حقًّا، بل هو واقع تحت تأثير العقَّار فحسب. في حالة ديفيد، نجد أن حبه لمونيكا ناتج عن سبب غريب؛ ألا وهو عملية طبع البصمة المصممة لغرض محدد. ديفيد مُصمم كي يشعر بالحب فور تفعيل برنامج البصمة؛ ألا يشبه ذلك حقنه ﺑ «عقَّار الحب»؟ لكن من ناحية أخرى قد تكون فكرة أصالة حب الطفل لوالديه في حد ذاتها فكرة غير مناسبة. أليس نظام البصمة لدى ديفيد هو، من نواحٍ عديدة، نسخةٌ مُبالَغ فيها من المصدر الذي ينبع منه حب أي طفل؟ يُشكِّل الأطفال ارتباطًا عاطفيًّا بآبائهم، ويُكوِّنون اعتمادًا عليهم، وهو سلوك يرجع في جزء منه على الأقل إلى الجينات. إذا اعتبرنا حب ديفيد غير أصيل لأنه مثبَت مسبقًا، فربما يصبح حب أي طفل لأمه غير أصيل كذلك لنفس السبب. نحن لا ننزع إلى الشك في حقيقةِ أو أصالةِ حب الطفل لوالديه؛ لذا ربما لا ينبغي لنا التشكك في حب ديفيد لأن أصله يرجع إلى المصمم.
إذا كان حب ديفيد غير حقيقي، فإن هذا لا يرجع إلى كونه مستمدًّا من برنامج البصمة المثبَّت مسبقًا، بل يرجع لكون ديفيد روبوتًا. ديفيد هو جهاز آلي، وربما تكون الأجهزة الآلية في الواقع مجرد مجموعة من الآلات الحاسوبية المعقدة. ربما هي عاجزة حقًّا عن فهم أي شيء أو الشعور بأي شيء. يطرح هذا الزعم اعتراضين أساسيين؛ الأول ينسب نوعًا من القصور الإدراكي إلى الآلات الحاسوبية؛ فوظيفتها تقتصر على التعامل مع الأرقام والرموز ومعالجة المعلومات فحسبُ، وليس في وُسعها أبدًا إدراك ما تقوله أو تفعله. أما الاعتراض الثاني فينسب لها قصورًا عاطفيًّا: الآلات الحاسوبية عاجزة عن الشعور بأي شيء، ربما تستطيع تنفيذ برامج عاطفية، فتتصرف كما لو كانت سعيدة أو مضطربة، لكنها من داخلها جامدة تمامًا، ولا تشعر بأي شيء. ما مدى منطقية هذين الاعتراضين؟ ما الأساس الذي يدعمهما؟ سوف نتوجه إلى ميدانَين من ميادين الفلسفة؛ سعيًا للإجابة عن تلك الأسئلة، وهما: فلسفة الذكاء الاصطناعي، وفلسفة العقل.
هل في وسع الروبوت فهم أي شيء؟
الذكاء الاصطناعي هو علمُ (وفنُّ) صناعة آلات قادرة على أداء عمليات ذكية حقًّا. تستطيع أنظمة الذكاء الاصطناعي هزيمة أفضل لاعبي الشطرنج في العالم، والفوز في برنامج المسابقات التليفزيوني «المحك!» (جيبردي)، والمساعدة على تصميم جسر كيلا ينهارَ حالَ ارتطام شاحنة بأحد الأعمدة التي ترفعه، وتأليف موسيقى تروق للأذن إلى حدٍّ مدهش (وفي بعض الأحيان تكون جيدةً حقًّا). أنظمة الذكاء الاصطناعي التي تُدعى روبوتات الدردشة في وسعها إجراء محادثة معك. لا يمكن إنكار أن لهذه التكنولوجيا عيوبها، والمحادثات التي تجريها روبوتات الدردشة قد تكون غريبة حقًّا. فيما يلي نموذج لمحادثة بين إنسان وروبوت دردشة؛ لن تلقى صعوبة كبيرة في تمييز الإنسان عن نظام الذكاء الاصطناعي.
تختبر المسابقة مهارة المحادثة عبر تشغيل نسخة مما يُعرف باسم «اختبار تيورنج»؛ حيث يوضع الإنسان في مواجهة الآلة. في هذا الاختبار يُجري أحد الأفراد حديثًا مع إنسان ومع آلة حول أي موضوع يختاره، ويهدف الاختبار إلى اكتشاف أيٍّ من الطرَفين اللذَين تحدث معهما هو الآلة ومَن هو الإنسان. إذا لم يستطع الفرد معرفة الفرق بينهما، تُعتبر الآلة ذكية حقًّا. تُطبِّق مسابقة جائزة لوبنر نسخة محدودة من اختبار تيورنج (حيث المحادثات أقصر كثيرًا من تلك التي يتضمنها الاختبار الكامل). عجز جورج بالطبع عن اجتياز هذه النسخة المحدودة من الاختبار، لكن أداءه تفوَّق على البرامج الأخرى في المسابقة.
في فيلم سبيلبيرج، اجتياز اختبار تيورنج أمر في غاية السهولة. فحتى دمية الدب الخاصة بديفيد في وسعها اجتياز اختبار تيورنج. لكن ما الذي يقيسه اختبار تيورنج تحديدًا؟ هو يقيس مستوى الكفاءة التحاورية؛ أي «السلوك» التحاوري. إنه لا يختبر الفهم التحاوري بالضرورة. لقد تمكَّن جورج من إجراء نسخة طبق الأصل مما نُطلق عليه محادثة (وإن كانت تشبه محادثة مع شخص شبه مخبول)، لكن لا يمكن زعم أنه يفهم ما يتحدث عنه. فجورج يتبع القواعد ليس إلا. هو يبحث عن الكلمات في قاعدة البيانات لكنه لا يعرف ما الذي يشير إليه أيٌّ من المدخلات، ويُعِدُّ ردودًا، لكنه لا يعرف معناها. هل كان هذا سيتغير لو أصبح جورج، أو أحد أحفاده من روبوتات الدردشة، بارعًا حقًّا في إعداد إجابات تجتاز اختبار تيورنج؟ من الصعب الإجابة عن سؤال كهذا. لقد ابتكر الفيلسوف الأمريكي جون سيرل تجرِبةً افتراضية شهيرة جدًّا تهدف إلى حل هذه المسألة، يُطلق عليها تجرِبة الغرفة الصينية (سيرل ١٩٨٠–١٩٨٤).
الغرفة الصينية
تخيَّل أنك استيقظت من نومٍ ناتج عن تأثير مخدِّرٍ لتجد نفسك في غرفة. تحتوي الغرفة على خزانة ملفات عملاقة، وسلَّة مليئة بقوالب على شكل رموز غريبة، وطاولة وأقلام رصاص وورقة، وملف يحمل عنوان «تعليمات السيد». يوجد بالغرفة كذلك فتحتان لإدخال الأشياء وإخراجها من الغرفة، مكتوب فوق إحداهما «مُدخَلات» وفوق الأخرى «مُخرَجات». تنزلق قوالب عبر فتحة المدخلات الواحدة تلو الأخرى، وهي في الظاهر أشبه برموز. في الوقع تشبه إلى حدٍّ ما الرموز الموجودة في السلة، وتبدو مثل شخبطات عشوائية (على حد وصف سيرل). بل هي فعليًّا تشبه إلى حدٍّ كبير حروف اللغة الصينية، وهي لغة سنفترض أنك لا تستطيع قراءتها. ما المطلوب منك فعله بهذه الرموز؟ ستلجأ، بعدما تصيح طلبًا للمساعدة دون جدوى، إلى الحل البديهي؛ ألا وهو مراجعة ملف «تعليمات السيد». ستخبرك التعليمات بما عليك البدء بفعله، وهي لحسن الحظ مكتوبة بالإنجليزية. وعليه يتضح أن مَهمتك هي تسجيل ترتيب وصول الرموز إلى الغرفة، ثم البحث عنها بنفس الترتيب في فهرست خزانة الملفات. يعقُب ذلك مجموعات إضافية من التعليمات، وهي تعليمات معقَّدة تعقيدًا رهيبًا، لكنها مُصاغة بلغة إنجليزية جيدة ومحددة للغاية، وتوضح لك ما عليك فعله بالضبط، وترتيب فعله. يخبرك البند الأخير من التعليمات بأن تختار رمزًا محددًا من السلة الموجودة بالغرفة، ثم تدفعه عبر فتحة المخرجات. وهكذا تتبع التعليمات يومًا بعد يوم، بل وتصبح بارعًا في اتباعها.
تلك هي غرفة سيرل الصينية (غيَّرنا بعض التفاصيل الفرعية تيسيرًا للعرض). لقد تخيَّل الكمبيوتر من الداخل. في هذه الغرفة، يتبع الفرد عمليةً حاسوبية لمعالجة الرموز، وذلك هو جُلُّ ما تفعله أجهزة الكمبيوتر على حد قول سيرل. ذلك حقًّا هو كل ما «تستطيع» فعله. تشبه الغرفة الصينية برنامج دردشة آليًّا فائق القدرات، خبيرًا في إجراء محادثات باللغة الصينية؛ تُمثِّل الرموز المدخَلة أسئلة المحاور وتعليقاته، في حين تمثل الرموز المخرجة إجابات الغرفة الصينية. بالطبع تُجرى العملية كلها بإيقاع في غاية البطء. لكن بصرف النظر عن ذلك، ينبهر متحدثو الصينية البارعون بالمهارات التحاورية للغرفة الصينية. هم يطرحون الأسئلة ويُبدون الملاحظات بينما تولِّد أنت الإجابات داخل الغرفة. وهكذا تجتاز الغرفة الصينية اختبار تيورنج، أو كانت لتجتازه لو لم تُضيِّع كل شيء بسبب بطئك الشديد. لكن سيرل لا يعتقد أن المشكلة تكمن في السرعة إطلاقًا، بل ما يهم ملاحظته هو أنك ستظل داخل الغرفة عاجزًا عن فهم كلمة واحدة من المحادثات حتى لو اجتازت الغرفة الصينية اختبار تيورنج باللغة الصينية. أنت لا تعرف عما تدور ولا تدرك معناها، ومع ذلك تؤدي جميع العمليات التي يؤديها الكمبيوتر؛ أي تتعرف على الرموز عبر شكلها، وتتبع التعليمات الخاصة بكيفية التعامل معها. وهذا هو ما يفعله الكمبيوتر تحديدًا. وعليه، إذا كنت لا تفهم محادثة الغرفة الصينية، فليس بوسع أي كمبيوتر إذن فهم محادثة. وبالطبع سيفهم الكمبيوتر أقل مما تفهمه، فأنت على الأقل تفهم التعليمات بما إنها مكتوبة بالإنجليزية وتتبعها عن قصد وتأمُّل، في حين يتبع الكمبيوتر التعليمات المعطاة له على نحوٍ آليٍّ أعمى، دون أي فهم على الإطلاق.
رد الروبوت
هذا الرد على حُجة سيرل هو في الحقيقة نوع من التسليم المخادع بها؛ فنحن نُسلِّم بأن الغرفة الصينية لا تفهم شيئًا لكن نزعم أن اللوم في ذلك لا يرجع إلى مجرد كونها تُشغِّل برنامجًا حاسوبيًّا، بل يرجع إلى أن البرنامج قابع فحسب داخل الغرفة. إن الغرفة الصينية التي يتخيَّلها سيرل لا تملك ما يُكافئ الرِّجلَين واليدَين والعينَين والأذنين؛ فإذا طرق أحدهم بابها فلن تتمكن من معرفة هُوِيَّته، وعليها الاعتماد على رموزٍ غامضة تصل إليها عبر فتحة المدخلات. قد تنقل هذه الرموز معلوماتٍ حول الشخص الواقف عند الباب، لكن الغرفة الصينية لا تتفاعل مباشرةً مع هذا الشخص؛ هي منعزلة عن بيئتها. جملة القول: الغرفة الصينية ليست روبوتًا، ربما كانت ستصبح أفضل حالًا لو كانت كذلك. في فيلم سبيلبيرج، يتجلى فهم ديفيد وذكاؤه في الأساس من خلال تفاعُله مع بيئته وتصرُّفاته اليومية، إلى جانب تنفيذه لخططه واستراتيجيته الطويلة الأمد كما في محاولته تحقيقَ حلمه بالتحوُّل إلى صبيٍّ حقيقي. إن قدرة ديفيد على إجراء المحادثات تُثير الإعجاب، لكننا واثقون على ما يبدو في أنه يعرف ما يتحدث عنه نظرًا للطريقة التي يتفاعل بها مع بيئته. نحن متأكدون من أن ديفيد يعرف جزئيًّا معنى كلمة «تيدي» (اسم دُميته) لأنه يستطيع مُناداتَه ثم مطاردته وحمْله.
إذن، رجوعًا إلى قصة سيرل، دعونا نتخيل غرفة صينية داخل روبوت. تخيَّل أنك محشور في مركز التحكم داخله حيث تؤدي جميع العمليات الحاسوبية اللازمة لعمل الروبوت. بما أن الروبوت يتفاعل مع بيئته؛ فقد يستطيع فهم الأفكار المتعلقة بتلك البيئة، وربما يتمكن من معرفة هُوية الواقف عند الباب لأنه قادر على رؤيته؛ إذن تكمن مشكلة تَجرِبة سيرل الافتراضية في أن الغرفة الصينية الأصلية ليست مُجهَّزة على النحو الذي يُمكِّنها من فهم الأشياء فهمًا حقيقيًّا. يتطلب الفهم من المرء تفاعلًا سببيًّا مع بيئته، في حين لا يُتاح للغرفة الصينية سوى تفاعلٍ لفظيٍّ مع متحدثي اللغة الصينية الذين يُلقمونها ملاحظاتٍ تحاوريةً مكتوبة. تفتقد الغرفةُ الصينية الخلفيةَ التفاعلية السببية اللازمة لفهم أيٍّ من تلك الملاحظات. ذلك رد الروبوت على حجة سيرل، وهو ردٌّ له بعض المزايا؛ ففي النهاية ديفيد ليس غرفة صينية، وقد يستطيع فهم ما يحدث له لأنه روبوت وليس برنامجَ دردشةٍ آليًّا.
يبدو سيرل مُحقًّا؛ تحويل الغرفة الصينية إلى روبوت يحوي غرفة صينية لن يتيح لنا تفنيد حجته. بالطبع قد تساعدنا الفكرة الأصلية رغم ذلك على تفنيدها؛ فالفكرة القائلة بأن التفاعل البيئي لا غنى عنه إذا أردنا لنظام ذكاء اصطناعي اكتساب الفهم، هي فكرة منطقية للغاية. والزعم الذي نطرحه ها هنا، نيابةً عن سيرل، هو أن مجرد إضافة وظائف الروبوت إلى الغرفة الصينية لن يتيح للجالس في غرفة التحكم فهم ما يفعله الروبوت. إذا كانت حُجة الغرفة الصينية الأصلية صحيحة، فإن حُجة روبوت الغرفة الصينية ستكون صحيحة كذلك.
رد النظام
لن يَفيَ رد الروبوت بالغرض، لكن يوجد ردٌّ أفضل في المتناول؛ تخيَّل أنك عالق داخل الغرفة الصينية (أو في مركز التحكم الخاص بروبوت الغرفة الصينية)، عاجز عن فهم ما يفعله النظام كله. وهو أمر لا يستدعي الدهشة؛ فأنت لست الغرفة الصينية ذاتها، بل أنت البرنامج الذي يُنفِّذ أوامر النظام. بعبارةٍ أخرى: أنت من يتولى المهام الروتينية ويتبع التعليمات دون تفكير. وتشبه في ذلك وحدة المعالجة المركزية داخل جهاز الكمبيوتر العادي. يتكون جهاز الكمبيوتر من أجزاءٍ أخرى كثيرة بجانب وحدة المعالجة المركزية؛ يحتوي النظام بأكمله على قرصٍ صُلْب، وذاكرةٍ عشوائية، وذاكرةٍ مؤقتة، وبطاقة عرض مرئي، ونظام تشغيل، وبرامج تشغيل، ووحدات طرَفية من شتى الأنواع … إلخ. إذا كنت تلعب دور وحدة المعالجة المركزية الخاصة بالغرفة الصينية، فأنت إذن لست الغرفة الصينية ذاتها، بل لست الجزء الأهم من الغرفة الصينية. في وسعنا إخراجك منها ووضع شخص آخر مكانك، ولن يلاحِظ النظام أي تغييرٍ على الإطلاق، ما دام بديلك قادرًا على اتباع التعليمات مثلما كنت تتبعها. وبما أنك مجرد جزء صغير قابل للاستبدال من الغرفة الصينية، لن يدهشنا عجزك عن فهم ما يفعله النظام بأكمله. إذا كان هناك من يفهم اللغة الصينية في هذه التجرِبة الافتراضية، فهو النظام المتكامل. وأنت لست هذا النظام. هذا هو رد النظام على حجة سيرل.
لكن سيرل لا يزال بعيدًا عن الاقتناع، فكيف يمكن عبر إضافة بعض قطع الأثاث (مثل خزانة الملفات، والسلة التي تحوي رموزًا عشوائية، وغير ذلك) تحويل شيءٍ عاجز عن الفهم (وهو أنت في هذه الحالة) إلى شيءٍ قادر على الفهم (أي نظام الغرفة الصينية)؟ قد نندفع قائلين: «هذا هو ما يحدث وحسب.» خزانة الملفات عاجزة وحدها عن الفهم؛ فهي ليست سوى مجموعة من المعلومات الجامدة. وأنت أيضًا عاجز عن الفهم؛ فلست سوى تابع أعمى للتعليمات. لكن إذا جمعنا الاثنين معًا فقد نحصل على كيانٍ أكبر من حاصل مكوناته. سنحصل على نظام معالجة معلومات نشط وفعَّال، وسيرل لم يُقدِّم لنا ما يُثبت أن نظامًا كهذا عاجز عن فهم اللغة الصينية.
يحاول سيرل مجددًا تفنيد هذا الرد أيضًا؛ تخيَّل أنك في الغرفة الصينية منذ أمدٍ طويل جدًّا حتى أصبحت مُطلعًا تمامًا على التعليمات في خزانة الملفات، وتخيل أنك تتمتع بذاكرةٍ مذهلة مكَّنتْك في النهاية من حفظ التعليمات كلها عن ظهر قلب، والآن عندما يصل قالب من الشخبطات العشوائية إلى الغرفة عبر فتحة المدخلات، لن تحتاج إلى الاطِّلاع على التعليمات في خزانة الملفات كي تعرف ما عليك فعله به، بل ستكتفي فحسب بالرجوع إلى ذاكرتك. يزعم سيرل أن في هذه التجرِبة الافتراضية الجديدة يتحوَّل الشخص الجالس في الغرفة إلى نظام الغرفة الصينية ذاته لا مجرد وحدة المعالجة المركزية الغبية داخله. ورغم ذلك لن تعرف عمَّ يتحدث نظام الغرفة الصينية، وسيظل الكلام مجرد شخبطات عشوائية بالنسبة إليك. يُبين لك هذا أن نظام الغرفة الصينية عاجز عن فهم ما يتحدث عنه. لقد أصبحت أنت النظام الآن، لقد احتويت النظام بأكمله داخل ذاكرتك، ورغم ذلك ما زلت لا تفهم. كيف إذن يستطيع الكمبيوتر الفهم بأي حال؟
رد النظامين
لقد شرحنا لتوِّنا ردًّا على حجة سيرل (رد النظام) ورد سيرل على هذا الرد. والآن حان الوقت لطرح ردِّنا الأخير (في الوقت الحالي على الأقل)، ألا وهو رد النظامين. يطلب منك سيرل أن تتخيل نفسك تحفظ قائمة تعليمات الغرفة الصينية بأكملها عن ظهر قلب. يبدو ذلك إنجازًا عصيًّا على التصديق، لكن التجارِب الافتراضية الفلسفية تسمح بما لا يُصدَّق. دعونا نُطلق على هذا الشخص ذي الذاكرة المذهلة اسم «ذو الرأس الكبير». في الظاهر ذو الرأس الكبير هو أنت بعدما اكتسبت قدرًا من الذاكرة الإضافية. لكن المظاهر خداعة؛ فقد لا يبدو حفظ برنامج الغرفة الصينية في الذاكرة أمرًا يختلف كثيرًا عن حفظ أي شيءٍ آخر، مثل جدول مواعيد قطارات أمريكا الشمالية مثلًا، لكنه في الحقيقة في غاية الاختلاف. يختلف لأن ذا الرأس الكبير يستخدم تذكُّره لبرنامج الغرفة الصينية بطريقةٍ خاصة جدًّا. عندما تتذكر جدول مواعيد القطارات كي تلحق بقطارٍ ما، فإنك تخلق روابط بين الجدول وبين باقي ما تملكه من معرفة. أنت تعرف كيف تُحدِّد الوقت وتعرف كم تبقَّى من الوقت على حلول الساعة الواحدة مساءً. أنت تعرف أن الوصول في الساعة الثانية مساءً من أجل اللحاق بقطارٍ سيغادر في الواحدة مساءً يعني أنك تأخرت على الأرجح على موعد القطار … إلخ، لكن عندما يحفظ ذو الرأس الكبير تعليمات الغرفة الصينية في الذاكرة، لا يحدث هذا النوع من الاندماج المعرفي؛ فالجزء الخاص بالغرفة الصينية لدى ذي الرأس الكبير لا يندمج مع باقي أجزاء النظام المعرفي لديه اندماجًا كاملًا، بل لا يكاد يندمج على الإطلاق.
يتألف ذو الرأس الكبير فيما يبدو من نظامين معرفين: الأول هو النظام العادي الخاص بك؛ أي النظام الذي يُمكِّنك من اللحاق بالقطارات في موعدها. والثاني هو نظام الغرفة الصينية؛ أي النظام الذي يتيح لذي الرأس الكبير التحاور مع متحدثي اللغة الصينية. بالطبع ستمرُّ بوقتٍ عصيب وأنت تحاول التوحُّد مع مكون الغرفة الصينية لدى ذي الرأس الكبير. سيظل هذا المكون غامضًا بالنسبة إليك لأنه لا يندمج كما ينبغي مع باقي مكونات عقلك. أنت لا تفهم ما يفعله هذا الجزء. لكن هذا يعني ببساطةٍ أنك لست ذا الرأس الكبير. يتألف ذو الرأس الكبير من نظامين، وأنت نظام واحد منهما فحسب. النظامان مرتبطان، لكن بطريقةٍ غريبةٍ بعض الشيء. يلعب نظامك دور البرنامج المنفذ لنظام الغرفة الصينية، وبدون تدخُّلك الرامي لاتباع المعلومات، كان نظام الغرفة الصينية سيظل قابعًا في داخل ذاكرة ذي الرأس الكبير دون أن يقدر على تحقيق أي شيء.
والآن نطرح السؤال التالي: هل يفهم ذو الرأس الكبير اللغة الصينية؟ «أنت» لا تفهم اللغة الصينية، لكنك لست ذا الرأس الكبير؛ فهل يفهم ذو الرأس الكبير اللغة الصينية؟ من الصعب الإجابة عن ذلك. ما لا نستطيع قوله هو ما كان سيرل سيريد منا قوله، ومفاده أن ذا الرأس الكبير لا يفهم اللغة الصينية لأنك أنت لا تفهم الصينية. فهذه حجة غير سليمة لأنها تفترض كذبًا أنك أنت وذا الرأس الكبير تُشكِّلان نظامًا معرفيًّا واحدًا. هذا ليس صحيحًا. إن نظام الغرفة الصينية داخل ذي الرأس الكبير يشبه غزوًا أجنبيًّا لعقلك؛ فهو قابع في ذاكرتك مثل فيروس، مستغلًّا عادتك في اتباع التعليمات.
وهكذا أخفقت حُجة الغرفة الصينية التي طرحها سيرل؛ ففي النهاية، هو لا يملك ردًّا مقنعًا على رد النظامين. لكن هذا لا يعني أن استنتاجه خاطئ؛ فعبر تفنيد حجة سيرل لا نُثبت أن الغرفة الصينية تفهم بالفعل اللغة الصينية، بل نُثبت فحسب أننا لا نستطيع استخدام حجة سيرل لإثبات أنها لا تفهم اللغة الصينية. بالطبع ذو الرأس الكبير كائن غريب جدًّا، ولدينا من المبررات المقنعة ما يدفعنا إلى الشك في أن مكون الغرفة الصينية داخله يفهم شيئًا حقًّا. وبما أنه لا يندمج كما ينبغي في نظامك المعرفي، فإنه لا يتمتع بنفس كفاءتك الآلية. وبدون الكفاءة الآلية؛ أي بدون الانغماس السببي المتعمق في بيئته، من غير المرجح على الإطلاق أن يفهم محتوى محادثاته مع المتحدثين باللغة الصينية. إن علينا الجمع بين رد الروبوت ورد النظام كي نجعل فكرة نظام الذكاء الاصطناعي الذي يفهم ما يفعله منطقية.
يُعيدنا ذلك إلى فيلمنا. ليس من قبيل المصادفة أن يُجسِّد الخيال العلمي أنظمة الذكاء الاصطناعي عادةً في شكل روبوت؛ فحتى أجهزة الكمبيوتر التي تفتقد مجموعة مهارات الروبوت الكاملة، مثل الكمبيوتر هال في فيلم «٢٠٠١: ملحمة الفضاء» (١٩٦٨)، لديها مخزون ذاخر من القدرات الإدراكية الحسية والتنفيذية؛ فلدى هال على سبيل المثال أعيُن وآذان في كل مكان، وهو قادر على فتح أبواب المكوك الفضائي أو عدم فتحها وقتما يريد. في فيلم «ذكاء اصطناعي» ترتبط قدرات ديفيد الإدراكية ارتباطًا وثيقًا بأدائه الوظيفي كروبوت؛ فهو يتعلم عبر مشاهدة الآخرين ومحاكاتهم (ليس محاكاتهم حرفيًّا؛ فعندما يحاول بلع الطعام في مشهد تناول العشاء يكاد فكه ينفصل عن وجهه). ربما ديفيد قادر فعليًّا على الفهم جزئيًّا بسبب هذا الأداء الوظيفي. ربما يفهم حقًّا معنى «خصلة شعر» لأنه يستطيع قص خصلة من شعر مونيكا والتحدث عنها فيما بعد. ربما لديه فكرة ما عن طبيعة الجِنِّية الزرقاء؛ لأنه قادر على الذهاب بحثًا عنها.
هل ديفيد قادر على الشعور؟ اعتراض الكيفيات المحسوسة
بماذا سنشعر يا تُرى لو كنا مثل ديفيد؟ لا يمكننا وضع أنفسنا داخل عالمه العقلي عبر تخيُّل نسخة تشبهه من تجرِبة الغرفة الصينية الافتراضية؛ فكما رأينا، أخفقت هذه التجرِبة في تحقيق هدفها. لكنْ هناك سبب آخر يدفعنا إلى التشكُّك في قدرات ديفيد العقلية؛ فلماذا نفترض أنه «يشعر» حقًّا بأي شيء؟ هو يُسجل التجارِب في صورة تدفُّق معلوماتي داخل نظام معرفي، لكن هل هو واعٍ كليًّا؟ وهل يمكن من الأساس طرح سؤال عما سنشعر به لو كنا مكانه؟ هل يشعر ﺑ «الألم» عندما تهجره أمه في الغابة؟ هو يتصرف كما لو كان متألمًا، لكن هل يُشعِره الهجر بالألم حقًّا؟
قد نتخيل أن ديفيد يُبدي ردود أفعال تمثيلية مقنعة تعكس الألم والكرب دون أن يشعر فعليًّا بأي ألمٍ أو كرب. نحن نعرف كيف يكون الشعور بالألم، وكيف يكون التظاهر بالشعور بالألم. لكن كيف نستطيع تحديد الفرق ظاهريًّا؟ يُطلق الفلاسفة على الصفة الواعية لأي خبرة — أي «التألم» المميز للألم، أو «الحمرة» المميزة للون الأحمر، أو «النشاز» الذي يميز مجموعة نغمات موسيقية متنافرة — كيفية محسوسة، وجمعها كيفيات محسوسة. ومن هنا ينبع اعتراض آخر على أصالة ديفيد. هو لا يستطيع أن يحب مونيكا حبًّا حقيقيًّا؛ لأنه صُمم كي يتصرف كما لو أنه يحظى بخبرات غنية بالكيفيات المحسوسة، بينما هو في الواقع لا يملك هذه الخبرات. عندما يشعر بالحزن على ما يبدو عند معرفته أن مونيكا يومًا ما ستموت، فإنه لا يفعل أكثر من مجرد محاكاة السلوك المنتظَر منه في هذه الحالة. إنه لا يشعر في الحقيقة بأي اغتمامٍ فعلي، رغم تَصوُّرنا أنه من المستحيل تمامًا الجزم بأنه لا يشعر بذلك. يفتقد ديفيد الكيفية الحسية الخاصة بالشعور بالكرب أو الاغتمام. لا يمكننا معرفة ما الذي سنشعر به لو كنا مكان ديفيد بينما يبدو مغتمًّا، بل لا يمكننا معرفة ما سنشعر به لو كنا مكان ديفيد من الأساس؛ فذلك يشبه تخيُّل ما سنشعر به لو كنا مِحمصة خبز مثلًا. هذا ما يُطلَق عليه اعتراض الكيفيات المحسوسة.
حتى هذه اللحظة، نحن نُعبر عن مجرد شك، هل يوجد حجة فلسفية تدعمه؟ ما نحتاج إليه هو حجة تُثبت أن الوعي؛ أي خبرة الكيفيات المحسوسة، لا يمكن خلقه اصطناعيًّا. وبما أننا لا نعرف تحديدًا كيف ظهر الوعي لدى البشر — لأسبابٍ لا تتعلق بنقصٍ في النظريات — فمن غير الوارد أن نتمكن من استبعاد إمكانية وجود وعي اصطناعي بِناءً على أسس فلسفية. ربما نشعر بوجود شيءٍ خاص، شيءٍ روحاني على الأرجح أو غير آلي، يُميز الوعي. ربما نشعر على نحوٍ بديهي أن الكائنات الحية أو الكائنات التي تملك روحًا هي فقط التي تتمتع بوعيٍ كامل، لكن هذا الإحساس البديهي لا يتمتع وحده بثقلٍ فلسفي كبير.
تُقرِّبنا إحدى الحجج الفلسفية من هدفنا المنشود؛ هي حجة تدَّعي إثبات أن الوعيَ في الحقيقة ظاهرة غير ماديةٍ على الإطلاق. إذا كان الوعي غير مادي، فربما يستحيل علينا بالفعل استنساخه اصطناعيًّا. يُقدِّم لنا هذه الحجةَ الفيلسوف الأسترالي فرانك جاكسون (١٩٨٢؛ ١٩٨٦)، وتُعرف باسم «حجة المعرفة» وتتطلب بدورها تجرِبة افتراضية أخرى. (سنغير ها هنا أيضًا بضعة تفاصيل من أجل سهولة العرض.) تخيَّل أن امرأةً تُدعى ماري خضعت لتجرِبة نفسية مطولة وقاسية؛ فعندما وُلدت زُرعت في عينيها أجسام خاصة تمنعها من رؤية أي شيء بالألوان؛ ومن ثَمَّ قضت حياتها ترى كل شيءٍ باللونين الأبيض والأسود. رغم ذلك، أو ربما نتيجةً لذلك، أصبحت ماري أعظم خبراء العالم في الإدراك البشري للألوان، بل إن براعتها الفذة في اكتشاف الحقائق فيما يتعلق بإدراك الألوان أوصلتها إلى معرفة كل ما يهمُّ معرفته في هذا المجال؛ فهي تعرف جميع الحقائق المادية التي تتعلق بإدراك الألوان مثل طريقة تفاعل الجهاز البصري مع الضوء من شتى الأطوال الموجية، وكيفية معالجة الدماغ للمعلومات التي يستقبلها من المستقبلات البصرية وغيرها. وهكذا توصلت ماري إلى معرفة جميع الحقائق المادية المتعلقة بطبيعة إدراك اللون. ومع نهاية التجرِبة، أُزيلت الأجسام المزروعة في عينَي ماري، وأصبحت الآن قادرةً فعليًّا على رؤية الألوان عوضًا عن الاكتفاء بطرح النظريات حولها. وبينما تتجوَّل في الخارج ترى وردةً حمراء، فتقول لنفسها «هكذا إذن يبدو اللون الأحمر، لم أكن أعلم ذلك قطُّ!» يوجد شيء إذن لم تعرفه ماري؛ هي لم تكن تعرف حقائق الكيفيات المحسوسة الخاصة بإدراك الألوان، لم تكن تعرف كيف يبدو اللون الأحمر. لكنها كانت تعرف جميع الحقائق المادية. يُثبت ذلك أن حقائق الكيفيات المحسوسة ليست حقائق مادية. ثَمَّةَ جوانب أخرى للوعي خلاف المعالجة المادية للمعلومات في الدماغ.
أسئلة
-
فلنفترض أن كفاءة الروبوتات تحسَّنت أكثر حتى أصبح من المستحيل تمييز الروبوت عن الإنسان، على المستوى الجسدي أو العاطفي، ما لم تُفككه إلى أجزاء. هل يصبح حينئذٍ خوض علاقة وثيقة ومحبة مع تلك الروبوتات أمرًا غير منطقي وغير مبرر، بل وغير طبيعي؟ أمن المفترض أن يُجيز القانون زواج الإنسان والروبوت؟ أمن الممكن أن يعيش إنسان مع روبوت في زواج «سعيد»؟
-
في هذا الفصل، طرحنا الزعم التالي: «إذا اعتبرنا حب ديفيد غير أصيل لأنه مُثبَّت سابقًا، فربما يصبح حب أي طفلٍ لأمه غير أصيل كذلك للسبب نفسه. نحن لا ننزع إلى الشك في حقيقة أو أصالة حب الطفل لوالديه؛ لذا ربما لا ينبغي لنا التشكك في حب ديفيد لأن أصله يرجع إلى المُصمم.» هل كنا على حقٍّ في هذا الزعم؟ وحب الطفل (البشري) لأبويه، أهو حب أصيل؟ هل هو حب أصيل على نحوٍ لا يمكن لحب ديفيد أن يصبح مثله أبدًا؟ ما الذي تمثله أصالة حب طفل؟ (ما الذي تمثله أصالة أي حب؟)
-
طرح جون سيرل تجرِبة الغرفة الصينية الافتراضية من أجل تفنيد الطموحات الهادفة إلى خلق برنامج ذكاء اصطناعي قوي. إنه الاعتقاد بأن أجهزة الكمبيوتر سوف تشتمل في النهاية على عقول اصطناعية (ذات وعي وإدراك وذكاء وقدرة عاطفية … إلخ). وقد انتقدنا هذه الحجة في هذا الفصل. لكن من الممكن توجيه نسخة أكثر تواضعًا من الغرفة الصينية لتفنيد اختبار تيورنج وليس برنامج الذكاء الاصطناعي القوي. فهل ستنجح في تحقيق هذا الهدف الأكثر تواضعًا؟ (بعبارةٍ أخرى: هل ستُثبت أنه من الممكن اجتياز اختبار تيورنج دون امتلاك ذكاء تحاوري حقيقي؟)
-
هل يحتاج المرء إلى قدرات كقدرات الروبوت كي يفهم أي شيء؟ ومن ثَمَّ، أليس من الممكن أن يتأتى للكمبيوتر فهم الأشياء دون ملاحظةٍ وحركةٍ وفعلٍ وغير ذلك؟ أليس التحدث (الناتج عن تنفيذ برنامج المحادثة) كافيًا؟ ولِمَ لا؟
-
في هذا الفصل، لم نعبأ كثيرًا برد سيرل المبدئي على رد النظام. زعم سيرل أن الاعتقاد بقدرة المكونات الخاملة داخل نظامٍ ما (مثل خزانة الملفات بكل ما تحتويه من ملفات ومجلدات داخل غرفته الصينية) على تحويل شيءٍ لا يُفهم إلى شيءٍ يُفهم هو اعتقاد سخيف؛ فكيف يسعها تحقيق ذلك؛ هي «لا تفعل» شيئًا. هل تَسرَّعنا في رفض هذا الرد؟ وهل يحمل اتهام سيرل شيئًا من الصحة؟ كيف يمكن أن تصنع إضافة ملفات من المعلومات فارقًا؟ (تذكر أن رد النظام يبلغ فاعليته القصوى عند الجمع بينه وبين رد الروبوت.)
-
هل أنت وذو الرأس الكبير شخص واحد؟ بعبارةٍ أخرى: متى أصبحت داخل الغرفة الصينية، وحفظت التعليمات كلها عن ظهر قلب، فهل ستصبح نظامًا معرفيًّا واحدًا أم نظامين؟
-
في هذا الفصل، عبَّرنا عن اعتراض الكيفيات المحسوسة على النحو التالي: «لا يمكننا معرفة ما سنشعر به لو كنا مكان ديفيد؛ فذلك يشبه تخيُّل ما سنشعر به لو كنا مِحمصة خبز مثلًا.» هل سيسعنا يومًا ما معرفة ما إذا كان العقل الاصطناعي يختبر الكيفيات المحسوسة؟ إذا كانت جميع الأنظمة الإدراكية الحسية والمعلوماتية ذات الصلة تؤدي وظيفتها، فهل سيكون بمقدورك معرفة ما إذا كان العقل الاصطناعي يمر بالكيفيات المحسوسة أم لا؟ هل سيكون باستطاعتك الجزم بأن آخرين غيرك يمرون بالكيفيات المحسوسة؟ (سيزعمون أنهم يختبرونها، وهذا بالطبع هو ما سيقولونه، فهم في النهاية من الزومبي.) أو هل سيصبح بوسعك معرفة ما إذا كان شخص آخر يمرُّ بنفس الكيفيات المحسوسة التي تمر بها عندما ينظر كلاكما إلى الشيء نفسه؟ (أعتقد أنه أحمر، أنت تقول إنه أحمر. لكن كيف أعرف أنك ترى ما أراه عندما أقول إنني أرى اللون الأحمر؟) بالنظر إلى نزوعنا نحو الشكوكية فيما يتعلق بالكيفيات المحسوسة، ألم نكن قساةً حقًّا على ديفيد عندما قارنَّا حياته الداخلية بحياة مِحمصة خبز؟