الإبداع الاصطناعي
أسَّس آلان تورنج نظريةَ الحوسبة التقليدية في عام ١۹٣٦، وساعَدَ في صنع أحد أول أجهزة الكمبيوتر التقليدية العمومية إبَّان الحرب العالمية الثانية، وقد لُقِّب عن جدارةٍ بأبي الحوسبة الحديثة، أما بابيج فيستحق أن يُلقَّب بجَدِّ الحوسبة الحديثة. لكن تورنج استطاع — على عكس بابيج ولافليس — أن يفهم أن الذكاء الاصطناعي يجب من الناحية النظرية أن يكون ممكنًا؛ ذلك لأن الكمبيوتر العمومي هو أداة محاكاةٍ عمومية. في عام ١۹٥۰، ناقَشَ تورنج في ورقته البحثية التي حملتْ عنوان «آلات الحوسبة والذكاء» إجابتَه الشهيرة عن السؤال: هل تستطيع الآلةُ أن تُفكِّر؟ لم يكتفِ تورنج في نقاشه بالدفاع عن مقترحه بأن الآلة تستطيع التفكيرَ بالفعل؛ نظرًا لما تتسم به من عمومية، بل اقترح إجراءَ اختبارٍ لتحديدِ ما إذا كان أيُّ برنامجٍ ذكيًّا أم لا. يُعرَف ذلك الاختبارُ اليومَ باختبار تورنج، ويقوم ببساطةٍ على عدم تمكُّن الحكم المناسب (الإنسان) من تحديد ما إذا كان البرنامج بشريًّا أم غيرَ بشري. وضع تورنج في تلك الورقة البحثية وفيما بعدُ بروتوكولاتٍ عديدةً لتنفيذ ذلك الاختبار؛ فاقترح على سبيل المثال أن يتفاعَلَ كلٌّ من البرنامج والعنصر البشري الحقيقي على نحوٍ منفصلٍ مع الحكم أثناء الاختبار عبر وسطٍ نصيٍّ بحت — كالمُبرقة الكاتبة — ليتسنَّى اختبار القدرات التفكيرية للجانبين فحسب وليس مظهرهما.
حثَّ اختبارُ تورنج وحججه العديدَ من الباحثين على التفكير ليس فقط فيما إذا كان تورنج نفسه على حقٍّ، ولكن أيضًا فيما يقتضيه النجاحُ في ذلك الاختبار. أضحَتِ البرامج تكتب بنية استكشاف ما قد يتطلبه النجاح في هذا الاختبار.
في عام ١۹٦٤، ألَّفَ عالِمُ الكمبيوتر جوزيف فايزنباوم برنامجًا سمَّاه «إليزا»، صمَّمه لمحاكاة المعالجين النفسيين؛ رأى فايزنباوم أن أسهل مَن يمكن للبرنامج تقليدهم من البشر هم المعالجون النفسيون؛ لأنه لن يحتاج في هذه الحالة إلا إلى إعطاء إجاباتٍ مبهمةٍ عن نفسه، وإلى أن يطرح أسئلةً مبنيةً على ما يقدِّمه مستخدِمُ البرنامج من أسئلةٍ ومعلوماتٍ. كان برنامجًا في غاية البساطة، ويكثر استخدامُ مثله من البرامج حتى اليوم بين دارسي البرمجة؛ لأنها سهلة وممتعة في كتابتها. يقوم أيٌّ من هذه البرامج على استراتيجيتين أساسيتين؛ أُولاهما أنه يبحث في كل المدخلات عن كلماتٍ دليليةٍ وأساليبَ نحويةٍ بعينها، فإذا نجح في العثور عليها، فهو يقدِّم إجابةً اعتمادًا على قالبٍ محدَّدٍ مستكمِلًا الفراغات من خلال كلماتٍ من المدخلات؛ فمثلًا: إذا أُعطِي البرنامج مُدخلاتٍ تقول: «أنا أكره عملي»، فقد يتعرَّف على الجانب النحوي للجملة الذي يحوي ضميرَ الملكية (ياء الملكية في «عملي»)، وقد يتعرَّف أيضًا على كلمة «أكره» باعتبارها كلمةً دليليةً موجودةً في قائمةٍ مضمنةٍ فيه تضمُّ كلماتٍ مثل: «أحب/أكره/أبغض/أريد»، ومن هنا يستطيع البرنامج أن يختار قالبًا مناسبًا ويُقدِّم إجابةً مثل: «ما أكثر شيءٍ تكرهه في عملك؟» إذا لم يستطع البرنامج أن يحلِّل المُدخلات إلى هذه الدرجة، فإنه يسأل سؤالًا من عنده من خلال اختيارٍ عشوائيٍّ من ذخيرةٍ داخليةٍ قد تعتمد — أو لا تعتمد — على الجملة المُدخلة؛ فمثلًا: إذا تلقَّى البرنامج سؤالًا يقول: «كيف يعمل التليفزيون؟» فقد يقدِّم إجابةً مثل: «فيمَ اهتمامُك بأمرٍ مثل «كيف يعمل التليفزيون؟»؟» أو قد يسأل: «لماذا يهمك ذلك؟» أما الاستراتيجية الثانية، فتقوم على بناء قاعدة بياناتٍ من المحادثات السابقة؛ مما يتيح للبرنامج ببساطةٍ أن يكرِّر العبارات التي كتبها مستخدمون آخَرون من قبلُ، وذلك بعد اختيارها على أساسِ الكلمات الدليلية التي يعثر عليها في مُدخلات المستخدِم الحالي. تُستخدَم هذه الاستراتيجيةُ في النُّسَخ الحديثة من برنامج إليزا، التي تُستخدَم على الإنترنت.
كان ما أذهل فايزنباوم هو أن إليزا قد خدع العديدَ من الناس؛ ممَّا يعني أنه قد نجح في اختبار تورنج، أو على الأقل في أكثر صوره سذاجةً؛ بل إن الناس استمرُّوا في إجراء الأحاديث الطويلة مع البرنامج عن مشكلاتهم الشخصية حتى بعد أن علموا أنه ليس برنامجَ ذكاءٍ اصطناعيٍّ حقيقيًّا، وكأنهم صدَّقوا أنه يفهمهم. ألَّفَ فايزنباوم كتابَه «قوة الكمبيوتر والعقل البشري» (١۹٧٦) محذِّرًا من أخطار التجسيد عندما تُظهِر أجهزةُ الكمبيوتر أداءً يماثِل الأداءَ البشري.
إلا أن التجسيدَ ليس أهم صورةٍ من صور الثقة الزائدة التي تكتنف مجالَ الذكاء الاصطناعي. على سبيل المثال: تعرَّضَ دوجلاس هوفستاتر في عام ١۹٨٣ إلى خدعةٍ وُدِّيَّةٍ من بعض طلاب الدراسات العليا، حين أقنعوه بأنهم تمكَّنوا من الدخول على برنامج ذكاءٍ اصطناعيٍّ تستخدمه الحكومةُ، ودعَوْه لأن يطبق عليه اختبار تورنج؛ كان الواقع أن أحدَ الطلاب كان قابعًا على الطرف الآخَر من الاتصال محاكيًا برنامج إليزا، وكما روى هوفستاتر في كتابه «أشياء أغرب من السحر» (١۹٨٥)، كان الطالب من البداية يُبدِي ظاهريًّا درجةً غير عاديةٍ من فهم أسئلة هوفستاتر؛ فمثلًا: كان ممَّا دار بينهما في بداية الحديث:
إن هذا ليس تعريفًا معجميًّا للآذان؛ مما يعني أنَّ «شيئًا ما» قد عالجَ معنى كلمة «آذان» على نحوٍ ميَّزَها فيه عن باقي الأسماء. يمكن أن يعزُوَ المرءُ إجابةً واحدةً كتلك إلى الحظ؛ إذ لا بد أن السؤال قد تشابَهَ مع واحدٍ من القوالب التي صاغها المبرمِج، يكون قد احتوى على معلوماتٍ مخصَّصةٍ عن الآذان. لكنَّ الحظَّ يُمسي تفسيرًا شديدَ السوء بعد حوالي ستة أسئلةٍ وإجاباتٍ عن موضوعاتٍ مختلفةٍ بصياغاتٍ مختلفة؛ ومن ثَمَّ كان ينبغي للعبة أن تنتهي، لكنها لم تنتهِ؛ إذ أصبح الطالبُ أجرأَ في إجاباته حتى صار يُمازح هوفستاتر مباشَرةً؛ مما فضح أمره.
علَّقَ هوفستاتر على تلك الحادثة في كتابه قائلًا: «عندما أعيدُ التفكيرَ فيما حدث، أندهشُ جدًّا من مدى استعدادي لقَبول هذا المقدار الكبير من الذكاء الاصطناعي الحقيقي في البرنامج … كان من الجليِّ أنني راغبٌ في قَبول إمكانية تحقيق قدرٍ وافرٍ من المرونة في ذلك العصر، بالاعتماد على مجموعةٍ من الخدع المتفرِّقة والحلول العشوائية والاختراقات.» أما الحقيقة اليوم، فلم يستطِعْ أيٌّ من البرامج العديدة التي قلَّدَتْ إليزا لمدة تسعة عشر عامًا بعد إصداره أن تُشبه شخصًا حقيقيًّا، ولو قليلًا، أكثر ممَّا فعل البرنامجُ الأصلي (وكفى بها من حقيقةٍ لتنبيهِ هوفستاتر لحقيقة الأمر)؛ فمع أن قدرة تلك البرامج على تحليل الجمل أصبحَتْ أفضل، ومع أن قوالب الأسئلة والإجابات السابقة البرمجة قد زادَتْ، فإن كل ذلك لا يُجدِي نفعًا في الأحاديث المطوَّلة التي تدور في موضوعاتٍ متعددة. تتضاءل احتمالاتُ استمرار مخرجات القوالب في التشابُه مع نواتج العقل البشري تضاؤلًا شديدًا بازدياد طول تلك الحوارات؛ ومن ثَمَّ كان على هوفستاتر أن يُعلِن عن نجاح البرنامج في الاختبار في لحظةٍ مبكرة، وعن أن هذا البرنامج بالرغم من تَشابُهه مع برنامج إليزا، فإنه في الواقع ليس سوى شخصٍ يتظاهر بأنه برنامج حاسوبي.
لا تتميز البرامجُ التي تُكتَب إلى اليوم — بعد ستةٍ وعشرين عامًا أخرى — عن برنامج إليزا كثيرًا في مهمة التظاهر بالتفكير، وهي تُعرَف الآن باسم «برامج المحادثة»، ولم يَزَلِ الغرضُ الرئيسي منها هو التسلية، سواءٌ بالاستخدام المباشِر أم داخل ألعاب الكمبيوتر. كما شاع استخدامها باعتبارها واجهاتٍ سهلةَ الاستخدام لقوائم «الأسئلة المتكررة» حول موضوعاتٍ مثل كيفية تشغيل الكمبيوتر، لكني أعتقد أن مستخدِمِي هذه البرامج لا يجدونها أكثر فائدةً من قائمةٍ عاديةٍ من الأسئلة والأجوبة يمكن البحث فيها.
في عام ١۹۹۰، خصَّصَ المخترع هيو لوبنر جائزةً للنجاح في اختبار تورنج، على أن يتمَّ التحكيمُ بين البرامج في مسابقةٍ سنوية، وتُمنَح أيضًا جائزةٌ أدنى في كلِّ عامٍ للبرامج التي يرى الحكامُ أنها كادَتْ تنجح في الاختبار. إن الاختبار أصعبُ في تطبيقه ممَّا قد يبدو عليه للوهلة الأولى؛ فمن المشكلاتِ المتضمَّنةِ فيه الاشتراطُ على البرنامج بأن «يتظاهر» بأنه بشري، وهو أمر متحيِّز ولا صلةَ كبيرة له بالقدرة على التفكير، لكن إذا لم يتظاهر البرنامجُ بأنه بشري، فسيصبح اكتشافُ كونه برنامجَ كمبيوتر أمرًا سهلًا بصرف النظر عن قدرته الفعلية على التفكير. ومن المصاعب المتعلِّقة بالاختبار أيضًا أن يحاكيَ المتسابِقُ البشري عن قصدٍ برنامجَ محادثةٍ — كما في الخدعة التي تعرَّضَ لها هوفستاتر — ومن ثَمَّ يفسد الاختبار القائم على المقارنة بين الاثنين. لكن هل من المفترض أن تسمح قواعدُ الاختبار للعنصر البشري بالقيام بذلك لكي تحدَّ من المشكلة السابقة؟
للأسف، إن تلك الأمور غيرُ ذات صلةٍ في ظل الوضع الحالي للاختبار، ويتضح هذا من خلال المقطع التالي من محادثةٍ تمَّتْ مع برنامج «إلبوت»، الذي حاز على جائزة لوبنر «الأدنى» في عام ٢۰۰٨:
في هذه الفقرة، نرى أن جملة إلبوت الأولى لم تكن إجابةً لسؤال الحكم، بل كانت على الأرجح استجابةً من مخزونه من القوالب تسبَّبت فيها الكلماتُ الدليلية «اختبار تورنج»، واستخدم الحكمُ في السؤال الثاني كلمةَ «يزوج»، والتي لا يمكن أن تعني في هذا السياق سوى كلمة «يجوز» (لكنه ارتكب خطأً في الكتابة)، لكن إلبوت لم يردَّها إلى ذلك الاحتمال، وأجاب بمزحةٍ عن «الزواج»؛ وعليه يتضح من هذا الجزء وحده من الحوار أن إلبوت لم يكن يتفكَّر في «معاني» جمل الحكم.
عندما استجاب الحكمُ للحديث العشوائي عن الزيت على سبيل مساعدة المتسابق، تجاهَلَ إلبوت ذلك، لكن الأخير عندما رصد كلمة «وظيفتك» حوَّلها إلى مرادفها «العمل» وأدخلها في جملةٍ من الجمل المخزَّنة فيه.
هذا أقصى ما بلغه السعيُ وراءَ إنتاج «آلاتٍ مفكِّرة» من إنجازٍ بعد «ثمانيةٍ وخمسين عامًا» من ظهور ورقة تورنج البحثية: صفر. لكنَّ علومَ الكمبيوتر والتكنولوجيا حقَّقَتْ تقدُّمًا مذهلًا في كل الجوانب الأخرى في هذه الفترة. بالطبع، القلةُ المتضائلة من المعترضين على إمكانية وجود الذكاء الاصطناعي لا تندهش من الأساس لهذا الفشل، لكن للسبب الخاطئ، وهو عدم تقدير أهمية العمومية. لكن أكثر «المتحمِّسين» للذكاء الاصطناعي والمؤمنين به لا يعترفون بهذا الفشل؛ فيزعم البعضُ أن هذا النقد الذي ذكرتُه غير عادل، على أساس أن أبحاث الذكاء الاصطناعي لا تدور حول اجتياز اختبار تورنج، وأن تقدُّمًا عظيمًا قد أُحرِز فيما يُعرَف اليومَ بالذكاء الاصطناعي في العديد من التطبيقات المتخصصة، إلا أن أيًّا من تلك التطبيقات لا يبدو ﮐ «آلات مفكِّرة» (ولهذا فإن ما أشير إليه بالذكاء الاصطناعي يُشار إليه في بعض الأحيان بالذكاء الاصطناعي العام). ويعتقد آخَرون أن هذا النقد لم يَحِنْ أوانُه بعدُ لأن أجهزة الكمبيوتر لم تمتلك في أغلب تلك الفترة إلا سرعةً وسعةً تخزينيةً ضئيلتَيْن جدًّا إذا ما قارنَّاهما بما لديها اليومَ؛ ولهذا فهم يتوقَّعون أن تَحدث طفرةٌ فارقةٌ في السنوات القليلة القادمة.
لكن الاعتراض الأخير على النقد غير مُجدٍ كذلك؛ إن الأمر ليس وكأنَّ أحدهم قد ألَّفَ برنامجَ محادثةٍ قادِرًا على اجتياز اختبار تورنج لكنه يحتاج إلى عامٍ كاملٍ لمعالجة كل إجابة؛ فالناس لن تمانع في الانتظار. وعمومًا لو وُجِد مَن يستطيع أن يكتب مثلَ هذا البرنامج، لَمَا كانت هناك الحاجةُ إلى الانتظار، وذلك لأسبابٍ سأتطرَّق إليها بعد قليل.
قدَّرَ تورنج في بحثه المنشور عام ١۹٥۰ أنه كي يستطيع أيُّ برنامج ذكاءٍ اصطناعيٍّ أن يجتاز اختبارَه، فهو لا يحتاج هو وبياناته إلا إلى مائة ميجابايت من سعة الذاكرة، وأن الكمبيوتر المشغل عليه لا يحتاج إلى أن يكون أسرع من أجهزة الكمبيوتر الشائعة في تلك الفترة (التي كانت تؤدِّي حوالي عشرة آلاف عملية في الثانية)، كما قُدِّر أنه بحلول عام ٢۰۰۰ «سيستطيع المرءُ أن يتحدَّثَ عن الآلات التي تُفكِّر دون أن يتوقَّع أيَّ معارضة». حسنًا، لقد حلَّ عام ٢۰۰۰ وولَّى، والكمبيوتر المحمول الذي أكتب عليه هذا الكتابَ سعةُ ذاكرته أكبرُ ألفَ ضعفٍ ممَّا حدَّده تورنج (مع وضْعِ مساحة القرص الصُّلب في الاعتبار)، وهو أسرع بحوالي مليون ضعف (وإن كان من غير الواضح في بحثه على أي نحوٍ كان يحسب المعالجةَ المتوازية للعقل البشري)؛ ومع ذلك فإن الكمبيوتر خاصتي هذا لا يُفكِّر أفضل ممَّا استطاعَتْ مسطرةُ تورنج الحاسبة أن تفعل. إني على نفس ثقة تورنج بأن الكمبيوتر «يمكن» برمجته كي يستطيع التفكيرَ، وأن هذا قد لا يحتاج بالفعل إلا إلى الموارد البسيطة التي قدَّرَها تورنج، مع أن ما يفوقها من سعةٍ وسرعةٍ متوافرٌ اليومَ؛ لكن باستخدام أي برنامج؟ ولماذا لا توجد أيُّ إشارةٍ عن وجود مثل ذلك البرنامج؟
إن الذكاء بمعناه العام الذي قصده تورنج هو واحد من مجموعةٍ من خصائص العقل البشري التي حيَّرَتِ الفلاسفةَ منذ فترةٍ طويلة، وهي مجموعة تضمُّ فيما تضمُّ: الوعيَ، والإرادةَ الحرة، والمعنى. يمكننا أن نتفهَّمَ هذه الحيرةَ بالنظر إلى لغزِ «الكيفيات»، التي تعني الجانب الذاتي للإحساس؛ لذا نشير — على سبيل المثال — إلى الإحساس برؤية اللون الأزرق بالكيفية. لنفكِّرْ في التجربة الفكرية التالية: لنَقُلْ إنك عالم كيمياء حيوية كان من سوء حظك أن تُولَد بعيبٍ جينيٍّ عطَّلَ مستقبِلاتِ اللون الأزرق في شبكية عينَيْكَ؛ وعليه فأنت مصابٌ بنوعٍ من عمى الألوان لا تقدر بسببه سوى أن ترى اللونين الأحمر والأخضر وكل مزيجٍ منهما كالأصفر، لكن يبدو لك أيُّ شيء لونه أزرق بحت كمزيجٍ منهما؛ ثم حدث أن اكتشفتَ علاجًا سيتسبَّب في علاج مستقبِلات اللون الأزرق في عينَيْكَ، وقبل أن تتناول ذلك العلاج، تمكَّنْتَ على نحوٍ واثقٍ من تسجيل بعض التنبؤات عمَّا سيحدث إذا ما نجح العلاجُ، كان أحدها أنك إذا نظرتَ إلى بطاقةٍ زرقاء اللون على سبيل الاختبار، فسترى لونًا لم تَرَه قطُّ من قبلُ. يمكنك أيضًا أن تتنبَّأ بأنك ستُسمِّي ذلك اللونَ «أزرق» لأنك تعلم بالفعل «اسمَ» لون البطاقة (ويمكنك أيضًا التأكُّد من لونها باستخدام جهاز قياس الضوء الطيفي)، ويمكنك أيضًا أن تتنبَّأ أنك عندما سترى سماءً صافيةً وقتَ النهار بعد أن تُعالَج، ستختبر كيفيةً تُشبه تلك التي مررتَ بها عندما نظرتَ إلى البطاقة الزرقاء؛ لكن يبقى أمرٌ واحد لا يمكن لك ولا لغيرك أن يتنبَّأ به عن نتيجة هذه التجربة، وهو «الكيفية التي سيبدو عليها اللونُ الأزرق». لا يمكن وصفُ الكيفيات أو التنبُّؤ بها حتى اليوم، وهو ما يجعلها إشكاليةَ الطابع لأي شخصٍ ذي رؤيةٍ علميةٍ للعالم (مع أنها فيما يبدو لا تؤرِّق سوى الفلاسفة).
أرى أن هذا دليل مثير على أن ثَمَّةَ اكتشافًا مهمًّا ينتظرنا، وسنتمكَّن بواسطته من أن نُدرِج أمورًا كالكيفيات في معارفنا الأخرى. توصَّلَ الفيلسوف دانيال دينيت إلى النتيجة العكسية، وهي أن الكيفيات غير موجودة. إنه لا يرى أنها وهم — لأن توهُّم وجود أيٍّ من تلك الكيفيات هو في حقيقته كيفيةٌ — بل أنها «اعتقاد خاطئ». إن ما نمارسه من تأمُّلٍ ذاتيٍّ — أي تأمُّلنا ﻟ «ذكريات» تجاربنا، التي حدث بعضها منذ أقلَّ من كسرٍ من الثانية — قد تطوَّرَ بحيث يبلغنا بأننا قد اختبرنا كيفياتٍ، إلا أن تلك ذكريات غير حقيقية. دافَعَ دينيت عن نظريته هذه في كتابٍ له بعنوان «تفسير الوعي»، وقد لمَّح بعضُ الفلاسفة الآخرون ساخرين إلى أن التسمية الصحيحة للكتاب كان يجب أن تكون «إنكار الوعي». أوافقهم الرأيَ؛ فمع أن أيَّ تفسيرٍ صحيحٍ للكيفيات لا بد أن يواجِهَ تحدِّيَ نقدِ دينيت الموجَّه للنظرية الشائعة حول وجودها، يظل إنكارُ وجودها بهذه البساطة تفسيرًا سيئًا؛ إذ يمكن إنكارُ أي أمرٍ على هذا النحو. وإذا كان الأمر كذلك، فلا بد من إثبات هذا بتفسيرٍ جيدٍ لكيف ولماذا «تبدو» تلك الاعتقادات الخاطئة مختلفةً على نحوٍ جوهريٍّ عن غيرها من الاعتقادات الخاطئة، مثل الاعتقاد بأن الأرض ثابتة تحت أقدامنا؛ بَيْدَ أن ذلك يبدو لي مثل المشكلة الأصلية في الكيفيات؛ إذ يبدو أننا نختبرها، لكن يبدو من المستحيل وصْفُ ما تبدو عليه.
لكننا سنستطيع في يومٍ ما أن نفعل؛ فالمشكلات قابلة للحل.
وبالمناسبة، بعضُ قدرات البشر التي تُدرَج عادةً في تلك المجموعة التي أشرتُ إليها، والمرتبطة بالذكاء العام، لا تنتمي إليها في الواقع، ومنها «الوعي الذاتي»، والذي يُستدل عليه بواسطة اختبارات مثل التعرُّف على الذات في المرآة. ينبهر البعضُ بلا سببٍ في الواقع عندما تُظهِر بعضُ الحيوانات هذه القدرةَ، لكنَّ الأمرَ لا يكتنفه أيُّ غموض؛ إن أبسط برامج التعرُّف على الأنماط يمكن أن ينقل هذه القدرةَ إلى الكمبيوتر. وينطبق الأمرُ نفسه على استخدام الأدوات، واستخدام اللغة للإشارة (لكن ليس في المحادثة في اختبار تورنج)، والعديد من الاستجابات الانفعالية (وإنْ كانت لا ترتبط بالكيفيات). في هذا المجال، يقضي أحدُ أحكام التجربة المفيدة بأن القدرة إنْ أمكن برمجتها، فهي ليست لها علاقة بالذكاء الذي كان يعنيه تورنج. لقد استقررتُ في المقابل على قاعدةٍ بسيطةٍ للحكم على المزاعم المختلفة، بما فيها مزاعم دينيت، لتفسير طبيعة الوعي (أو أي مهمةٍ حوسبيةٍ أخرى)، وهي: «إن لم تستطِعْ برمجةَ القدرة، فأنت لم تفهمها.»
لقد اخترع تورنج اختبارَه على أمل أن يتجنَّب كلَّ تلك الإشكاليات الفلسفية. وبعبارةٍ أخرى: كان يرجو لو تحقَّقَ الغرضُ منه قبل أن يلزم تفسيره. لكن مع الأسف، من النادر جدًّا أن يتمَّ اكتشافُ حلولٍ عمليةٍ لمشكلاتٍ جوهريةٍ دون وضْعِ تفسيراتٍ لكيفية عملها.
ومع ذلك، لعبتْ فكرةُ اختبارِ تورنج دورًا مهمًّا، شأنها في ذلك شأن التجريبية، التي تتشابه معها؛ فقد قدَّمَتْ وسيلةً لتفسير أهمية العمومية ولنقد الافتراضات العتيقة البشرية التمركُز التي قد تستبعِد احتماليةَ وجود الذكاء الاصطناعي. لقد دحض تورنج نفسُه كلَّ الاعتراضات التقليدية بمنهجيةٍ في تلك الورقة البحثية الإبداعية (وبعض الاعتراضات العبثية الأخرى)، إلا أن اختباره يعاني من الخطأ التجريبي الخاص بالسعي نحو معيارٍ سلوكيٍّ بحت؛ فهو يطلب من الحَكَم أن يتوصَّلَ إلى حكمه دون أيِّ تفسيرٍ للكيفية التي يفترض أن يعمل على أساسها برنامجُ الذكاء الاصطناعي المرشَّح، بينما في الواقع يعتمد دائمًا الحكْمُ على أيِّ شيءٍ بأنه ذكاءٌ اصطناعيٌّ حقيقيٌّ على التفسيرات الخاصة بالطريقة التي يعمل بها.
يرجع هذا إلى أن مهمة الحَكَم في اختبار تورنج تقوم على منطقٍ مشابهٍ لما واجَهَه بايلي عندما كان يتجوَّل في واديه المقفر، ثم عثَرَ على ساعةٍ أو حجرٍ أو كائنٍ حيٍّ؛ وهو تفسيرُ الكيفيةِ التي أتَتْ بها السماتُ الملحوظة للشيء. إننا نتجاهل عن عمدٍ الكيفيةَ التي ابتُكِرَتْ بواسطتها المعرفةُ الخاصة بتصميم البرنامج في اختبار تورنج؛ فالاختبار لا يهتمُّ إلا بتحديد مَن صمَّم جُمَلَ برنامج الذكاء الاصطناعي، ومَن صاغها لتكون ذات معنًى؛ أيْ مَن الذي خلق المعرفة الكامنة فيها؟ إذا كان المصمِّم هو مَن فعل هذا، فإذن لا يكون البرنامجُ ضمنَ برامج الذكاء الاصطناعي، أما إذا كان البرنامج نفسُه هو مَن فعل هذا، فهو يدخل ضمنَ هذه البرامج.
تظهر تلك المشكلةُ بين الفينة والفينة فيما يخصُّ البشر أنفسَهم؛ إذ نشكُّ أحيانًا أن ممارسي الخدع السحرية والساسة والممتحنين يتلقَّوْن المعلوماتِ من خلال سماعات أُذُنٍ مخفية، ثم يكرِّرونها على نحوٍ آليٍّ متظاهرين بأن ما يقولونه هو من صياغة عقولهم، كذلك يتعمَّد الطبيبُ عند حصوله على موافقة المريض على إجراءٍ علاجيٍّ ما أن يتأكَّد من أن المريض يدرك ما تعنيه كلمات الموافقة تلك. ولاختبار ذلك الأمر، يستطيع المرءُ أن يكرِّر سؤالَه بصياغةٍ مختلفة، أو أن يسأل سؤالًا مختلفًا باستخدام كلماتٍ مشابهة، ثم يرى إنْ كانت الإجاباتُ ستتغير بالتبعية أم لا؛ تحدث تلك الأمور على نحوٍ طبيعيٍّ في أي محادثةٍ حرة.
ولا يختلف اختبار تورنج كثيرًا عن ذلك، لكنه بالقطع بتأكيدٍ مختلف؛ فعندما نختبر شخصًا، يكون ذلك بغية معرفة ما إذا كان شخصًا تامًّا (وليس واجهةً لشخصٍ آخَر)، لكن عندما نختبر برنامجَ الذكاء الاصطناعي، فإننا نرجو أن نعثر على تفسيرٍ التغييرُ فيه صعب بحيث يستحيل أن تأتيَ جُمَلُ البرنامج من أيِّ شخصٍ وإنما من البرنامج نفسه، وفي الحالتين لا جدوى من استجواب أي إنسانٍ باعتباره فردًا ضابطًا في التجربة.
دون أن نملك تفسيرًا جيدًا للكيفية التي خُلِق بها حديثُ كيانٍ ما، فإن ملاحظته لا تخبرنا بأي شيءٍ عن تلك الكيفية؛ إننا بحاجةٍ في أبسط صور اختبار تورنج أن نقتنع بأن الحديث الصادر عن البرنامج ليس صادرًا على نحوٍ مباشِرٍ عن شخصٍ يتظاهر بأنه برنامج للذكاء الاصطناعي، مثلما حدث في خدعة هوفستاتر، لكن احتمالية كوْنِ الأمر خدعةً هي أبسط ما قد يحدث. لقد خمَّنْتُ بالأعلى على سبيل المثال أن برنامج إلبوت كرَّرَ مزحةً من مخزونه ردًّا على كلمة «يزوج» الدليلية التي أخطأ في التعرُّف عليها، لكن قد يكون لتلك المزحة مغزًى مختلفٌ تمامًا لو كنَّا نعرف على وجه اليقين أنها لم تكن مزحةً من مخزونه؛ لأنها لم تُشفَّر في الأصل في البرنامج.
كيف لنا أن نعلم بأمرٍ كهذا؟ بالتفسير الجيد فحسب؛ فقد نعلم ذلك مثلًا لأننا نحن مَن كتبنا البرنامج، أو لأن صاحبه شرَحَ لنا كيفيةَ عمله؛ أيِ الكيفيةَ التي يكوِّنُ بها البرنامجُ المعرفةَ، بما فيها المزحات. إذا كان التفسير جيدًا، يجب أن نعلم أن البرنامج برنامجُ ذكاءٍ اصطناعيٍّ بالفعل. في الواقع، يكفينا التفسيرُ الجيد لاستنتاج أن البرنامج هو بالفعل برنامجُ ذكاءٍ اصطناعيٍّ حقيقيٌّ حتى لو لم يكن له أيُّ مخرجات، بل حتى لو لم يكن قد كُتِب بعدُ؛ ومن ثَمَّ ليست هناك حاجةٌ إلى إجراء اختبار تورنج، ولهذا قلتُ من قبلُ إنه لو كانَتِ القدراتُ الحاسوبية هي ما يعوزنا لتحقيق إنجاز الذكاء الاصطناعي، فليست هناك حاجةٌ إلى الانتظار.
قد يكون التفسيرُ التفصيلي للكيفية التي يعمل بها برنامجُ الذكاء الاصطناعي أمرًا بالغَ التعقيد، وفي الواقع سيكون التفسيرُ الذي يقدِّمه صاحبُ البرنامج دائمًا على مستوًى انبثاقيٍّ تجريدي، إلا أن ذلك لا يمنعه من أن يكون تفسيرًا جيدًا. لا يحتاج التفسير إلى أن يشرح كلَّ الخطوات الحوسبية التي صاغَتِ المزحةَ — تمامًا كما لا تحتاج نظريةُ التطوُّر إلى تفسير كلِّ طفرةٍ نجحَتْ أو فشلَتْ في تاريخ عملية تكيُّفٍ حيويٍّ ما — وإنما سيتعيَّن عليه فقط أن يفسِّر كيف يمكن للمزحة أن تحدث، ولماذا ينبغي أن نتوقَّع ظهورَها بالنظر إلى الكيفية التي يعمل بها البرنامج. فلو كان التفسير جيدًا، لَأقنعنا أن المزحة — أو المعرفة الكامنة في المزحة — قد نشأَتْ بداخل البرنامج وليس بداخل المبرمِج؛ ومن هنا يمكن لحديثِ البرنامج — المزحة في هذه الحالة — أن يكون الدليلَ على أن البرنامج يفكِّر أو لا يفكِّر، وذلك على حسب أفضل التفسيرات المتاحة عن آلية عمل البرنامج.
إن طبيعة الدعابة أمرٌ غير مفهومٍ تمامًا؛ لذا لا نعلم إنْ كان الذكاءُ العام ضروريًّا لتكوين المزحات؛ وعليه، وعلى الرغم من اتساع نطاقٍ ما قد يمزح المرءُ بشأنه، فمن الوارد أنَّ هناك صلاتٍ خفيةً تختصر صياغةَ المزحات في وظيفةٍ محدودةٍ واحدة، وفي هذه الحالة قد توجد في يومٍ ما برامجُ لصياغة المزحات العامة ليست ببشر، بالضبط كما توجد اليومَ برامجُ للعب الشطرنج ليست ببشرٍ أيضًا. يبدو الأمر صعبَ التصديق، لكن حيث إننا لا نملك تفسيرًا جيدًا يمكِّننا من استبعاد ذلك، فلا يمكن أن نعتمد على القدرة على المزاح باعتبارها طريقةً للحكم على برامج الذكاء الاصطناعي، لكن يمكننا أن نُجرِيَ محادثةً مع البرنامج تدور في نطاقٍ واسعٍ من الموضوعات، ثم نراقب ما إذا كانت أقوالُه متوافقةً في معانيها مع ما يطرأ من مَناحٍ للحوار. إذا كان البرنامج يفكِّر، فَلَسوف «يفسِّر نفسَه» على مدارِ حديثٍ كذاك — بطريقةٍ ممَّا لا حصرَ له من طرقٍ لا يمكن التنبُّؤ بها — تمامًا كما قد تفعل أنت أو أنا.
هناك أمر أعمق، وهو أن قدرات برامج الذكاء الاصطناعي لا بد أن تمتاز بنوعٍ ما من العمومية؛ لأن الذكاء غير العام لا يُعَدُّ ذكاءً بمفهوم تورنج. إنني أرى أن كلَّ برنامجِ ذكاءٍ اصطناعيٍّ هو بمنزلة إنسان، أيْ مفسر عام. من المفهوم أن هناك مستوياتٍ أخرى من العمومية فيما بين برنامج الذكاء الاصطناعي و«المفسِّر/البنَّاء العمومي»، بل ربما توجد أيضًا مستوياتٌ منفصلة للخصائص التي ذكرناها آنفًا كالوعي. لكن تبدو تلك الخصائص كلها وكأنها تحقَّقَتْ جميعها في البشر بقفزةٍ واحدةٍ نحو العمومية، ومع أننا لا نملك إلا أقلَّ التفسيرات عن أيٍّ منها، فإنني لستُ على علمٍ بأي حجةٍ منطقيةٍ تؤكِّد أنها تقع في مستوياتٍ مختلفة، أو أنها قابلة للتحقُّق على نحوٍ مستقلٍّ بعضها عن بعض؛ لذا أميلُ إلى افتراض أن ذلك غير ممكن. وفي كل الأحوال لنا أن نتوقَّعَ أن يتحقَّقَ الذكاءُ الاصطناعي في قفزةٍ نحو العمومية بدءًا من شيءٍ أقل قوةً، وبالعكس فإن القدرةَ على محاكاة الإنسان محاكاةً غيرَ تامةٍ أو في وظائفَ محدَّدةٍ ليست صورةً من صور العمومية، وهو أمر يمكن أن يحدث في مستويات عدة؛ ومن هنا نجد أنَّ أيَّ مستوًى تصل إليه برامجُ المحادثة من إتقان محاكاة الأشخاص (أو خداعهم) ليس بخطوةٍ على طريق الوصول إلى الذكاء الاصطناعي؛ فشتان بين التحسُّن في التظاهُر بالتفكير والاقتراب من القدرة على التفكير.
يوجد مذهبٌ في الفلسفة تقوم فكرته الأساسية على أن هذين الأمرين هما نفس الشيء، وهو يُدعَى «السلوكية»، وهو في حقيقته مذهب الذرائعية مطبَّقًا في علم النفس. أو بعبارةٍ أخرى: هو المذهب الذي يرى أن علم النفس يستطيع أو يجب فقط أن يدرس السلوكَ وليس العقول، كما أنه يرى أن هذا العلم يمكنه فقط قياسُ العلاقات بين الظروف الخارجية المحيطة بالإنسان (أي: «المثيرات») وبين ما يلاحَظ عليه من سلوكيات (أي: «الاستجابات»)، والتنبؤ بتلك العلاقات. وللأسف هذا الأخير هو بالضبط ما يطلبه اختبارُ تورنج من الحكم عند تقييم برامج الذكاء الاصطناعي؛ ولهذا فقد شجَّعَ الاختبارُ الاعتقادَ الذي يرى أنه كلما أتقن البرنامجُ التظاهُرَ بالذكاء الاصطناعي، كان بالفعل قد حقَّقَه. إنما في الواقع لا يستطيع أيُّ برنامجٍ خالٍ من الذكاء الاصطناعي أن يتظاهَرَ به؛ لأن الطريقَ لتحقيق الذكاء الاصطناعي لا يمكن أن يكون من خلال خدعٍ أفضل لِجعْل برامج المحادثة تبدو أكثرَ إقناعًا.
لا بد أن السلوكيين سيسألون: ما الفارق بين تزويد برنامج المحادثة بذخيرةٍ غنيةٍ من الخدع والقوالب وقواعد البيانات وبين تزويده بقدراتٍ خاصةٍ بالذكاء الاصطناعي؟ وما عسى برنامجُ الذكاء الاصطناعي أن يكون غيرَ مجموعةٍ من خدعٍ مثل هذه؟
عندما ناقشْتُ اللاماركيةَ في الفصل الرابع، أوضحتُ الفارق الجوهري بين أن تقوى عضلة شخصٍ ما على مدار حياته وبين أن «تتطوَّر» العضلات لتصبح أقوى؛ في الحالة الأولى، لا بد أن تكون المعرفةُ اللازمة لزيادة قوة العضلة موجودةً بالفعل في جينات الشخص قبل أن تبدأ سلسلةُ التغييرات التي ستؤدِّي إلى زيادة القوة (وكذلك المعرفة اللازمة للتعرُّف على الظروف التي ستحدث في إطارها تلك التغييراتُ). هذا المثال نظيرٌ مطابقٌ لكل «خدعة» يضمُّها المبرمِجُ لبرنامج المحادثة؛ فالبرنامج يستجيب و«كأنه» قد ابتكَرَ شيئًا من المعرفة حيالَ صياغته لاستجابته، إلا أن الحقيقة هي أن كل المعرفة قد ابتُكِرت في وقتٍ سابقٍ وفي مكانٍ آخَر. يناظِرُ التغيُّر التطوُّري في الأنواع في هذا المثال الفكْرَ الإبداعي في الإنسان، وتناظِرُ اللاماركيةُ فكرةَ تحقُّقِ الذكاء الاصطناعي من خلال تراكُمِ خدعِ برامجِ المحادثة؛ فهي نظريةٌ تؤكِّد إمكانيةَ تفسيرِ عمليات التكيُّف الجديدة عن طريق تغييراتٍ ليست في واقع الأمر سوى دلائلَ على معرفةٍ موجودة.
يسود حاليًّا هذا المفهومُ الخاطئ عدةَ مجالاتٍ بحثية، وقد أوصل مجالَ أبحاثِ الذكاء الاصطناعي القائمةِ على برامج المحادثة كلَّه إلى طريقٍ مسدود، بينما لم يتسبَّبْ في بعض المجالات الأخرى إلا في أن حثَّ الباحثين على إعطاء بعض الإنجازات الأصلية، ولكن المتواضعة نسبيًّا، أسماءً طموحةً بلا داعٍ، ومنها «التطوُّر الاصطناعي».
هل تتذكَّر فكرةَ إديسون عن أنَّ إحراز التقدُّم يتطلَّبُ التبديلَ ما بين مرحلتَي «الإلهام» و«الجهد»، وأنه أصبح من الممكن على نحوٍ متزايدٍ أتْمتةُ مرحلةِ الجهد بفضل أجهزة الكمبيوتر وغيرها من صور التكنولوجيا؟ لقد ضلَّلَ هذا التطوُّرُ المحمودُ المؤمنين بإمكانية تحقيق التطوُّر الاصطناعي (والذكاء الاصطناعي). لنفترِضْ مثلًا أنك طالبٌ بالدراسات العليا تدرس علمَ الروبوتات، وتأمل أن تصنع روبوتًا يمشي على رجلين على نحوٍ أفضل ممَّا سبق صُنْعُه؛ فلا بد أنَّ أُولى مراحل الحلِّ ستدور حولَ استلهامِ الفكرة؛ أيْ بعبارةٍ أخرى حول الفكر الإبداعي؛ بحيث تحاول أن تبدأ من حيث انتهى مَن سبقك من باحثين حاولوا حلَّ نفس المشكلة، ومن أفكارٍ تخصُّ مشكلاتٍ «أخرى» تفترض أنها قد تكون ذاتَ صلةٍ بالمشكلة الأصلية، وكذلك من تصميمات الحيوانات التي تستطيع المشْيَ الموجودةِ في الطبيعة. يُشكِّل كلُّ هذا المعرفةَ القائمة، التي ستغيِّرها وتدمجها بطرقٍ جديدة، ثم تتناولها بالنقد وبالمزيد من التغيير، إلى أن تصل في النهاية إلى ابتكارِ تصميمِ مكونات روبوتك الجديد؛ ساقَيْه بروافعهما ومفاصلهما وأوتارهما ومحركاتهما، وجسدِه الذي سيضمُّ وحدةَ تزويدٍ بالطاقة، وأعضائِه الحسية التي سيستقبل بواسطتها التقاريرَ التي ستسمحُ له بالتحكُّم في أطرافه على نحوٍ فعَّال، والكمبيوترِ الذي سيقوم بهذا التحكُّم؛ بذلك تكون قد كيَّفْتَ كلَّ تفصيلةٍ في تصميمك قدرَ الاستطاعة لما يناسِبُ غرضَ المشْي؛ كلَّ شيء فيما عدا البرنامج الموجود داخل الكمبيوتر.
سيتولى هذا البرنامجُ وظيفةَ التعرُّفِ على المواقف التي سيتعرَّض لها الروبوت، كأنْ يبدأ في التعثُّر أو السقوط، وعلى العقبات التي قد تعترض طريقه، وأن يحسب الحركةَ الملائمةَ ويتخذها. هذا هو الجزءُ الأصعب في مشروعك البحثي؛ إذ كيف للروبوت أن يعرف الوقتَ الأمثل لتجنُّب عقبةٍ بالميل إلى يمينها أو يسارها، أو إذا كان من الأفضل أن يقفز من فوقها أم يركلها جانبًا أم يتجاهلها أم يطيل من خطوته فوقها ليتجنَّبَ وطأها، أم أن يقرِّرَ أنها عقبة لا سبيلَ لعبورها؛ ومن ثَمَّ يعاود أدراجه؟ في كل تلك الحالات، كيف يُنفِّذ الروبوتُ أيًّا من هذه الحلول بدقةٍ من خلال إرسالِ ما لا حصرَ له من الإشارات إلى المحركات والتروس، كما تُملِيها وتحدِّدها التقاريرُ التي التقطَتْها الأعضاءُ الحسية؟
إنك ستقسِّمُ المشكلةَ إلى مشكلاتٍ أصغر. إن تغييرَ المسار بزاويةٍ معيَّنةٍ لا يختلف في تغييره بزاويةٍ أخرى كإجراءٍ في حدِّ ذاته؛ ممَّا يسمح لك أن تصوغ روتينًا فرعيًّا لتغيير المسار يصلح لكل الاحتمالات الواردة، وبمجرد أن تفعلَ لن تحتاج باقيَ أجزاء البرنامج سوى أن تستدعيَ هذا الروتينَ الفرعيَّ عندما تُقرِّرُ أنَّ تغييرَ المسار مطلوبٌ في لحظةٍ بعينها؛ ولذا لن يلزم احتواؤها لأي معرفةٍ عن التفاصيل المعقَّدة التي يتطلَّبها تغييرُ المسار. وحين تنتهي من تحديد أكبر قدرٍ من تلك المشكلات الفرعية وحلها، تكون قد ابتكرْتَ شفرةً أو «لغةً» مكيفة على نحوٍ كبيرٍ لصياغة البيانات عن الكيفية التي ينبغي للروبوت أن يمشيَ بها، ويكون كلُّ استدعاءٍ لأيٍّ من روتيناته الفرعية بيانًا أو أمرًا بتلك اللغة.
يندرج كلُّ ما فعلته حتى الآن تحت عنوان «الإلهام»؛ لأنه تطلَّبَ التفكيرَ الإبداعي، والآن حان وقتُ مرحلة «الجهد»؛ فمجرد أن تنتهيَ من أتْمتة كلِّ ما تعرف كيف تؤتمته، لن يكون أمامك سوى أن تلجأ إلى نوعٍ من التجربة والخطأ لتُنجز أيَّ وظيفةٍ إضافية. لكنك الآن تملك مَزيَّةَ وجودِ اللغة التي كيَّفْتَها لغرضِ صياغةِ الأوامر وإعطائها للروبوت ليمشي؛ لذا يمكنك باستخدام هذه اللغة أن تبدأ ببرنامجٍ بسيط، ولكن شديد التعقيد على مستوى الأوامر الابتدائية للكمبيوتر؛ ما قد يعني على سبيل المثال: «ترجَّلْ إلى الأمام وتوقَّفْ إذا اصطدمتَ بعقبة.» عندئذٍ يمكنك أن تُشغِّل الروبوتَ باستخدام هذا البرنامج وترى ما سيحدث (أو يمكنك أن تُنفِّذ محاكاةً حاسوبيةً للروبوت)، فإذا تعثَّرَ فسقط أو حدث أيُّ أمرٍ غير مرغوب، فستستطيع تعديلَ برنامجك — باستخدام اللغة العالية المستوى التي ابتكرتَها أيضًا — لاستبعاد أي خللٍ قد يطرأ، وهذا نهج سيتطلَّب إلهامًا أقلَّ وينطوي على جهدٍ أكبر.
غير أن هناك نهجًا بديلًا متاحًا كذلك أمامك، وهو أن تُفوِّض كمبيوتر ليقوم بمرحلة الجهد، ولكن باستخدام ما يُطلَق عليه «خوارزمية تطوُّرية»؛ حيث ستتمكَّن من إجراء العديد من التجارب والاختبارات التي تختلف اختلافًا طفيفًا وعشوائيًّا عمَّا قام به البرنامجُ الأصلي، وذلك بواسطة نفس المحاكاة الحاسوبية. تقوم الخوارزمية التطوُّرية بتعريض كل روبوتٍ تمَّتْ محاكاتُه تلقائيًّا إلى مجموعةٍ من الاختبارات التي تُضيفها أنت له، كأنْ يختبر المسافةَ التي يستطيع أن يقطعها دون أن يقع، أو إلى أيِّ حدٍّ يستطيع التغلُّبَ على العوائق والطرق الوعرة، وهكذا. بعد نهاية كل اختبارٍ، يتمُّ الاحتفاظُ بأفضل البرامج أداءً والتخلُّصُ من البرامج الأخرى، ثم يُصنَع العديدُ من الأشكال المختلفة من هذا البرنامج، وتُكرَّر العمليةُ برُمَّتها. قد تجد بعد تكرار هذه العملية «التطوُّرية» لآلاف المرات أن روبوتك قادر على المشْي الصحيح بالمعايير التي حدَّدْتَها، وحينها يمكنك أن تكتب أطروحتك، وسيكون بمقدورك أن تزعم أنك ابتكرتَ روبوتًا قادرًا على المشْي بدرجةٍ معينةٍ من المهارة، وأنك قد طبَّقْتَ «التطوُّر» على جهاز كمبيوتر.
حدث بالفعل أن تمَّ تنفيذُ هذا الأمر بنجاحٍ لمراتٍ عديدة؛ فهي تقنية مفيدة، ولا شك أنها تتضمَّن عمليةَ «التطوُّر» بمعنى التبديل بين التغيير والانتقاء، لكن هل هذا هو التطوُّر بمعناه الأهم وهو خلق المعرفة بالتغيير والانتقاء؟ إنَّ ذلك سيتحقَّق يومًا ما، ولكني أشكُّ بأنه قد تحقَّقَ حتى الآن، لنفس السبب الذي يجعلني أشكُّ في أن برامجَ المحادثة تنطوي على أيِّ ذكاءٍ، ولو طفيفًا؛ وهذا السبب هو وجود تفسيرٍ شديدِ الوضوح لما يبدو لتلك البرامج من قدراتٍ، وهو إبداع المبرمِج.
تقوم مهمة استبعاد إمكانية أن تكون المعرفةُ قد خُلِقت بواسطة المبرمِج في حالة «التطوُّر الاصطناعي» على نفس المنطق المستخدَم للتأكُّد من وجود ذكاءٍ اصطناعيٍّ في برنامجٍ ما، ولكنها مهمة أصعب. يرجع ذلك إلى أن حجم المعرفة التي يخلقها «التطوُّر» أصغر كثيرًا، وهذا يجعل من الصعب عليك — لو كنتَ المبرمِجَ — أن تحكم إذا ما كنتَ أنت مَن ابتكَرَ ذلك القدْرَ الضئيلَ نسبيًّا من المعرفة أم لا؛ أولًا لأن بعضًا من المعرفة التي أدرجتها بتلك اللغة إبَّان الشهور الطويلة من التصميم له مدًى؛ لأنه يحتوي على بعض الحقائق عن قوانين الهندسة الرياضية والميكانيكا وغيرهما، وثانيًا لأنك عندما صمَّمْتَ اللغةَ كان لديك دائمًا تصوُّرٌ عن أنواع القدرات التي قد تستخدم تلك اللغة للتعبير عنها.
تجعلنا فكرةُ اختبار تورنج نظنُّ أن برنامجًا مثل إليزا لو حصل على الكمِّ الكافي من قوالب الإجابات القياسية لكان سيبتكر معرفةً تلقائيًّا؛ فالتطوُّر الاصطناعي يجعلنا نظنُّ أن وجودَ عمليتَيِ التغيير والانتقاء يضمن حدوثَ التطوُّر (الخاص بعمليات التكيُّف) تلقائيًّا، لكنْ ليس بالضرورة أن يحدث أيٌّ من الأمرين؛ إذ توجد في الحالتين احتماليةٌ بألَّا تُبتكَر أيُّ معرفةٍ عند تشغيل البرنامج، وإنما فقط إبَّان تطويره من قِبَل المبرمِج.
من الأمور التي يبدو أنها تتكرَّر دائمًا في مثل هذه المشروعات أن البرامج «التطوُّرية» لا تُنتِج أيَّ تطوُّراتٍ أخرى بعدما تنتهي من تحقيق الغرض منها. إن هذا بالضبط ما سيحدث إذا أتَتِ المعرفةُ الكامنة في الروبوت الناجح في الواقع من المبرمِج، إلا أن ذلك ليس أمرًا قاطعًا؛ فعادةً ما يصل التطوُّرُ الحيوي إلى «حدٍّ أقصى محليٍّ من الكفاءة»، هذا بالإضافة إلى أنه يبدو أنه يتوقَّفُ لنحو مليار عامٍ قبل أن يبتكر أيَّ معرفةٍ جديدةٍ بعدَ أن حقَّقَ شكلَه الغامض من العمومية، لكنَّ تحقيقَ النتائج التي يمكن أن تكون قد حدثت بفعل شيءٍ آخَر ليس دليلًا على التطوُّر.
وهذا هو ما يجعلني أشكُّ في أن أيَّ «تطوُّر اصطناعي» قد استطاع خلْقَ أيِّ معرفةٍ حتى الآن، وهو نفس ما أظنُّ — ولنفس الأسباب — بخصوص نوعِ «التطوُّر الاصطناعي» المختلف قليلًا الذي يحاول أن يطوِّر كائناتٍ حيةً تمَّتْ محاكاتُها في بيئاتٍ افتراضية، وكذلك النوع الذي يجعل الأنواعَ الافتراضية تتصارع بعضها مع بعض.
لنختبر هذه الفرضية، دعونا نتأمَّل تجربةً مختلفةً قليلًا، دعونا نستبعد طالبَ الدراسات العليا من المشروع، وبدلًا من استخدام روبوتٍ مصمَّمٍ ليطوِّر طرقًا أفضل للمشْي، فلْنستخدمْ واحدًا مستخدَمًا بالفعل في أحد تطبيقات الحياة اليومية يتصادف أن يكون قادرًا على المشْي؛ ثم بدلًا من ابتكار لغةٍ خاصةٍ من الروتينات الفرعية للتعبير عن الافتراضات حول كيفية المشْي، دعونا نستبدلْ «أعدادًا عشوائية» ببرنامج الروبوت الحالي في معالجه الدقيق الحالي. وبالنسبة إلى الطفرات، نستخدم نوع الأخطاء الذي يحدث في كل الأحوال في مثل تلك المعالجات (وإنْ كان من المسموح لك في المحاكاة أن تترك الأخطاءَ تقع بأي معدلٍ ترغب فيه). إن الغرض من كل هذا هو استبعادُ إمكانيةِ تغذية تصميمِ النظام بأي معرفةٍ بشريةٍ ممَّا يخلط بين مداها وبين مدى منتج التطوُّر. بعد هذا، سنشغل عملياتِ محاكاةِ النظامِ الطافر هذا بالطريقة المعتادة، ولأي عددٍ من المرات؛ فإذا حدث أن مشى الروبوت على نحوٍ أفضل ممَّا سبق، فأنا إذنْ مخطئ، أما إذا استمرَّ في التحسُّن بعد ذلك، فأنا مخطئ جدًّا.
من الملامح الأساسية للتجربة السابقة، القاصرة للغاية من منظور الطريقة المعتادة لتنفيذ عملية التطوُّر الاصطناعي، ضرورةُ تطوُّرِ «لغة» الروتينات الفرعية مع تطوُّر عمليات التكيُّف التي تُعبِّر عنها، وذلك من أجل نجاح التجربة. إن هذا هو ما كان يحدث في المحيط الحيوي قبل قفزته نحو العمومية، إلى أن استقرَّ أخيرًا في الشفرة الجينية للدي إن إيه. وكما قلتُ، ربما لم تستطِعْ أيٌّ من الشفرات الجينية التي سبقَتْ ذلك أن تُشفِّر إلا لعددٍ قليلٍ من الكائنات الحية التي كانت كلها متشابِهةً إلى حدٍّ ما. وهذا المحيط الحيوي البالغ الثراء الذي نراه من حولنا، الذي خلقَتْه الجيناتُ المتغيِّرة على نحوٍ عشوائيٍّ دون أن تَمسَّ اللغةَ بأي تغيير، لربما لم يكن ممكنًا إلا بعد تلك القفزة. إننا لا نعلم حتى أي نوعٍ من العمومية قد خُلِق حينها، فلماذا ينبغي علينا أن نتوقَّعَ للتطوُّر الاصطناعي أن ينجح دونها؟
أعتقد أن علينا أن نواجِهَ الحقيقةَ فيما يتعلَّق بكلٍّ من التطوُّر والذكاء الاصطناعيين، وهي أنهما مشكلتان صعبتان. هناك العديد من المجاهيل المهمة عن الكيفية التي تحقَّقَتْ بها مثل هذه الظواهر في الطبيعة، ولربما كانت محاوَلةُ تحقيق تلك الظواهر اصطناعيًّا دون كشْفِ النقاب عن تلك المجاهيل أمرًا جديرًا بالمحاولة، لكن يجب ألَّا يفاجئنا فشَلُها. وبوجهٍ أخص، نحن لا نعلم لماذا يوجد لشفرة الدي إن إيه — التي كان تطوُّرها في الأصل من أجل وصْفِ البكتيريا — مدًى يكفي لوصف الديناصورات والبشر. ومع أنه يبدو جليًّا أن برامج الذكاء الاصطناعي ستملك كيفياتٍ ووعيًا، فإننا لا نستطيع أن نفسِّرَ مثلَ تلك الأشياء؛ وبما أننا لا نستطيع أن نفسِّرَها، فكيف نتوقَّع أن نحاكيَها في برنامج كمبيوتر؟ أو لماذا يتعيَّن عليها أن تنبثقَ بلا جهدٍ من مشروعاتٍ صُمِّمت لتحقيق أغراضٍ أخرى؟ لكني أظنُّ أننا عندما نفهم تلك الأمورَ حقَّ الفهم، لن يتطلَّبَ تنفيذُ التطوُّر والذكاء ومجموعة السمات المرتبطة بهما جهدًا كبيرًا.
أهم المصطلحات الواردة بالفصل وتعريفها
- كيفية (الجمع كيفيات): الجانب الذاتي للإحساس.
- السلوكية: الذرائعية مطبقةً في علم النفس، وهو مذهب يرى أن العلم يستطيع أو يجب فقط أن يقيس سلوكَ الإنسان من حيث استجابته للمثيرات ويتنبَّأ به.
ملخص هذا الفصل
لم يحقِّق مجالُ الذكاء الاصطناعي (العام) أيَّ تقدُّمٍ؛ نظرًا لوجود مشكلةٍ فلسفيةٍ بلا حلٍّ في صميمه، وهي أننا لا نفهم كيف يحدث الإبداع، وعندما يتمُّ حلُّ هذه المشكلة، لن تكون برمجتُه أمرًا صعبًا. وعلى عكس ما قد يبدو، لم يتحقَّقِ التطوُّرُ الاصطناعي حتى اليوم، ولدينا مشكلة وهي أننا لا نفهم طبيعةَ عموميةِ نظامِ نسخ الدي إن إيه.