الكمبيوتر الذي بكى
تُجرَى الآن بعض الأبحاث الأكثر إثارة حول الانفعالات من قِبَل علماء الكمبيوتر، وليس علماء النفس أو الأنثروبولوجيا. فيسعى المجال الجديد المعروف باسم الحوسبة الوجدانية (والذي يُطلَق عليه أحيانًا الذكاء الانفعالي الاصطناعي أو الذكاء الاصطناعي الانفعالي) إلى بناء أنظمةٍ وأجهزة قادرة على التعرُّف على الانفعالات البشرية ومحاكاتها. بل تنبَّأ بعض الباحثين بأن الآلات قد يُصبح لها انفعالاتها الخاصة في يومٍ من الأيام.
كانت الخطوة الأولى هي التعرُّف على الانفعالات. بدأت أولى المحاولات الجادة لمنح أجهزة الكمبيوتر القُدرة على التعرف على انفعالات البشر في تسعينيات القرن العشرين. حقق العالِمان عرفان عيسى وأليكس بنتلاند إنجازًا رائدًا حيث برمجا جهاز كمبيوتر على تمييز تعبيرات الوجه المُرتبطة بستة انفعالات أساسية. وعندما أظهر المُتطوِّعون المشاركون في التجربة أحد هذه التعبيرات الانفعالية، نجح الكمبيوتر في التعرُّف بدقة على الانفعال المُتوافق في ٩٨ في المائة من المحاولات. وكان هذا أفضل من معدل الدقة الذي يُحققه معظم البشر في المهمة نفسها.
أحرز العلماء تقدمًا كبيرًا منذ ذلك الحين. فإلى جانب قدرة أجهزة الكمبيوتر على المعالجة البصرية للصور، أصبحت قادرة أيضًا على استخلاص معلوماتٍ انفعالية من أنواع أخرى من المُعطيات مثل الصوت والبيانات الفسيولوجية. يعبر البشر عن انفعالاتهم بطرُق متنوعة من بينها نبرة الصوت وإشارات دقيقة مثل التعرُّق ومعدل ضربات القلب، وعندما يُتاح لأجهزة الكمبيوتر التزوُّد بمستشعرات يمكنها الْتقاط هذه المعلومات مثل الميكروفونات وأجهزة مراقبة معدل ضربات القلب، يُصبح بإمكانها دمج جميع البيانات المُستخلصة من المعطيات المتنوعة لتكوين صورة أكثر تعقيدًا عن الحالة الانفعالية للشخص.

يمكن توظيف أجهزة الكمبيوتر القادرة على التعرُّف على الانفعالات البشرية في أغراض متنوعة. على سبيل المثال، يستطيع المساعدون الافتراضيون، مثل «سيري» من شركة أبل و«مساعد جوجل» و«أليكسا» من أمازون، فَهْم الكلمات التي نتحدث بها، لكنهم يفتقرون عادةً إلى القدرة على استشعار مدى انزعاجنا أو سعادتنا أو حتى شعورنا بالاكتئاب. لكن تعمل العديد من الشركات الآن على معالجة ذلك. فإذا تمكَّن مساعد افتراضي في مركبةٍ ذكية من التعرُّف على الحالة الانفعالية للسائق، فقد يلاحِظ أنه متعب ويقترح أن يتولَّى عنه القيادة. وقد تتمكن مرآة الحمَّام من استشعار توترك، فتُعدِّل الإضاءة وتشغِّل مقطوعةً موسيقية باعثة على الهدوء. وقد تشعر منصة تعليمية عبر الإنترنت بإحباط الطالِب فتُبطئ وتيرة الدروس أو تُخبره بنكتة. كذلك قد يستعين الأشخاص المُصابون بالتوحُّد بأجهزة قادرة على التعرُّف على التعبيرات الانفعالية لتوجيه تفاعُلهم الاجتماعي بطريقةٍ أكثر فاعلية.
لكن هذه التقنية لها مخاطر مثلما لها فوائد. فقد يُقرر أصحاب الأعمال استخدامها لفحص وجوه الموظفين لرصد أي علامات دالة على الملل. وكذلك قد تستخدم برامج التعرُّف على تعبيرات الوجه أثناء المقابلات الوظيفية لاختيار أكثر المرشحين حماسًا. وإذا كانت الخوارزميات مُدرَّبة على مجموعات بيانات تحتوي في أغلبها على وجوه لأشخاص ذوي بشرة بيضاء، فقد تصبح متحيزة ضد الأفراد من مجموعات عرقية مختلفة. وإذا انتشرت هذه التكنولوجيا في الحياة اليومية، فقد تؤثر حتى على علاقاتنا الشخصية. فإذا تمكن الأزواج من استخدام هواتفهم لكشف إشارات دقيقة دالة على وقوع خيانة، فقد تُصبح الزيجات أكثر صراحة، لكن أكثر توترًا أيضًا.
هناك الكثير من التطبيقات المرحة لتكنولوجيا التعرُّف على الانفعالات. فقد ابتكر الفنان ديفيد مكجوران قلبًا اصطناعيًّا موصلًا بجهازٍ لقياس معدل نبضات القلب. وعندما يرتدي الشخص جهاز القياس ويحمل القلب الاصطناعي في يده، فإنه ينبض بالتزامُن مع نبض قلبه. وتلك تجربة قد تكون مؤثرة للغاية. وبالتعاون مع زملائه في استوديو روستي سكويد، يستخدم مكجوران تكنولوجيا الروبوتات لإنتاج أعمالٍ فنية تفاعلية تبعث على الدهشة والبهجة.


عند تصميم الروبوتات الانفعالية، يتعيَّن على المهندسين أن يأخذوا في اعتبارهم استجابة الناس تجاه ابتكاراتهم. فالسعي نحو مزيدٍ من الواقعية لا يكون بالضرورة فكرة جيدة. بل على العكس، قد يكون الناس أكثر سعادةً عند التفاعُل مع روبوتات لا تُحاول أن تُبالغ في التشبُّه بالبشر.
لا يُعبِّر البشر عن انفعالاتهم من خلال تعبيرات الوجه فقط. فطريقتنا في الحديث تكشف الكثير عن حالتنا الانفعالية. وقد حاكى الروبوت كيسمت ذلك عبر إصدار أصواتٍ مُحببة أشبه بأصوات الأطفال. ويعمل علماء الكمبيوتر الآن على تطوير برامج توليد أصواتٍ أكثر تطورًا تعكس الحالة الانفعالية على الصوت؛ وذلك من خلال التحكُّم في الجوانب غير اللغوية من التعبير الصوتي مثل السرعة وحدَّة الصوت ومستواه. ففي إحدى التجارب الرائدة، غذَّت «جانيت كان» جهاز كمبيوتر بجُمَل محايدة انفعاليًّا مثل: «رأيت اسمك في الصحيفة» ثم طلبت من الكمبيوتر أن ينطقها بنبرة حزينة. عندما طُلب من المُستمِعين البشريين تحديد الانفعال الذي يعبر عنه مولِّد الصوت، خمن ٩١ في المائة منهم الانفعال الصحيح. لم يكن البرنامج على القدْر نفسه من الكفاءة في التعبير عن انفعالات أخرى، لكن البشر كذلك لا ينجحون دائمًا في إيصال انفعالاتهم عبر الإشارات الصوتية وحدَها.
لقد قطع مجال الحوسبة الوجدانية شوطًا كبيرًا منذ العمل الرائد الذي أنجزته سينثيا بريزيل وجانيت كان. وصار لدينا اليوم مجموعة كاملة من الروبوتات التي تُظهِر تعبيرات انفعالية. وعلى غرار كيسمت، غالبًا ما تكون هذه الروبوتات مُبرمجة على إظهار مجموعة مُحدَّدة من التعبيرات الانفعالية. فيبدأ المبرمجون بتحديد قائمة من الانفعالات التي يرغبون في أن يُحاكيها الروبوت. وهذا يعني أنهم يعتمدون عادةً نهجًا فئويًّا في تصنيف الانفعالات. ثم يُصمم المهندسون تعبيرات مميزة لكل انفعالٍ على حدة.
يمكن استخدام الآلات التي تحاكي التعبيرات الانفعالية في أغراضٍ أخرى متنوعة. على سبيل المثال، يمكنها مساعدة الأطفال المصابين بالتوحُّد. فقد طورت شركة لوكس إيه آي، المنبثقة عن جامعة لوكسمبورج، روبوتًا يُقال إنه يُعزز استعداد الأطفال المُصابين بالتوحُّد للتفاعل مع المُعالجين البشريين، ويُقلل من شعورهم بالانزعاج أثناء جلسات العلاج. تقول عايدة نزاريخورام المؤسسة المشاركة للشركة: «عندما تتفاعل مع شخصٍ آخر، فإنك تقوم بالعديد من الإشارات الاجتماعية، مثل تعبيرات الوجه ونبرة الصوت وحركة الجسد، التي تُشكل عبئًا مرهقًا على الأطفال المُصابين بالتوحُّد وتُشتِّت انتباههم. لكن الروبوتات تتمتع بالقدرة على تبسيط كلِّ شيء. على سبيل المثال، في كل مرة يقول فيها الروبوت كلامًا ما أو يؤدي مهمةً ما، فإنه يفعل ذلك بالضبط كما فعلَه في المرات السابقة دون أي اختلاف، مما يبعث في الأطفال المُصابين بالتوحُّد شعورًا بالراحة.»
قد تُستخدَم أيضًا الروبوتات التي تُظهِر تعبيرات انفعالية كمُرافِقين اصطناعيِّين لكبار السن. فقد تَوصَّل أخصائيو الشيخوخة إلى أن الحيوانات الأليفة — خاصةً تلك التي تُظهِر مجموعةً من الانفعالات مثل القطط والكلاب — تساهم في الوقاية من الاكتئاب لدى كبار السن. والحيوانات الأليفة الإلكترونية مثل الكلب الروبوتي «آيبو» الذي تُنتِجه شركة سوني قد تحقق تأثيرات مفيدة مُماثلة. كما يُطوِّر الباحثون حاليًّا روبوتات شبيهة بالبشر قد تُحقق إرضاءً أكبر كرفقاء. ومع تطور الروبوتات الشبيهة بالبشر عن أي وقتٍ مضى، أطلق البعض تخمينات بأن العلاقات مع الرفقاء الآليين قد تُصبح في يوم من الأيام أكثر إرضاءً من العلاقات مع البشر. يُحاجج العالم البريطاني ديفيد ليفي في كتابه «الحُب والجنس مع الروبوتات» بأن ذلك النوع من العلاقات سيُصبح مألوفًا بحلول منتصف القرن الحادي والعشرين. ويتنبأ أن الكثير من الأشخاص سيتزوَّجون بالروبوتات ويُمارسون الجنس معها. يذكر ليفي في كتابه: «سيكون تبادل مشاعر الحُب مع الروبوتات أمرًا طبيعيًّا بقدْر تبادلها مع البشر؛ وستتَّسع الأفعال الجنسية والوضعيات الحميمية التي يمارسها البشر، إذ ستُعلِّمنا الروبوتات أكثر مما هو موجود في جميع الكُتيبات الإرشادية المنشورة عن الجنس في العالم مجتمعة.»
لكن هذا الرأي لا يتفق معه الجميع. فعلاقة الحب غالبًا تنطوي على الاعتقاد بأن شريكك قد اختارك بمحض إرادته، ومن ثَم فإنك تكون مُعرضًا للرفض. وعلى الرغم من أن الناس تنشد عادةً الالتزام والوفاء من شركائهم، فإنهم يفضلون أن يكون هذان المَطلبان نابعَين من اختيار مُتجدِّد، وليس من أنماط سلوكية ثابتة. ومن غير المُرجَّح أن تتمكن الروبوتات من تقديم ذلك.
ويذهب البعض إلى أبعد من ذلك فيرى أن الروبوتات الجنسية لها أضرار جسيمة. تُحذِّر كاثلين ريتشاردسون من أن تطوير الروبوتات الجنسية سيُعيق تطوُّر العلاقات الإنسانية القائمة على المواجدة، ويُعزِّز العلاقات التسلُّطية القائمة على اللامساواة والعنف. ولهذا شنَّت ريتشاردسون حملةً ضد الروبوتات الجنسية لمحاربة التطبيع مع فكرة اتخاذ الروبوتات الجنسية شريكًا حميميًّا بدلًا من النساء.
في السياق نفسه، ذهبت جوانا بريسون إلى وجوب تطوير الروبوتات وتسويقها والنظر إليها من الناحية القانونية على أنها عبيد وليس أقرانًا ورفقاء. وتزعم بأن إضفاء الطابع الإنساني عليها ينتزع من البشر الحقيقيين إنسانيتهم. وزعمت أن الروبوتات يجِب ألا تُوصَف بأنها أشخاص، ولا تُمنح مسئولية قانونية أو أخلاقية على أفعالها. بل العكس، يجب علينا أن نعترِف بأنها عبيد مُسخَّرة لنا. نحن مَن نُحدد أهدافها وسلوكها، إما بشكلٍ مباشر أو غير مباشر من خلال تحديد مستوى ذكائها أو كيفية اكتسابها لهذا الذكاء. وكما سنرى لاحقًا، قد تؤدي الأساليب التطورية في تصميم الروبوتات إلى تقويض هذه الفروق الواضحة.
الانفعالات واختيار الأفعال
إن التطوُّرات التي جرى استعراضها في هذا الفصل حتى الآن تتعلق جميعها بالجوانب الظاهرية للانفعالات مثل تعبيرات الوجه ونبرة الصوت وما إلى ذلك. عندما يبرمج علماء الكمبيوتر الآلات حتى تتعرَّف على التعبيرات الانفعالية لدى البشر أو لمحاكاة تعبيرات انفعالية خاصة بها، فإنهم لا يسعَون إلى منح الآلات حالات داخلية مشابهة لحالاتنا. لكن هذا لا ينفي أن ثمَّة علماء كمبيوتر يحاولون القيام بذلك بالفعل.
لماذا يرغب علماء الكمبيوتر في تطوير آلات لدَيها حالات انفعالية داخلية بدلًا من أن يكون لديها مجرد وجوه مُثيرة للإعجاب؟ أحد الأسباب يستند إلى مفهوم «اختيار الفعل». يُعد اختيار الأفعال مصطلحًا تقنيًّا يُعبر عن أمرٍ بسيط في ظاهره لكنه في الحقيقة شديد التعقيد، ألا وهو مسألة تحديد الفعل التالي الذي يجب القيام به. حتى أبسط الكائنات الحية يجب أن تختار من بين مجموعةٍ من الأفعال المُتاحة لها.
لنضرب مثلًا بالنحل. يطير النحل من زهرةٍ إلى أخرى ليجمع الرحيق ويعود به إلى الخلية. وبعد أن تجمَع النحلةُ الرحيق من زهرة، يتعيَّن عليها أن تُقرر ما إذا كانت ستعود إلى الخلية أو ستطير إلى زهرة أخرى. إذا توقفت النحلة عند زهرة أخرى، فقد تحصل على المزيد من الرحيق، لكن وزن الرحيق الإضافي سيجعل الطيران أشق. في الواقع، قد يؤدي حَمْل كمية كبيرة من الرحيق إلى تقصير عمر النحلة. وكلما قَصُر عمر النحلة العاملة، قلَّ إجمالي الزمن الإجمالي المُتاح لها للمساهمة في خدمة مستعمرتها. لذلك، يجب أن توازن النحلة بين الخسائر والفوائد التي ستجنيها من كل فعل حينما تقرر، سواء الاستمرار في جمع الرحيق أو العودة إلى خليتها.
تُواجِه الروبوتات معضلات مشابهة. على سبيل المثال، تمتلك طائرات الاستطلاع المسيَّرة أهدافًا متنوعة قد يتعارض بعضها مع بعض. إذ يتحتم عليها جمع المعلومات، ربما من خلال التقاط صور جوية، لكنها في الوقت نفسه لا بد أن تتجنب العوائق وتعود إلى القاعدة دون رصدها. ماذا لو كان الأشخاص الذين تحاول رصدهم يختبئون في بيئة حضرية كثيفة؟ هل ينبغي للطائرة حينها أن تحلق على ارتفاع منخفض لتحصل على رؤية أوضح وبذلك تصبح عرضة لاكتشافها، أم تبقى على ارتفاع عالٍ لتجنب كشفها وتلتقط صورًا أقل فائدة؟
سيحتاج أي روبوت لديه عدة أهداف متعارضة فيما بينها إلى نظام لاختيار الأفعال. في عام ١٩٦٧، زعم هربرت سايمون — أحد رواد الذكاء الاصطناعي — أن الحيوانات تستخدم الانفعالات لحل مشكلة اختيار الأفعال، وأن الروبوتات أيضًا يمكن أن تفعل ذلك.
كانت حجة سايمون بسيطة لكنها بارعة. هناك حدود لما يمكن لأي فاعل — سواء كان كائنًا حيًّا أو آلة — القيام به في وقت واحد. وبالتالي، إذا كان لدى الفاعل أكثر من هدف، فلا بد له أن يقسِّم وقته بحكمة، مخصصًا القدر المناسب لكل نشاط من أجل تحقيق كل هدف من تلك الأهداف. لكن، ما لم تكن البيئة المحيطة مستقرة وآمنة تمامًا، يتعين على ذلك الفاعل أيضًا أن يظل يقظًا للتغيرات الخارجية التي قد تستدعي تغييرًا سريعًا في النشاط. لنفترض، على سبيل المثال، أن ثمة روبوتًا لديه الهدفان الآتيان: أولهما هو جمع عينات صخرية من كويكب وتحليلها في موقعها، وثانيهما هو نقل هذه العينات بحرص إلى الأرض. تخيل الآن أن هذا الروبوت استقر بنجاح على الكويكب ويجري اختبارًا كيميائيًّا على الصخرة التي الْتقطها لتوِّه، ثم يجد فجأة قطعة من حطام مندفعة نحوه. إذا لم يكن لدى الروبوت «آلية مقاطعة»، فقد ينجح في تحقيق هدفه الأول، لكنه سيفشل فشلًا ذريعًا في تحقيق هدفه الثاني.
اقترح سايمون أن الانفعالات هي آليات المقاطعة المعنية. وقد قصد بذلك أن يكون تعريف الانفعالات. بعبارة أخرى، كلمة «انفعال» هي الاسم الذي أطلقناه على آليات المقاطعة عندما لاحظناها في أنفسنا وفي الحيوانات الأخرى. فالانفعالات ما هي إلا عمليات ذهنية تعمل على إيقاف النشاط في استجابة سريعة لتغير مفاجئ في محيطنا. الكلمة المفصلية في هذا التعريف هي «سريعة». فقد تقاطع الكثير من العمليات الذهنية غيرها من العمليات الأخرى، لكن لا تأتي جميعها كاستجابةٍ سريعة لتغيُّر مفاجئ في البيئة المُحيطة بنا. قد تنشأ الحالة المزاجية تدريجيًّا كاستجابةٍ للعديد من التغيرات الطفيفة قبل أن تُصبح قويةً بما يكفي لتقاطع أفكارنا. قد يبدو تعريف سايمون ضيقًا للغاية حينما عرَّف الانفعالات بأنها آليات مقاطعة سريعة الاستجابة. فهذا التعريف يُناسِب الانفعالات الأساسية، التي تتَّسِم عادةً بسرعة ظهورها، لكنه لا يصلح مع الانفعالات المعرفية العُليا — مثل الحب أو الحسد — التي قد تتطوَّر ببطء، غالبًا على مدى فترةٍ أطول من بضع ثوانٍ على الأقل. مثل كثير من التعريفات الجيدة، تكمُن قيمة تعريف سايمون للانفعالات في أنه يسلط الضوء على سمةٍ واحدة مُهمة، لكنه لا يشمل جميع الجوانب.
طبَّق علماء الكمبيوتر أفكار سايمون على تصميم النظم الذكية بأكثر من طريقة. تعتمد إحدى هذه الطرق على قواعد الأفعال المرهونة بشروط. وتعني هذه القواعد برمجة الآلات على أن تقوم بفعلٍ مُعين عندما يتحقق شرط مُحدد. على سبيل المثال، يمكن برمجة روبوت على أن يبتعِد عن الطريق في حال أنه استشعر اقتراب جسمٍ كبير منه. وعادة ما تُعيَّن قِيَم أولوية لكلِّ قاعدة، بحيث عندما تتحقَّق شروط أكثر من قاعدة، تُنفَّذ القاعدة التي عُينَت لها قيمة أولوية أعلى. في طائرات الاستطلاع المُسيَّرة، على سبيل المثال، تُعيَّن أولوية أعلى لقاعدة تجنُّب العوائق في مقابل قاعدة توجيه الطائرة لالتقاط صور للأشياء المُثيرة للاهتمام. فإذا كانت الطائرة المسيَّرة في سبيلها للهبوط لالتقاط صورة قريبة لشيء ما على الأرض، ثم استشعرَت فجأة طائرًا يندفع مُسرعًا نحوَها، فستُفعِّل حينها قاعدة تجنُّب العقبات وتمنحها الأولوية على قاعدة التصوير.
وفقًا لتعريف سايمون، يمكن القول إن الطائرة المسيرة المزوَّدة بآلية مقاطعة من هذا النوع لدَيها انفعالات. لكن هذا لا يعني أن لدَيها مشاعر. فالمشاعر تستلزم إدراكًا واعيًا، أما اختيار الأفعال فلا يقتضي اتخاذ قرارٍ واعٍ أو مدروس. يرى البعض أن المشاعر هي مُكوِّن أساسي للانفعالات، ولذلك سيرفضون فكرة وصف الطائرة المُسيرة بأنها انفعالية بالمعنى الفعلي. لكن ماذا لو كانت الروبوتات قابلةً للبرمجة بحيث تُصبح لديها مشاعر حقيقية؟
هل يمكن أن تمتلك الروبوتات مشاعر؟
تُعَد فكرة إمكان اختبار الروبوتات لمشاعر حقيقية إحدى الأفكار الثابتة في مؤلَّفات الخيال العلمي. ففي فيلم «عداء النصل» (بليد رانر)، يستاء روبوت شبيه بالبشر حينما يكتشِف أنَّ ذكرياته غير حقيقية، وأن مبرمجه هو من زرعَها في دماغه الاصطناعي. أما في فيلم «رجل المائتي عام» (بايسنتينيال مان)، فيلعب روبن ويليامز دور روبوت يُعيد تصميم دائرته الكهربائية بحيث تسمح له باختبار مجموعةٍ كاملة من الانفعالات البشرية. أحد الأسباب التي تجعل تلك القصص مؤثرة هو أن المشاعر تُعَد غالبًا أحد الفروق الرئيسية بين البشر والآلات. فالمشاعر تستلزِم إدراكًا واعيًا، ويُشكِّك كثيرون في إمكانية تصميم آلات واعية. قُدِّمت بعض الحجج لدعم هذا الاعتقاد الحدسي، لكن هذه التجارب الفكرية — مثل الغرف الصينية والزومبي — غالبًا ما تتضمَّن افتراضاتٍ مشكوكًا فيها بدرجة كبيرة (انظر المربع ٧). والحقيقة هي أنه حتى ونحن في بدايات القرن الحادي والعشرين، لا أحد يملك بعد فكرةً واضحة ومُحددة عن ماهية الوعي. وفي ضوء غياب أفكارٍ واضحة عن الوعي، والاختلاف على كيفية دراسته، يجب النظر في مزاعم استحالة تحقُّق الوعي الذاتي لدى الآلات بشيءٍ من التحفُّظ.
المربع ٧: هل ستُصبح أجهزة الكمبيوتر واعيةً في يوم من الأيام؟
يعتقد بعض الباحِثين أن الآلات ستُصبح واعية خلال هذا القرن. بينما يزعم آخرون أن الآلات لن تُصبح واعيةً أبدًا، وابتكروا تجارب فكرية مُثيرة لدعم مزعمهم.
في أحد الأبحاث التي صارت الآن من الكلاسيكيات في فلسفة العقل، طرح جون سيرل فكرة «الغرفة الصينية». يجلس رجلٌ في غرفة يُمرَّر إليه فيها رموز مكتوبة باللغة الصينية. وقدِّم إلى هذا الرجل مجموعة من القواعد التي توضح له كيفية الاستجابة لهذه الرموز المكتوبة، فكان يستجيب لها كما ينبغي. قد يظنُّ الأشخاص خارج الغرفة أن الرجل يفهم اللغة الصينية، لكن من الواضح لنا أنه لا يفهمها. فكل ما يفعله هو اتباع القواعد. يرى سيرل أن أجهزة الكمبيوتر ستظلُّ دائمًا على هذا النحو. فإنها تتبع القواعد دون أن «تعرف» حقيقةً أي شيء. وتباعًا، يُحاجج سيرل بأن أجهزة الكمبيوتر لن تصبح واعية أبدًا.
ذهب فيلسوف آخر، وهو ديفيد تشالمرز، إلى أن الوعي ليس شيئًا يمكن البرهنة على وجوده من خلال السلوك وحده. ثم يطلب منَّا أن نتخيل «زومبي» ويقصد به كائنًا يُشبهنا تمامًا في جميع الجوانب الخارجية، ولكنه يفتقر إلى الوعي. إذا كان وجود مثل هذا الكائن مُمكنًا، فإنه يثبت أننا لا نستطيع على نحوٍ قاطع إسناد الوعي إلى الكمبيوتر مهما بدا كذلك ظاهريًّا.
المشكلة في هذه التجارب الفكرية هي أنها تعتمد على الأفكار لا التجربة. فبدلًا من محاولة حسم ما إذا كانت أجهزة الكمبيوتر ستُصبح واعيةً بناءً على قصص بعيدة الاحتمال عن أمور لسنا متأكدين منها مثل الغرف الصينية وكائنات الزومبي، سيكون من الأفضل أن نتبع نهجًا أكثر اعتمادًا على التجربة. باختصار، لن نعرِف حقًّا ما إذا كان بإمكان الآلات أن تُصبح واعية إلا بمحاولة بناء آلة واعية.
إحدى الأفكار القليلة الواضحة عن الوعي، والتي حظِيَت بقدْر من الإجماع، هي أن المشاعر الشخصية تعتمد اعتمادًا كبيرًا على نوع جسم صاحبها. إذا كان هذا صحيحًا، فإن الروبوتات الانفعالية ذات الأجسام البلاستيكية أو المعدنية ستشعر بإحساساتٍ داخلية مختلفة تمامًا عن البشر المخلوقين من لحم ودم. فالمواجدة ليست مُمكنة إلا بين الكائنات التي تشترك في مخزون انفعالات واحد، ومن ثَم قد لا تشعر الروبوتات، التي تختلف مشاعرها عن مشاعرنا، بالمودَّة والتعاطف تجاه البشر. تزخر أعمال الخيال العلمي بقصص عن الذكاء الاصطناعي المعادي للبشر. ففي فيلم «المدمر» (ترمنيتور)، يصبح الكمبيوتر العملاق المعروف باسم «سكاي نت» واعيًا بذاته ويحاول منع البشر من إيقافه عبر السيطرة على نظام القيادة العسكرية وإطلاق صواريخ نووية. فهل ستؤدي الحوسبة الوجدانية في نهاية المطاف إلى معركةٍ بين البشر والآلات؟ وإن حدث ذلك، فمَن سينتصر؟ ربما يأتي يوم لا تُصبح فيه الروبوتات لعبةً بين أيدينا، بل نحن الذين سنُصبح لعبتهم.
قد يُصبح بإمكاننا تجنُّب هذا المصير المُظلم من خلال برمجة أجهزة الكمبيوتر لتكون خاضعةً لنا. على سبيل المثال، يمكننا برمجتها على اتباع «القوانين الثلاثة للروبوتات» التي اقترحها إيزاك أزيموف في روايته القصيرة «رجل المائتي عام»، والتي استُوحي منها الفيلم الذي يحمل الاسم نفسه (انظر المربع ٨). لكن إحدى السِّمات المهمة للعديد من الانفعالات هي أنها يصعب التنبؤ بها. وهذا يعني أن الروبوت ذا الانفعالات الحقيقية قد يُقرِّر عدم الامتثال لتلك القوانين أو قد يُعيد تفسيرها. ومثلما نشهد اليوم تزايدًا في احترام حقوق الحيوانات بناءً على إقرارنا بأن الكائنات غير البشرية تشعر بالألَم والانفعالات مثلها مثل البشر، فقد نتوقَّع أيضًا أن نشهد تزايدًا في احترام حقوق الروبوتات بِناءً على الأسس نفسها. ومثلما يُبدي البعض استعدادًا لاستخدام وسائل عنيفة من أجل الدفاع عن حقوق الحيوانات، قد يتَّحد البعض الآخر مع الروبوتات المُضطهدة لتحريرها من عبوديتها.
قد تعتقِد أن أجهزة الكمبيوتر يمكن دائمًا التنبؤ بها؛ إذ كل ما تفعله هو اتباع برنامج معين. والفكرة نفسها هي ما تدفع البعض إلى رفض فكرة أن أجهزة الكمبيوتر قد يكون لديها انفعالات يومًا ما. فحتى لو صمَّمنا برامج ذكية تسمح للحواسب بمحاكاة سلوك انفعالي، لن تصبح هذه الانفعالات حقيقية؛ لأنها ستتبع التعليمات فحسب. ولن يكون من الصعب التنبؤ بسلوك أجهزة الكمبيوتر، على عكس الكائنات الحية التي تتمتع بانفعالات حقيقية.
المربع ٨: القوانين الثلاثة للروبوتات
(١) لا يجوز لروبوت إيذاء إنسانٍ أو السماح بحدوث ما قد يؤذيه أثناء التفاعل معه.
(٢) يجب على الروبوت الامتثال لأوامر البشر ما لم تتعارَض الأوامر مع القانون الأول.
(٣) يجب على الروبوت أن يحمي وجوده ما دامت الحماية لا تتعارض مع القانونَين الأول والثاني.
المصدر: إيزاك أزيموف، الرواية القصيرة «رجل المائتي عام».
إذن، ماذا عن أجهزة الكمبيوتر التي تُطوِّر برامجها الخاصة بنفسها؟ قد تمتلك مثل هذه الآلات انفعالاتٍ حقيقية خاصة بها دون أن يكون للبشر يدٌ في تصميمها. ثمة فرع من عِلم الكمبيوتر يُسمى «الحياة الاصطناعية»، تجرى فيه تجارب على هذا النوع من البرمجيات التي تتطوَّر ذاتيًّا. فبدلًا من أن يكتب علماء الكمبيوتر المُتخصِّصون بمجال الحياة الاصطناعية البرامج بأنفسهم، يقومون بتوليد سلسلة عشوائية من التعليمات البرمجية، ثم يسمحون لهذه البرمجيات المُصغَّرة (التي تُعرَف باسم الخوارزميات الجينية) بالتنافُس على مساحةٍ في القرص الصلب للكمبيوتر. ويُسمَح للبرامج التي تُحقق أداءً أفضل بنسْخ نفسها وشَغْل مساحة أكبر من الذاكرة، في حين تُحذف البرمجيات التي تُحقق أداءً ضعيفًا. لكن صُمِّمت عملية النسخ بحيث تكون غير مثالية عن قصد، فتسمح بوقوع أخطاء عرضية. وتؤدي مثل هذه الأخطاء إلى ظهور برمجيات مُتطفرة أو مُتحورة يصبح بعضها أفضل في أداء المُهمة المطلوبة مقارنةً بالبرامج الأصلية، فتُسيطر بذلك على مساحة القرص الصلب. وإذا تكرَّرت هذه العملية عبر عدة أجيال، تتراكم البرامج المُتحوِّرة المُفيدة مما يؤدي لجعل البرامج فعَّالة إلى درجةٍ لم يكن لإنسانٍ أن يصِل إليها بطرُق التصميم العادية.
صُمِّمت برامج الحياة الاصطناعية لتحاكي عملية التطوُّر عبر الانتخاب الطبيعي. إذ تتوفَّر فيها جميع العناصر الأساسية: الوراثة (حيث تنسخ البرامج نفسها)، الطفرات (فالنُّسَخ ليست متطابقة)، والتضاعف التفاضُلي (إذ تنتج بعض البرامج نُسَخًا أكثر من غيرها). ويبرِز الاسم الاصطلاحي لهذه البرامج الذاتية التطوُّر — الخوارزميات الجينية — أوجه التشابُه بينها وبين عملية التطوُّر القائمة على الحمض النووي. ولا يُهم إذا كان ما يتطوَّر هنا هو سلسلة من الشفرات على قرصٍ صُلب أو نيوكليوتيدات في الكروموسوم. فمِثلما يُعَد من ضيق الأفق إنكار قدرة أجهزة الكمبيوتر على امتلاك انفعالات لمجرد أنها تفتقر إلى أدمغةٍ طبيعية، فإن إنكار قُدرتها على التطوُّر لمجرد أنها تفتقر إلى الحمض النووي يُعَد ضيق أُفق أيضًا. إن جوهر جميع العمليات البيولوجية — بدءًا من الانفعالات والتطور وصولًا إلى الحياة نفسها — لا يكمن في المواد التي تتكون منها، إنما في سلوك هذه المواد. وطالما أن البرامج قادرة على نسْخ نفسها، وأن بعض هذه النُّسَخ لا تكون متطابقة، وطالما أن عدد النُّسَخ يعتمد على خصائص مُعينة في البرنامج نفسه، فيمكن القول بحق إنها تتطوَّر عن طريق الانتخاب الطبيعي.
تضمَّنت إحدى أشهر التجارب في مجال الحياة الاصطناعية إنشاء عالَم افتراضي يُعرَف باسم «تيرَّا». بدأ عالم «تيرَّا»، الذي صمَّمه عالم الكمبيوتر توماس راي، بنُسَخ من برنامج واحد. ومثلما وصفنا في الفقرات السابقة، كان لهذا البرنامج القُدرة على نَسْخ نفسه تلقائيًّا؛ أي إنه كان «خوارزمية جينية». ونظرًا لأن هذه النُّسَخ لم تكن متطابقةً دائمًا، أصبح عالَم «تيرَّا» بمرور الوقت مُمتلئًا بأنواعٍ متنوعة من الكائنات الرقمية. وبينما كان توماس راي يراقب تطور بيئته الحيوية الافتراضية، أبهرته ملاحظة ظهور أشكال حياة غير مُتوقعة، بالإضافة إلى فيروسات افتراضية وأجسام مُضيفة طورت أنظمة مناعية اصطناعية للدفاع عن نفسها. لم تصِل هذه الأشكال من الحياة الاصطناعية إلى حدِّ اكتساب الانفعالات، لكن ليس صعبًا أن نتخيَّل أنها قادرة على اكتساب مثل تلك القدرات إذا أُتيحت لها فترة زمنية كافية. وفي ضوء عشوائية عملية التصميم، قد تُصبح تلك الانفعالات الاصطناعية غير متوقَّعة على الإطلاق.
يمكن استخدام تقنيات الحياة الاصطناعية لاختبار الفرضيات المُتعلقة بتطور الانفعالات. فعلى سبيل المثال، استخدم باول دين دولك وزملاؤه في جامعة أمستردام الخوارزميات الجينية لدراسة نموذج مُعالجة الخوف ذي المسارين الذي وضعه عالِم الأعصاب جوزيف ليدو. وكما رأينا في الفصل الثاني، اكتشف ليدو دليلًا على أن معالجة الخوف تحدُث في العديد من الثدييات عبر مسارَين عصبيين مُتزامنَين؛ أحدهما تحت قشري والآخر غالبًا قشري. يتميز المسار تحت القشري بأنه أسرع لكنه يُعطي الكثير من الإنذارات الكاذبة، في حين أن المسار القشري أبطأ لكنه أكثر دقة. يزعم ليدو أن آلية المسارَين تطوَّرت بفعل الانتخاب الطبيعي؛ لأنها سمحت للحيوانات بالاستفادة من مزايا كلا المسارَين حيث صارت لديها القدرة على الهروب سريعًا عند الضرورة دون إهدار الكثير من الجهد على الإنذارات الكاذبة. سمح دين دولك لبرامج فاعلة بأن تتطوَّر في بيئةٍ بسيطة مؤلفة من مفترسين وفرائس، واكتشف أن هذه البرامج الفاعلة لم تُطوِّر بالفعل آلية المعالجة ذات المسارين — المشابهة لآلية المعالجة التي طرحها ليدو — إلا عندما توفرت شروط مُعينة: وهي ألا يكون التمييز بين الفريسة والمُفترس سهلًا للغاية، وأن يستغرق انتقال المعلومات عبر المسار القشري وقتًا أطول بكثيرٍ من انتقاله عبر المسار تحت القشري.
قد نجد إذن أن محاولات بناء أشكال حياة اصطناعية لديها انفعالات، سواء كانت برامج فاعلة افتراضية في عالَمٍ مُحاكٍ أو روبوتات لها وجود مادي حقيقي، تساعدنا على فهم جوانب أخرى من انفعالاتنا. يقول عالم الأعصاب الإيطالي فالنتينو برايتنبرج إنه من الأسهل غالبًا اكتشاف كيفية عمل نظام مُعقد من خلال بناء نماذج بدلًا من محاولة استنتاج الآلية من خلال الملاحظة فقط. وكلما زاد التوافُق بين سلوك النموذج المحاكي وسلوك النظام المستهدف، زادت ثقتنا في أن البنية الداخلية للنموذج تتطابق مع البنية الداخلية للنظام المستهدَف. ونظرًا لأننا مَنْ قُمنا ببناء النموذج بأنفسنا، فإن بِنيته الداخلية واضحة لنا ولا تحتاج إلى استنتاجها من خلال التحليل. ومن ثَم، قد يكون السبب الأهم لبناء الروبوتات الانفعالية هو تعلُّم المزيد عن أنفسنا.