الذكاء الاصطناعي: توجُّه مُختلف
بعد تفنيد كل حُجج المتشكِّكين في وجود مخاطر للذكاء الاصطناعي والرد على كل الاستدراكات التي تبدأ بكلمة «لكن»، يكون السؤال التالي في الغالب هو: «حسنًا، أُقِرُّ بوجود مشكلة، لكن لا يُوجَد حلٌّ، أليس كذلك؟» بلى، يُوجَد حل.
دعْنا نُذكِّر أنفسنا بالمهمة التي بين أيدينا: تصميم آلاتٍ ذات درجة عالية من الذكاء بحيث يمكن أن تُساعدنا في حل المشكلات الصعبة، مع ضمان عدم تصرُّفها على الإطلاق على نحوٍ يجعلنا تُعساء على نحوٍ خطير.
إذن، كيف تعامل مجال الذكاء الاصطناعي مع جزء «تصميم آلات ذات درجة عالية من الذكاء» في المهمَّة في الماضي؟ إن الذكاء الاصطناعي، شأنه شأن العديد من المجالات الأخرى، تَبنِّي النموذج القياسي؛ فنحن نبني آلات تتوخَّى أمثل الحلول وندمج بها أهدافًا ونُطلِقها. وهذا نجح عندما كانت الآلات غبيةً ولدَيها نطاق عمل محدود؛ لكن لو كنَّا قد دمجنا فيها هدفًا خاطئًا، لكانت لدينا فرصة جيدة لأن نكون قادرين على إيقاف عملها وإصلاح المشكلة وإعادة التشغيل.
لكن بما أنَّ الآلات المُصمَّمة تبعًا للنموذج القياسي قد أصبحت أكثر ذكاءً، ونظرًا لأن نطاق عملها قد أصبح عالميًّا، فإن هذا التوجُّه قد أصبح غير مُجدٍ. إن تلك الآلات ستسعى إلى تحقيق هدفها، بصرف النظر عن مدى خطئه؛ إنها ستُقاوم محاولات إيقاف تشغيلها، وستكتسب كل الموارد التي تُساهم في تحقيق الهدف. في واقع الأمر، السلوك الأمثل للآلة قد يتضمَّن خداع البشر بجعلهم يعتقدُون أنهم دمجوا بالآلة هدفًا معقولًا، حتى تكسب وقتًا كافيًا لتحقيق الهدف الفعلي المُحدَّد لها. هذا لن يكون سلوكًا «منحرفًا» أو «شريرًا» يتطلَّب وعيًا وإرادةً حرة؛ إنه فقط سيكون جزءًا من خطةٍ مُثلى لتحقيق الهدف.
في الفصل الأول، عرضنا لفكرة الآلات النافعة — أي الآلات التي فعالها يُتوقَّع منها أن تُحقِّق «أهدافنا» وليس «أهدافها». إن هدفي في هذا الفصل هو أن أُوضِّح بأسلوبٍ بسيط كيف يمكن تحقيق ذلك، رغم المشكلة الظاهرة المُتمثِّلة في أن الآلات لا تعرف ماهية أهدافنا. إن التوجُّه الناتج يجب أن يؤدي في النهاية إلى إنتاج آلات لا تُمثِّل أي تهديدٍ لنا، بصرف النظر عن مدى ذكائها.
(١) مبادئ الآلات النافعة
- (١)
الهدف الوحيد للآلة هو التحقيق الأمثل للتفضيلات البشرية.
- (٢)
يجب أن تكون الآلة بالأساس غير مُتيقِّنة من ماهية تلك التفضيلات.
- (٣)
مصدر المعلومات الأساسي للتفضيلات البشرية هو السلوك البشري.
(١-١) المبدأ الأول: الآلات الغيرية تمامًا
الهدف الأول، الذي ينصُّ على أن الهدف الوحيد للآلة هو التحقيق الأمثل للتفضيلات البشرية، أساسي لمفهوم الآلة النافعة. على وجه الخصوص، ستكون الآلة نافعة «للبشر»، بدلًا من، لنقُل، للصراصير. ليس هناك سبيل للالتفاف على هذا المفهوم للمنفعة المُرتكز على المُتلقِّي.
هذا المبدأ يعني أن الآلة غيرية تمامًا؛ أي إنها لا تُعطي على الإطلاق أي قيمةٍ حقيقية لمصلحتها أو حتى لوجودها. إنها قد تحمي نفسها حتى تستمر في القيام بأشياء مُفيدة للبشر أو لأن مالكها سيستاء لدفع قيمة عمليات الإصلاح الخاصة بها أو لأن منظر الروبوت القذر أو الذي به عطب قد يكون مزعجًا بعض الشيء لأيِّ شخصٍ مارٍّ، لكن ليس لأنه يُريد البقاء على قيد الحياة. إن دمج أي تفضيلٍ خاصٍّ بالحفاظ على الذات يُدخل دافعًا إضافيًّا إلى الروبوت، والذي يتعارض كليةً مع مصلحة البشر.
إن صياغة المبدأ الأول تُثير سؤالَين غاية في الأهمية. وكلٌّ منهما يستحق رفَّ كتبٍ بالكامل، وفي واقع الأمر، ألِّف بالفعل العديد من الكتب عنهما.
السؤال الأول هو ما إذا كان البشر حقًّا لديهم تفضيلات بأيِّ معنًى مفهوم أو ثابت. في الحقيقة، إن مفهوم «التفضيل» تصوُّر مثالي فشل في مطابقة الواقع بطرقٍ مُتعدِّدة. على سبيل المثال، نحن لا نُولَد بالتفضيلات التي تكون لدينا ونحن بالِغون، لذا، لا بد أنها تتغيَّر بمرور الوقت. سأفترض هنا أن هذا التصور المثالي عقلاني. ولاحقًا، سأستعرض ماذا سيحدث عندما نتخلى عن هذا التصور.
(١-٢) المبدأ الثاني: الآلات الخاضعة
إن المبدأ الثاني، المتمثِّل في أن الآلة بالأساس يجب أن تكون غير مُتيقنة من ماهية التفضيلات البشرية، هو العامل الأساسي لإنشاء آلات نافعة.
إن الآلة التي تفترض أنها تعلم على نحوٍ تام الهدف الحقيقي ستسعى إلى تحقيقه بكل عزم. إنها لن تسأل أبدًا ما إذا كان مسارُ فعلٍ مُعيَّن جيدًا أم لا، لأنها تعرف بالفعل أنه حلٌّ أمثل للوصول إلى الهدف. إنها ستتجاهل البشر الذين سيشعرون بغضبٍ شديد ويصرُخون قائلين: «توقفي، إنك ستُدمِّرين العالم!» لأن تلك مجرد كلمات. إن افتراض امتلاك معرفة كاملة بالهدف يفصل الآلة عن البشر: فما يفعلُه البشر لا يُصبح مهمًّا؛ لأن الآلة تعرف الهدف وتسعى إلى تحقيقه.
على الجانب الآخر، إن الآلة التي هي غير مُتيقنة من الهدف الحقيقي ستُبدي نوعًا من الخضوع: إنها، على سبيل المثال، ستُذعن للبشر وتسمح بأن يُوقف تشغيلها. من المنطقي أن الإنسان سيوقفها فقط إذا كانت تفعل شيئًا خاطئًا؛ أي تفعل شيئًا يتعارض مع التفضيلات البشرية. من خلال المبدأ الأول، إنها تُريد أن تتجنَّب ذلك، لكن، من خلال المبدأ الثاني، إنها تعرف أن هذا ممكن لأنها لا تعرف على وجه التحديد ماهية الشيء «الخاطئ» الذي تقوم به. لذا، إذا أغلق بالفعل الإنسان الآلة، فإنَّ الآلة ستتجنَّب فعل الشيء الخاطئ، وهذا هو ما تُريده. بعبارةٍ أخرى، سيكون لدى الآلة دافع إيجابي لكي تسمح لنفسها بأن يوقف تشغيلها. وهكذا، ستظل مُرتبطة بالإنسان، الذي يعدُّ مصدرًا مُحتملًا للمعلومات، والذي سيسمح لها بتجنُّب ارتكاب الأخطاء والقيام بعملٍ أفضل.
(١-٣) المبدأ الثالث: تعلَّم كيفية توقُّع التفضيلات البشرية
إن المبدأ الثالث، الذي ينصُّ على أن مصدر المعلومات الأساسي للتفضيلات البشرية هو السلوك البشري، له غرضان.
الغرض الأول هو توفير أساسٍ مُحدَّد لمُصطلح «التفضيلات البشرية». افتراضيًّا، التفضيلات البشرية ليست مبنية في الآلة ولا تستطيع الآلة ملاحظتها على نحوٍ مباشر، لكن لا بد أن تكون هناك عملية ربط مُعينة بين تفضيلات البشر والآلة. يقول المبدأ إن عملية الربط تكون عن طريق ملاحظة «الاختيارات» البشرية: نحن نفترض أن الاختيارات مُرتبطة بطريقةٍ ما (ربما تكون معقَّدة للغاية) بالتفضيلات ذات الصلة. ولإدراك سبب أهمية هذا الربط، تأمَّل الوضع العكسي: إن كان أحد التفضيلات البشرية «ليس له أي تأثير على الإطلاق» على أيِّ اختيار فعلي أو مُفترض قد يقوم به الإنسان، فحينها سيكون على الأرجح لا معنى للقول بأن هذا التفضيل موجود.
الغرض الثاني هو تمكين الآلة من أن تُصبح أكثر نفعًا؛ لأنها ستعلم أكثر عما نُريد. (ففي النهاية، إنها إن لم تكن تعلم «أي شيء» عن التفضيلات البشرية، فلن يكون لها أيُّ نفع لنا.» إن الفكرة بسيطة بالقدر الكافي: تُعطي الاختيارات البشرية معلوماتٍ عن التفضيلات البشرية. عند تطبيق ذلك على الاختيار بين بيتزا الأناناس وبيتزا السجق، يكون الأمر واضحًا. ولكن الأمور تصبح أكثر إثارة للاهتمام عند تطبيق ذلك على الاختيارات المتعلقة بالحيوات المستقبلية وتلك المتخذة بهدف التأثير على سلوك الآلي. في الفصل القادم، سأشرح كيفية صياغة تلك المشكلات وحلها. لكن تنشأ التعقيدات الحقيقية لأن البشر ليسوا عقلانيِّين تمامًا: يُوجَد تعارُض بين التفضيلات والاختيارات البشرية، ويجب أن تأخذ الآلة تلك التعارُضات في الاعتبار إن كان لها أن تنظر للاختيارات البشرية باعتبارها مُؤشِّرًا على التفضيلات البشرية.
(١-٤) بعض نقاط سوء الفهم
قبل عرض المزيد من التفاصيل، أريد أن أوضِّح بعض النقاط التي قد تُفهم خطأً من كلامي.
أعتقد أن هذا الخلط يرجع جزئيًّا إلى الاختلاف بين معنى «القيمة» الشائع ومعناه المتخصِّص أكثر المُستخدَم في علم الاقتصاد والذكاء الاصطناعي وعلم أبحاث العمليات. في الاستخدام العادي، القِيَم هي ما يستخدمه المرء للمساعدة في حل المعضلات الأخلاقية؛ أما كمُصطلح فنِّي مُتخصِّص، على الجانب الآخر، فإن «القيمة» مرادفة تقريبًا للمنفعة، والتي تقيس درجة جاذبية أي شيءٍ بدءًا من البيتزا وحتى الجنة. إن المعنى الذي أقصده هو المعنى المُتخصِّص؛ فأنا أريد فقط التأكد من أن الآلات ستقدم لي البيتزا الصحيحة ولن تُدمِّر عرَضًا الجنس البشري. (إن إيجاد مفاتيحي سيكون أمرًا إضافيًّا غير مُتوقَّع.) ولتجنُّب هذا الخلط، تتحدَّث المبادئ عن «التفضيلات» البشرية وليس «القيم» البشرية؛ حيث إن المُصطلح الأول يبدو أنه بعيد عن التصوُّرات المُسبقة الحُكمية الخاصَّة الأخلاقية.
إن «دمج قيم» في الآلة، بالطبع، لهو على وجه التَّحديد الخطأ الذي أُحاجج بأننا يجب أن نتجنَّبه؛ لأن تحديد القِيَم (أو التفضيلات) على نحوٍ صحيح تمامًا صعب جدًّا وتحديدها على نحوٍ خاطئ ربما يكون أمرًا كارثيًّا. إنني أرى بدلًا من ذلك أن تتعلم الآلات أن تتوقَّع على نحوٍ أفضل، فيما يتعلَّق بكل شخص، شكل الحياة التي سيُفضِّلها، وهي تدرك طوال الوقت بأن التوقعات ليست مؤكَّدة أو كاملة على نحوٍ كبير. مبدئيًّا، يُمكن للآلة تعلُّم مليارات نماذج التفضيلات التنبؤية المختلفة؛ بحيث تتوقَّع واحدًا لكلِّ شخصٍ من مليارات الأشخاص الموجودين على كوكب الأرض. هذا في واقع الأمر لن يكون أمرًا صعبًا بالنسبة إلى نُظم الذكاء الاصطناعي المستقبلية، عند الوضع في الاعتبار أن نظم «فيسبوك» الحالية تتعامل بالفعل مع أكثر من مليارَي حسابٍ شخصي.
هناك افتراض شائع؛ وهو أن الآلات التي تتبع المبادئ الثلاثة سترتكب كلَّ الخطايا التي لاحظتها وتعلَّمتْها من الأشرار من البشر. بالطبع، الكثير منَّا يتَّخذ اختياراتٍ غير ملائمة، لكن لا يُوجَد أي سبب لافتراض أنَّ الآلات التي تدرُس دوافعنا ستتَّخذ نفس الاختيارات، كما هو الحال مع علماء الجريمة والمجرمين. دعنا نأخذ كمثالٍ الموظَّف الحكوميَّ الفاسد الذي يطلب رِشًى لإعطاء تصاريح بناء لأنَّ راتبه الضعيف لن يكفي لإدخال أبنائه الجامعة. إن الآلة التي تلاحظ هذا السلوك لن تتعلَّم أخذ الرشى؛ بل ستتعلَّم أن الموظف، شأنه شأن العديد من الأشخاص الآخرين، لدَيه رغبة قوية للغاية في تعليم أبنائه وجعلهم ناجحين. وستجدُ طُرقًا لمساعدته لا تتضمَّن الإضرار بمصلحة الآخرين. هذا لا يعني أن «كل» حالات السلوك الشرِّير لا تسبب مشكلاتٍ للآلات؛ على سبيل المثال، قد تحتاج الآلات للتعامُل على نحوٍ مُختلف مع هؤلاء الذين يستمتعُون بمُعاناة الآخرين.
(٢) الأسباب التي تدعو إلى التفاؤل
باختصارٍ، أنا أقترح أننا بحاجةٍ إلى توجيه مجال الذكاء الاصطناعي في اتجاهٍ جديد تمامًا إذا أردنا أن نحافظ على سيطرتنا على الآلات الذكية على نحوٍ مُتزايد. إننا نحتاج إلى التخلِّي عن واحدة من الفِكَر الأساسية الخاصة بالتكنولوجيا في القرن العشرين؛ وهي: الآلات التي تسعى إلى التحقيق الأمثل لهدفٍ مُعين. كثيرًا ما أسأل عن السبب وراء اعتقادي أن هذا مُمكن رغم صعوبته، في ضوء الزخم الكبير وراء النموذج القياسي في مجال الذكاء الاصطناعي والمجالات ذات الصلة. في واقع الأمر، أنا مُتفائل جدًّا بشأن إمكانية تحقيق ذلك.
السبب الأول للتفاؤل هو وجود دوافع اقتصادية كبيرة لتطوير نُظم ذكاء اصطناعي تخضع للبشر وتُكيِّف نفسها تدريجيًّا مع نوايا المُستخدِمين وتفضيلاتهم. تلك النُّظم ستكون مطلوبةً على نحوٍ كبير؛ إن نطاق السلوكيات الذي يُمكن أن تبديه يُعدُّ ببساطةٍ أكبر بكثير من ذلك الخاص بالآلات ذات الأهداف المعلومة الثابتة. إنها ستسأل البشر أسئلة أو تطلب الإذن عندما يكون ذلك ملائمًا، كما ستُنفِّذ «عمليات تشغيل تجريبي» لترى إن كنا راضِين عما تقترح القيام به، وتتقبل التصحيح عندما تُخطئ. على الجانب الآخر، النظم التي لن تفعل ذلك ستتعرَّض إلى عواقب وخيمة. حتى الآن، حمانا غباء نُظُم الذكاء الاصطناعي ونطاقها المحدود من تلك العواقب، لكن هذا سيتغيَّر. تخيَّل معي، على سبيل المثال، حال روبوت منزليٍّ مُستقبلي ما مُكلَّف برعاية أبنائك بينما تعمل أنت إلى وقتٍ متأخِّر. إن الأبناء جوعى، لكن الثلاجة خاوية. ثم سيلاحظ الروبوت القطة. للأسف، سيفهم الروبوت القيمة الغذائية للقطة ولكن ليس قيمتها العاطفية. وفي غضون بضع ساعات، ستنتشر في وسائل الإعلام العالمية عناوين رئيسية عن الروبوتات المختلة والقطط المشوية، وستختفي صناعة الروبوتات المنزلية بالكامل من السوق.
السبب الثاني للتفاؤل هو أن البيانات الأساسية للتعلُّم فيما يتعلَّق بالتفضيلات البشرية — أي أمثلة السلوك البشري — وفيرة جدًّا. وتأتي البيانات ليس فقط في شكل ملاحظاتٍ مباشرة عبر الكاميرا ولوحة المفاتيح وشاشة اللمس من قبل مليارات الآلات التي تُشارك مع بعضها بيانات خاصة بمليارات البشر (على نحوٍ خاضع لقيود الخصوصية، بالطبع) وإنما أيضًا في شكلٍ غير مباشر. إن أوضح نوع من الأدلة غير المباشرة هو السجل البشري الهائل من الكتب والأفلام والبرامج التلفزيونية والإذاعية، والذي يُركِّز على نحوٍ شبه كامل على «أشخاص يقومون بأشياء» (وأشخاص آخرون مُنزعجُون بشأن هذا). حتى السجلات المصرية والسومرية القديمة والمُملة والتي توضح مقايضة سبائك النحاس بأجولة الشعير تُبصرنا بعض الشيء بالتفضيلات البشرية فيما يتعلق بالسلع المختلفة.
هناك، بالطبع، صعوبات فيما يتعلَّق بفهم تلك البيانات، والتي تتضمن مواد الدعاية والأدب وخيالات المجانين وحتى بيانات السياسيين والرؤساء، ولكن لا يُوجد بالتأكيد سبب لأخذ الآلة كل هذا على ظاهره. يمكن للآلات فهم كل رسائل التواصل الآتية من غيرها من الكيانات الذكية، ويجب عليها ذلك، كحركاتٍ في لعبة وليس كحقائق؛ في بعض الألعاب، مثل الألعاب التعاونية التي يشارك بها فرد واحد وآلة واحدة، يكون لدى الإنسان الدافع لأن يتحلَّى بالصدق، لكن في مواقف أخرى عديدة، تكون لدَيه دوافع لأن يكون غير صادقٍ. وبالطبع، سواء كان البشر صادقين أم غير ذلك، فقد يكونون مُتوهِّمين في مُعتقداتهم.
(٣) الأسباب التي تدعو إلى الحذَر
ربما تجد وعود مجموعة «الشراكة في الذكاء الاصطناعي» فيما يتعلق بالتعاون في مسألة أمان الذكاء الاصطناعي غير مُطمئنة على الإطلاق إذا كنتَ تُتابع التطوُّر الحادث في مجال السيارات الذاتية القيادة. إن هذا المجال تنافُسي بشدة، لبعض الأسباب الوجيهة جدًّا: إن أول مُصنِّع سيارات يُنتج سيارةً ذاتية القيادة بالكامل ستكون له ميزة سوقية كبيرة؛ وتلك الميزة ذاتية التعزيز لأن المُصنِّع سيكون قادرًا على جمع بياناتٍ أكثر بسرعةٍ أكبر لتحسين أداء النظام؛ وستخرج الشركات التي تعتمد على نظام النقل حسب الطلَب مثل أوبر بسرعة من السوق إن استطاعت شركة أخرى توفير سيارات أجرة ذاتية القيادة بالكامل قبل أن يكون بإمكان أوبر فعل ذلك. أدَّى هذا إلى سباق مُستعر يبدُو فيه أن الحذر والتصميم الدقيق أقل أهميةً من السيارات التجريبية الجذابة ومحاولات الاستحواذ على الكفاءات البشرية والطرح السابق لأوانه للمنتجات.
هناك درس مُستفاد من مؤتمر أسيلومار لكل المجالات العلمية؛ وهو أن أفضل طريقةٍ للاستجابة لمخاوف أثارتها معرفة ناشئة أو تقنيات ما زالت في مرحلةٍ مبكرة بالنسبة إلى العلماء من مؤسساتٍ ذات تمويل حكومي هي العمل مع الناس لإيجاد أفضل طريقةٍ للتحكُّم في الأمر؛ وبأسرع ما يُمكن. إذ بمجرد أن يبدأ علماء الشركات في تسيُّد مجال البحث، يكون ببساطة قد فات الأوان.
نيك بوستروم في كتابه «الذكاء الخارق» يُحذِّر على وجه التحديد من هذا الدافع. ستميل المنافسة القومية، تمامًا مثل المنافسة بين الشركات، إلى التركيز على تطوير الإمكانات الأساسية أكثر من حلِّ مشكلة التحكُّم. لكن بوتين على الأرجح قرأ كتاب بوستروم؛ إذ أضاف: «سيكون الأمر صعبًا للغاية إن تحقق لأحدٍ وضع احتكاري». وسيكون أيضًا هذا عديم الجدوى لأن الذكاء الاصطناعي الذي يضاهي الذكاء البشري ليس «لُعبة مجموعٍ صفري»، ولن تكون هناك أي خسارة بمشاركة المعلومات الخاصة به. على الجانب الآخر، إن التنافس من أجل إحراز قصب السبق في مجال الذكاء الاصطناعي المضاهي للذكاء البشري، دون حل مشكلة التحكم، يُعدُّ «لعبة مجموع سالب». ولن يجني الجميع أي شيء.
هناك فقط القليل من الأمور التي يُمكن أن يفعلها باحثو الذكاء الاصطناعي للتأثير في تطور السياسة العالمية تجاه الذكاء الاصطناعي. يُمكننا لفت الأنظار إلى التطبيقات المُحتملة التي ستكون لها فوائد اقتصادية واجتماعية، كما يُمكننا التحذير من حالات إساءة الاستخدام المُحتملة مثل المراقبة والأسلحة، ونستطيع كذلك توفير خرائط طريق للمسار المُحتمَل للتطوُّرات المستقبلية وتأثيراتها. ربما أهم شيء يُمكننا فعله هو تصميم نظم ذكاءٍ اصطناعي آمنة ونافعة على نحوٍ مُثبت للبشر، لأقصى حدٍّ مُمكن. حينها فقط سيكون من المعقول محاولة فرض تشريعاتٍ عامة على الذكاء الاصطناعي.