الجدل غير الواسع الدائر حول الذكاء الاصطناعي
عندما يُقدِّم شخص لأول مرة تلك الأفكار لجمهور مُتخصص في المجال التقني، يستطيع أن يرى فقاعات الأفكار تنبثق من رءوسهم، والتي تبدأ بالكلمات «لكن، لكن، لكن …» وتنتهي بعلامات تعجُّب.
يأخذ أول نوع من كلمة «لكن» شكل الإنكار. يقول المنكرون: «لكن تلك لا يمكن أن تكون مشكلة حقيقية؛ لأن كذا كذا». بعض هذه الأسباب تعكس تفكيرًا يمكن وصفه بالتفكير التوَّاق، في حين أن البعض الآخر يكون أكثر وجاهة. أما النوع الثاني من كلمة «لكن» فيأخذ شكل التهرُّب؛ أي قبول أن المشكلات حقيقية لكن الزعم بأننا يجب ألا نُحاول حلَّها، إما لأنها غير قابلة للحل وإما لأن هناك أمورًا أخرى أكثر أهمية علينا أن نُركز عليها من نهاية العالم، وإما لأنه من الأفضل ألا نهتمَّ بها على الإطلاق. أما النوع الثالث من كلمة «لكن»، فيأخذ شكل حلٍّ فوري مُبسَّط: «لكن أليس من المُمكن أن نقوم فقط بكذا كذا؟» وكما هو الوضع في حالة الإنكار، بعض هذه الحلول تكون غير مُجدية على نحوٍ واضح. في حين تقترب أخرى، على الأرجح بالصدفة، من تحديد الطبيعة الحقيقية للمشكلة.
أنا لا أقصد الإشارة إلى أنه لا يُمكن أن تُوجَد أي اعتراضاتٍ مقبولة على فكرة أن الآلات الخارقة السيئة التصميم ستُشكل خطرًا كبيرًا على البشرية. المسألة أنني لم أرَ حتى الآن أيًّا من تلك الاعتراضات. وحيث إن الأمر يبدو على قدرٍ كبير من الأهمية؛ فهو يستحقُّ نقاشًا عامًا على أعلى مستوى. لذا، من أجل تعزيز ذلك النقاش، وعلى أمل إشراك القارئ فيه، دعوني أُقدم لكم نظرةً سريعة على أبرز ما تمَّ في هذا الشأن حتى الآن، دون تجميل.
(١) الإنكار
(١-١) الملاحظات غير المُجدية على نحوٍ واضح
إن أي تهديدٍ مُتصوَّر للمهنة التي يعمل بها أي شخص طوال حياته يُمكن أن تقوده، حتى لو كان ذكيًّا للغاية وعميق التفكير في أغلب الأحيان، إلى أن يقول أشياء قد يرغب في التراجُع عنها والتبرُّؤ منها عند القيام بتحليلٍ أكبر للموضوع ذي الصلة. ونظرًا لأن هذا هو الوضع، فلن أذكُر أصحاب الحجج التالية، الذين جميعهم من الباحثين المعروفين في مجال الذكاء الاصطناعي. لقد ضمنت تفنيدًا لتلك الحجج، حتى لو كان ذلك غير ضروري على الإطلاق.
-
الحاسبات الإلكترونية تتفوَّق على البشر في العمليات الحسابية. وحيث إن تلك الآلات لم تُسيطر على العالم، فلا داعيَ للقلق من الذكاء الاصطناعي الخارق.
-
التفنيد: الذكاء يختلف عن إجراء العمليات الحسابية، والقدرات الحسابية للحاسبات لا تُتيح لها السيطرة على العالم.
-
-
الخيول لدَيها قوة تفوق البشر، ونظرًا لأننا لا نخشى خروجها عن السيطرة، فلا نحتاج إلى القلق من خروج نُظُم الذكاء الاصطناعي عن السيطرة.
-
التفنيد: الذكاء يختلف عن القوة البدنية، وقوة الخيول لا تُتيح لها السيطرة على العالم.
-
-
تاريخيًّا، لا تُوجَد أي سوابق لقتل الآلات لملايين البشر، لذا، نستدلُّ من ذلك على أن هذا لا يمكن أن يحدث في المستقبل.
-
التفنيد: يُمكن أن يحدث أي شيء، دون أن تكون له سوابق من قبل.
-
-
لا يُمكن لأي كمية مادية في الكون أن تكون لا نهائية، وهذا يتضمَّن الذكاء، لذا، المخاوف من الذكاء الاصطناعي الخارق مُبالَغ فيها.
-
التفنيد: الذكاء الاصطناعي الخارق لا يحتاج لأن يكون لا نهائيًّا حتى يُسبب مشكلات، والفيزياء تسمح ببناء أجهزة حاسوبية أقوى من العقل البشري بمليارات المرات.
-
-
نحن لا نقلق من الأمور التي يقلُّ احتمال حدوثها على نحوٍ كبير، والتي قد تؤدِّي إلى فناء الأنواع؛ مثل ظهور الثقوب السوداء عند المدار الأقرب إلى الأرض، لذا، لِمَ القلق من الذكاء الاصطناعي الخارق؟
-
التفنيد: إذا كان معظم الفيزيائيين على كوكبنا يعملون على صُنع مثل هذه الثقوب السوداء، ألن نسألهم إن كان ذلك لا يُمثِّل أي خطر؟
-
(١-٢) الأمر معقد
هذا حتى ينطبق أكثر على الآلات لأن قدراتها أقل منَّا بكثير. إن محرك البحث الخاص بجوجل وبرنامج «ألف جو» ليس بينهما تقريبًا أي شيءٍ مُشترك، هذا بالإضافة إلى كونهما مُنتجين لشركتَين فرعيَّتَين تنتميان لنفس الشركة الأم، لذا، لا داعي للقول بأنَّ أحدهما أكثر ذكاءً من الآخر. وهذا يجعل مفاهيم «معدَّل ذكاء الآلات» مُلغِزة، ويُشير إلى أنه من المُضلِّل وصف المستقبل باعتباره سباقًا أحاديَّ البُعد فيما يتعلَّق بمعدل الذكاء بين البشر والآلات.
(١-٣) الأمر مستحيل
بحسب معلوماتي، هذه هي المرة الأولى التي يتبنَّى فيها على نحوٍ علني باحثون جِدِّيون في مجال الذكاء الاصطناعي وجهة النظر القائلة بأن الذكاء الاصطناعي الخارق أو ذلك الذي يُضاهي الذكاء الإنساني مُستحيل، وهذا يحدث وسط فترةٍ يحدث فيها تطور شديد السرعة في الأبحاث في هذا المجال، مع انهيار الحواجز الواحد تلو الآخر. يبدو الأمر كما لو أن مجموعة من كبار علماء البيولوجيا العاملين في مجال أمراض السرطان أعلنوا أنهم كانوا يخدعوننا طوال الوقت؛ فلطالما كانوا على يقينٍ بأنه لن يكون هناك أبدًا علاج للسرطان.
ترى، ماذا قد يكون وراء هذا التغيُّر الكامل والمُفاجئ؟ لا يُقدِّم التقرير أي حجج أو أدلة على الإطلاق. (في واقع الأمر، ما الأدلة التي يُمكن تقديمها على استحالة ظهور ترتيبٍ مُعين من الذرات يُمكنه التفوُّق على العقل البشري؟) أشك أنَّ هناك سببَين. الأول: هو الرغبة الطبيعية لنفي وجود مشكلة الغوريلا، والتي تُمثِّل احتمالًا غير مريح بالمرة للباحث في مجال الذكاء الاصطناعي؛ بالتأكيد، إذا كان الذكاء الاصطناعي الذي يُضاهي الذكاء البشري مستحيل الوجود، فستختفي مشكلة الغوريلا على نحوٍ رائع. أما الثاني، فيتمثل في «القبلية»؛ أي الميل إلى اتخاذ موقف دفاعي ضد ما يُرى على أنه «محاولات للنيل» من الذكاء الاصطناعي.
يبدو من الغريب النظر إلى الزعم بأن وجود الذكاء الاصطناعي الخارق مُمكن باعتباره محاولة للنيل من مجال الذكاء الاصطناعي، ويبدو حتى أغرب الدفاع عن الذكاء الاصطناعي بالقول بأنه لن ينجح أبدًا في تحقيق أهدافه. نحن لا يمكننا حماية أنفسنا من احتمال حدوث كوارث مستقبلية فقط بالرهان على عدم براعة العبقرية البشرية.
لقد قُمنا بتلك الرهانات من قبل وخسرنا. فكما أوضحنا من قبل، إن كبار علماء الفيزياء في أوائل ثلاثينيات القرن الماضي، والذين يُمثلهم اللورد رذرفورد، كانوا يعتقدون بثقة أن إنتاج الطاقة النووية مُستحيل، لكن ابتكار ليو سلارد التَّفاعلَ النَّووي المُتسلسل المُستحَثَّ بالنيوترونات في عام ١٩٣٣ أثبت أن تلك الثقة ليست في محلها.
إن الإنجاز الذي حقَّقه سلارد جاء في توقيتٍ صعب؛ إذ جاء مع بداية سباق تسلُّح مع ألمانيا النازية. ولم تكن هناك إمكانية لتطوير تقنية نووية تعمل للصالح العام. وبعد بضعة أعوامٍ لاحقة، وبعد أن أثبت حدوث التفاعل النووي المتسلسل في مَعمله، كتب سلارد يقول: «لقد أغلقنا كلَّ شيء وتوجَّهنا إلى منازلنا. في تلك الليلة، لم يكن لديَّ شك كبير في أن البؤس سيكون مصير العالم.»
(١-٤) من السابق لأوانه القلق من هذا الأمر
من الشائع رؤية بعض الحكماء وهم يُحاولون تهدئة مخاوف الناس بالإشارة إلى أنه لا يُوجَد ما يمكن القلق بشأنه؛ لأن الذكاء الاصطناعي الذي يُضاهي الذكاء البشري ليس من المُحتمَل أن يظهر قبل عدة عقود. على سبيل المثال، يقول التقرير السابقة الإشارة إليه في القسم السابق إنه «لا تُوجَد أي مَدعاةٍ للقلق من تسبُّب الذكاء الاصطناعي في تهديدٍ وشيك للبشرية».
تلك المُحاجَّة قاصرة في جانبَين. يتمثل الأول في أنها تعد ما يُسمى بمغالطة الرجل القش؛ أي تشويه الحُجة للرد عليها. إن أسباب القلق «لا» تقوم على قُرب حدوث الأمر. على سبيل المثال، كتب نيك بوستروم في كتابه «الذكاء الخارق» يقول: «ليس جزءًا من المُحاجَّة المعروضة في هذا الكتاب القول بأننا على عتبة حدوث إنجازٍ كبير في مجال الذكاء الاصطناعي أو أننا يُمكننا توقُّع، بأي درجةٍ من الدقة، الوقت الذي قد يحدُث فيه هذا التطور». أما الثاني، فيتمثَّل في أن المخاطر الطويلة الأجل يُمكن أن تكون مَدعاةً للقلق الفوري. إن الوقت الصحيح للقلق بشأن تعرُّض البشرية لمشكلةٍ قد تكون خطيرة، يعتمد ليس فقط على وقت حدوث المشكلة، وإنما أيضًا على الوقت الذي سيُستغرَق في وضع حلٍّ لها وتنفيذه.
على سبيل المثال، إذا اكتشفنا أن كُويكبًا كبيرًا في طريقه للاصطدام بالأرض في عام ٢٠٦٩، فهل سنقول إنه لَمن السابق لأوانه القلق بشأن ذلك؟ لا، على العكس تمامًا. سيكون هناك مشروع طارئ على مستوى العالم لتطوير طريقةٍ لمواجهة هذا التهديد. ولن نتنظِر حتى عام ٢٠٦٨ للبدء في العمل على هذا الحل؛ لأننا لا يُمكننا مُقدمًا تحديد الوقت المطلوب لذلك. في واقع الأمر، مشروع الدفاع الكوكبي التابع لوكالة ناسا يعمل «بالفعل» من أجل التوصُّل إلى حلول مُمكنة لتلك المشكلة، حتى مع العلم بأنه «لا يُوجَد أيُّ احتمالٍ لحدوث اصطدام خطير بالأرض من جانب أي كويكب معروف في المائة عام القادمة». وإن جعلك هذا تشعُر بالرضا، فهم يقولون أيضًا إنه «لم يُكتشَف بعدُ نحو ٧٤ بالمائة من الأجسام القريبة من الأرض، والتي يزيد حجمها عن ٤٦٠ قدمًا».
وإذا نظرنا إلى المخاطر الكارثية العالمية الناتجة عن التغيُّر المناخي، والتي نتوقَّع حدوثها في نهاية هذا القرن، أليس من السابق لأوانه جدًّا التحرُّك لمنعها؟ على العكس، من المُمكن أن نكون قد تأخَّرنا جدًّا. إن الإطار الزمني ذا الصلة لتطوير الذكاء الاصطناعي الخارق يصعُب التنبُّؤ به أكثر، لكن هذا بالطبع يعني أنه، شأنه شأن الانشطار النووي، قد يحدُث أسرع كثيرًا مما توقَّعنا.
(١-٥) نحن الخبراء
عند ظهور أيِّ ابتكارٍ تقني، يُصاب الناس بالخوف. فبدءًا من النسَّاجين الذين كانوا يقذفون أحذيتهم في الأنوال الميكانيكية في بداية الحقبة الصناعية وحتى مخاوف اليوم من ظهور روبوتات قاتلة، استجابتنا يقودها عدم معرفة التأثير الذي ستُحدِثه التقنية الجديدة في إدراكنا لذواتنا ومعيشتنا. وعندما لا نعرف شيئًا، تمدُّنا عقولنا الخائفة بالمعلومات المطلوبة.
عندما تتحدث إلى الباحثين في مجال الذكاء الاصطناعي — مرةً أخرى، الباحثين الحقيقيين، وهم الأشخاص الذين يتصدَّون لصُنع نُظمٍ عاملة بأيِّ نحوٍ وليس بالطبع عاملة على نحو رائع — تجدهم غير قلقين من احتمالية مُفاجأة الروبوتات ذات الذكاء الخارق لهم، سواء الآن أو في المستقبل. وعلى عكس القصص المُخيفة التي يبدو أن [إيلون] ماسك حريص على سردها، فإن هؤلاء الباحثين لا يبنُون على نحوٍ محموم غرف استدعاء محمية ولا عمليات عدٍّ تنازُلي ذاتية التدمير.
هذا التحليل مُعتمِد على عيِّنة قوامها أربعة من الباحثين، والذين قالوا جميعهم في واقع الأمر في حواراتهم إن الأمان الطويل الأمد للذكاء الاصطناعي كان مسألةً مُهمة.
عندما تستكشف الجوانب العلمية لذكاء الآلات وعندما تُطبِّقها بالفعل في العالم الواقعي للأعمال والمُجتمع، كما فعلنا في شركة آي بي إم لبناء النظام الحاسوبي المعرفي الرائد الخاص بنا، «واطسون»، تدرك أن تلك التقنية لا تدعم الإشاعات المُقلقة المرتبطة على نحوٍ شائع بالجدل الدائر اليوم حول الذكاء الاصطناعي.
الرسالة واحدة في الحالات الثلاث جميعها: «لا تستمع إليهم؛ فنحن الخبراء». يُمكن الإشارة إلى أن تلك في حقيقة الأمر مُحاجَّة تقوم على القدح الشخصي تُحاول تفنيد الرسالة بالهجوم على أصحابها، لكن حتى لو أخذها المرء على ظاهرها فقط، فإنها واهية. إن إيلون ماسك وستيفين هوكينج وبيل جيتس بالتأكيد على معرفةٍ تامَّة بالتفكير العلمي والتقني، وماسك وجيتس على الخصوص أشرفا على العديد من المشروعات البحثية في مجال الذكاء الاصطناعي واستثمرا فيها. ولن يكون حتى من المعقول القول بأن آلان تورينج وآي جيه جود ونوربرت فينر ومارفن مينيسكي غير مؤهَّلين لمناقشة المسائل المُتعلِّقة بالذكاء الاصطناعي. وأخيرًا، يُشير المقال السابق ذكره والمنشور في مدونة سكوت ألكسندر والذي كان بعنوان «رأي باحثي الذكاء الاصطناعي في مخاطره» إلى أن «باحثي الذكاء الاصطناعي، بما في ذلك بعض القادة في هذا المجال، كان لهم دور مهم في إثارة الانتباه لبعض المسائل المُتعلِّقة بمخاطر الذكاء الاصطناعي والذكاء الخارق منذ البداية». وذكر العديد من هؤلاء الباحثين، والقائمة الآن أطول بكثير.
هناك توجُّه خطابي قياسي آخر من جانب «المُدافِعين عن الذكاء الاصطناعي»، والذي يتمثل في وصف خصومهم بأنهم «لوديون»؛ أي مناهضون للتطوُّر التقني. إن إشارة أورين إتسيوني إلى «النسَّاجين الذين كانوا يقذفون أحذيتهم في الأنوال الميكانيكية» هي ما أقصده هنا؛ إن اللوديين كانوا نسَّاجين حرفيين في أوائل القرن التاسع عشر وكانوا مُعترِضين على إدخال الآلات لتحلَّ محلَّ عملهم اليدوي. وفي عام ٢٠١٥، منحت مؤسسة تكنولوجيا المعلومات والابتكار جائزتها اللودية السنوية ﻟ «مُثيري الذُّعر فيما يتعلق بدور الذكاء الاصطناعي في نهاية العالم». إنه لتعريف غريب لمصطلح «لودي» أن يتضمَّن تورينج وفينر ومينيسكي وماسك وجيتس، والذين يُعَدون من أبرز المساهمين في التقدُّم التقني الذي حدث في القرنَين العشرين والحادي والعشرين.
إن الاتهام باللودية يعدُّ إساءة فهم لطبيعة المخاوف المثارة والهدف من إثارتها. يبدو الأمر مثل اتهام المهندسين النوويين باللودية إن أشاروا إلى الحاجة للتحكُّم في التفاعلات الانشطارية. وكما هو الحال مع الظاهرة الغريبة المُتمثِّلة في الزعم المفاجئ من جانب باحثي الذكاء الاصطناعي بأن الذكاء الاصطناعي مُستحيل، أعتقد أننا يُمكننا إرجاع هذا التوجُّه المُحيِّر إلى القبلية التي تحاول الدفاع عن التقدم التقني.
(٢) التهرُّب
بعض المعلقين مُستعدُّون للإقرار بأن المخاطر حقيقية، لكنهم يقدمون حججًا ترى ضرورة عدم فعل أي شيء. وتتضمن تلك الحجج استحالة فعل أي شيءٍ، وأهمية فعل شيء آخر تمامًا، والحاجة للسكوت عن المخاطر.
(٢-١) عدم إمكانية التحكُّم في الأبحاث
من الردود الشائعة على الآراء التي ترى أن الذكاء الاصطناعي المُتطور قد يُعرِّض البشر لمخاطر، الزعم بأن إيقاف أبحاث الذكاء الاصطناعي مُستحيل. لاحظ القفزة العقلية هنا: «حسنًا، إن شخصًا ما يناقش المخاطر! لا بدَّ أنه يقترح وقف بحثي!» قد تكون تلك القفزة العقلية مُلائمة عند مناقشة المخاطر اعتمادًا فقط على مشكلة الغوريلا، وأنا أميل إلى الموافقة على أن حلَّ مشكلة الغوريلا بمنع بناء الذكاء الاصطناعي الخارق سيتطلَّب وضع نوعٍ من القيود على الأبحاث في مجال الذكاء الاصطناعي.
لكن النقاشات الحديثة التي دارت حول المخاطر ركَّزت ليس على مشكلة الغوريلا العامة (باللغة الصحفية، النزال الشديد بين البشر والذكاء الخارق)، ولكن على مشكلة الملك ميداس وصورها المختلفة. إن حلَّ مشكلة الملك ميداس يحلُّ أيضًا مشكلة الغوريلا؛ ليس عن طريق منع بناء الذكاء الاصطناعي الخارق أو إيجاد طريقة للتغلب عليه، وإنما بضمان عدم دخوله على الإطلاق في صراع مع البشر في المقام الأول. إن النقاشات الدائرة حول مشكلة الملك ميداس بوجهٍ عام تتجنَّب اقتراح ضرورة تقييد البحث في مجال الذكاء الاصطناعي؛ فهي تقترح فقط أنه يجب الاهتمام بمسألة منع المخاطر التي قد تنتج عن النظم السيئة التصميم. في نفس الإطار، إن مناقشة مخاطر التسرُّب في المحطات النووية يجب تفسيرها ليس باعتبارها محاولةً لوقف الأبحاث في مجال الفيزياء النووية وإنما كإشارةٍ لضرورة توجيه مزيدٍ من الجهود على حلِّ مُشكلة التسرُّب.
بعد المؤتمر الذي عقد في عام ١٩٧٥ مباشرة، بدأت المعاهد الوطنية للصحة، التي تمول تقريبًا كل الأبحاث الطبية الأساسية في الولايات المتحدة، عملية إنشاء اللجنة الاستشارية الخاصة بالحمض النووي التركيبي. كان لتلك اللجنة دور مُهم في تطوير توجيهات المعاهد الوطنية للصحة التي نفَّذت بالأساس توصيات مؤتمر أسيلومار. ومنذ عام ٢٠٠٠، تضمَّنت تلك التوجيهات منع الموافقة على تمويل أي بروتوكول يتضمَّن «تغيير الجينوم البشري»؛ أي تعديل الجينوم البشري بطُرُق يمكن توريثها للأجيال القادمة. وهذا المنع تبعه حظر قانوني في أكثر من خمسين دولة.
إن الدرس المستفاد من هذا الجدل فيما يتعلق بالذكاء الاصطناعي مُزدوج. فمن جانب، إنه يوضح أننا «يمكننا» وقف العمل في أيِّ مجالٍ بحثيٍّ له مخاطر ضخمة. إن الإجماع الدولي على حظر تعديل الجينوم ناجح على نحوٍ شبه كامل حتى الآن. ولم يتحقَّق الخوف من أن الحظر سيؤدي إلى القيام بالأبحاث في الخفاء أو في دول لا تُعارض ذلك. ومن جانب آخر، تعديل الجينوم عملية يسهل التعرف عليها، وهي حالة استخدام محدَّدة لمعرفةٍ عامةٍ أكثر، خاصة بعلم الوراثة، تتطلب معدات خاصة وبشرًا لإجراء التجارب عليهم. علاوة على ذلك، إنها عملية تتبع مجالًا — وهو الطب التناسُلي — خاضعًا بالفعل لمُراقبةٍ دقيقة وتشريعات صارمة. وتلك السمات لا تنطبق على الذكاء الاصطناعي العام، وحتى الآن، لم يخرج علينا أيُّ أحدٍ بأي صيغةٍ معقولة يمكن لأي تشريع، لتقييد البحث في مجال الذكاء الاصطناعي، أن يتخذها.
(٢-٢) الماذاعنية
لقد تعرَّفتُ على مصطلح «الماذاعنية» على يد مستشارٍ لسياسي بريطاني كان عليه التعامل معه على نحوٍ منتظم في اللقاءات العامة. فبصرف النظر عن موضوع الكلمة التي كان يُلقيها، كان شخص يسأله على نحو دائم: «ماذا عن القضية الفلسطينية؟»
التوقعات التشاؤمية عادة ما تفشل في أن تأخذ في الاعتبار المزايا المُحتملة للذكاء الاصطناعي والمتعلقة بمنع الأخطاء الطبية وتقليل حوادث المركبات وغير ذلك.
إذا كنت تعارض الذكاء الاصطناعي، فأنت إذن تُعارض السيارات الأكثر أمانًا التي لن تتعرض لحوادث، وتُعارض التشخيص الأفضل للناس عندما يمرضون.
إذا نحَّينا جانبًا المفهوم القبلي الذي يرى أن أي شخصٍ يذكر المخاطر «يُعارض الذكاء الاصطناعي»، فإن كلًّا من زوكربيرج وإتسيوني يريان أن الحديث عن المخاطر يعني تجاهل المزايا المُحتملة للذكاء الاصطناعي أو حتى إنكار وجودها.
هذا بالطبع نوع من الغباء، لسببَين. أولًا: إذا لم تكن هناك فوائد مُحتملة للذكاء الاصطناعي، فلن يكون هناك أيُّ دافع اقتصادي أو اجتماعي للقيام بأبحاثٍ في مجال الذكاء الاصطناعي؛ ومن ثمَّ لن يُوجَد أبدًا خطر الوصول إلى الذكاء الاصطناعي الذي يُضاهي الذكاء البشري. إننا ببساطة حينها لن نحتاج إلى هذا الجدل على الإطلاق. ثانيًا: «إن لم يجر الحدُّ من المخاطر بنجاح، فلن تكون هناك فوائد». إن الفوائد المُحتملة للطاقة النووية قلَّت على نحوٍ كبير بسبب انصهار قلب المُفاعل الجزئي في محطة ثري مايل آيلاند في عام ١٩٧٩، والانبعاثات الكارثية والتفاعلات النووية غير المُسيطَر عليها في تشيرنوبل في عام ١٩٨٦ والانصهارات المُتعدِّدة التي حدثت في فوكوشيما في عام ٢٠١١. لقد حدَّت تلك الكوارث من نموِّ الصناعة النووية. فقد هجرت إيطاليا الطاقة النووية في عام ١٩٩٠، وأعلنت كلٌّ من بلجيكا وألمانيا وإسبانيا وسويسرا عن نيتها فعل ذلك. ومنذ عام ١٩٩٠، بلغ المعدل العالمي لإنشاء المحطات النووية نحو عُشر ما كان عليه قبل كارثة تشيرنوبل.
(٢-٣) السكوت
إذا تعامل المجتمع مع هذه التقنيات على نحوٍ أساسي بخوف وشك، فستحدث عثرات من شأنها أن تُبطئ من تطوُّر الذكاء الاصطناعي أو تجعله يتمُّ في الخفاء، مما يعوق القيام بالعمل المهم المُتعلق بضمان أمان واعتمادية تقنيات الذكاء الاصطناعي.
عند مُحاولة تعريف العامة وصُنَّاع السياسات بالمخاطر، يكون باحثو الذكاء الاصطناعي في وضعٍ أسوأ مقارنةً بالفيزيائيِّين النوويين. فهؤلاء الفيزيائيون لا يحتاجون إلى تأليف كتبٍ تُوضِّح للعامة أن تَجمُّع كتلةٍ حرجة من اليورانيوم العالي التخصيب قد يُمثِّل خطرًا؛ لأن عواقب ذلك قد تجسَّدت بالفعل في هيروشيما وناجاساكي. فلا يحتاج الأمر إلى مزيدٍ من الجهد لإقناع الحكومات والجهات التمويلية بأن عامل الأمان مُهم في تطوير الطاقة النووية.
(٣) القبلية
في رواية باتلر «إريون»، أدَّى التركيز على مشكلة الغوريلا إلى انقسام سابق لأوانه وخاطئ بين مؤيدي الآلات ومعارضيها. يعتقد مؤيدو الآلات أن خطر هيمنة الآلات محدود أو غير موجود؛ في حين يعتقد مُعارضوها أنه لا يمكن مواجهته ما لم تُدمَّر كل الآلات. يُصبح الصراع قبليًّا، ولا يُحاول أحد حل المشكلة الأساسية المتمثلة في إبقاء البشر الآلات تحت سيطرتهم.
بدرجات مختلفة، تخضع كل المسائل التقنية المهمة في القرن العشرين — الطاقة النووية والكائنات المعدلة وراثيًّا وأنواع الوقود الحفري — للقبلية. في كل مسألة، هناك جانبان، جانب مؤيد وجانب معارض. إن ديناميكيات ونواتج كل منهما كانت مختلفة، لكن أعراض القبلية واحدة: تشويه السمعة وعدم الثقة المتبادَلَين والحجج غير العقلانية ورفض قبول أي نقطة (منطقية) قد تكون في صالح الجانب الآخر. فيسعى الجانب المؤيد للتقنية لإنكار وإخفاء المخاطر، ويصاحب ذلك اتهامات باللودية؛ في حين يرى الجانب المعارض للتقنية أن المخاطر لا يمكن مواجهتها وأن المشكلات غير قابلة للحل. إن أي عضوٍ في الجانب المؤيد للتقنية والذي يكون أمينًا للغاية فيما يتعلق بمشكلةٍ ما يُرى على أنه خائن، وهو أمر مُحزن بوجهٍ خاص؛ نظرًا لأن الجانب المؤيد للتقنية عادة ما يتضمَّن معظم الناس المؤهلَين لحل المشكلة. كما أن عضو الجانب المعارض للتقنية الذي يناقش الحلول المحتملة خائن هو الآخر لأنه يرى أن التقنية نفسها هي مصدر الشر وليس آثارها المحتملة. وبهذه الطريقة، يمكن فقط للأصوات الأكثر تطرفًا — تلك التي يقلُّ بشدة احتمال الاستماع إليها من قبل الجانب الآخر — أن تتحدَّث باسم كل جانب.
في عام ٢٠١٦، دُعيت إلى الذهاب إلى مقر رئيس وزراء بريطانيا للقاء بعض مستشاري ديفيد كاميرون الذي كان رئيس الوزراء حينها. كان هؤلاء المستشارون قلقين من أن الجدل الدائر حول الذكاء الاصطناعي كان على وشك أن يُشبه الجدل الدائر حول الكائنات المُعدَّلة وراثيًّا، الذي أدى في أوروبا إلى ما اعتبره المستشارون تشريعاتٍ سابقة لأوانها ومُقيدة للغاية فيما يتعلق بإنتاج تلك الكائنات وتسميتها. وأرادُوا تجنُّب حدوث نفس الشيء فيما يتعلَّق بالذكاء الاصطناعي. إن لمخاوفهم بعض الوجاهة؛ فالجدل حول الذكاء الاصطناعي أصبح في خطر التحول إلى جدل قبلي؛ أي في تكوين معسكرَين أحدهما مؤيد للذكاء الاصطناعي والآخر معارض له. وسيضر هذا بالمجال لأنه ببساطة من الخطأ أن يعدَّ القلق بشأن المخاطر المتضمنة في الذكاء الاصطناعي المتطور موقفًا مُعاديًا للذكاء الاصطناعي. فالفيزيائي القلق بشأن مخاطر الحرب النووية أو خطر انفجار مفاعل نووي سيئ التصميم ليس «مُعاديًا للفيزياء». والقول بأنَّ الذكاء الاصطناعي سيكون قويًّا بالقدر الكافي بحيث يكون له تأثير عالمي ثناءٌ على المجال وليس هجومًا عليه.
من المهم أن يعترف مجتمع الذكاء الاصطناعي بوجود مخاطر ويعمل على الحدِّ منها. إن المخاطر، إلى الحدِّ الذي نفهمُه عنها، ليست محدودةً ولا صعبًا منعُها. نحن نحتاج لبذل قدْر كبير من الجهد لتجنُّبها، بما في ذلك إعادة تشكيل وإعادة بناء أسس الذكاء الاصطناعي.
(٤) ألا يمكننا فقط أن …؟
(٤-١) … نوقف تشغيل الآلات؟
إن الكثير من الناس، بما فيهم أنا، بمجرد أن يفهموا الفكرة الأساسية للخطر الوجودي — سواء في شكل مُشكلة الغوريلا أو مشكلة الملك ميداس — سيبدءون على الفور في البحث عن حلٍّ سهل. في الغالب، أول شيء سيطرأ على ذهنهم هو إيقاف تشغيل الآلات. على سبيل المثال، آلان تورينج نفسه، كما ذكرنا آنفًا، يتكهَّن بأننا يُمكن أن «نُبقي الآلات في وضعٍ تابع لنا، على سبيل المثال بإيقاف تشغيلها في اللحظات الحاسمة».
هذا لن يجدي، للسبب البسيط المُتمثِّل في أن الكيان الخارق الذكاء سوف «يفكر في تلك الاحتمالية»، ويتَّخذ خطواتٍ لمنعها. وسيفعل هذا ليس لأنه يُريد البقاء والاستمرار، ولكن لأنه يسعى إلى تحقيق الهدف الذي ندمجه فيه ويعرف أنه إن فشل في ذلك فسيُوقف تشغيله.
هناك بعض النُّظم التي خضعت للدراسة والتي في الواقع لا يُمكن إيقاف تشغيلها دون تدمير جانب كبير من ثمار حضارتنا. إنها النُّظُم المُنفذة على هيئة ما يُسمى بالعقود الذكية في سلسلة الكتل (البلوك تشين). إن «سلسلة الكتل» تُتيح التوزيع الواسع النطاق للقُدرة الحوسبية وحفظ السجلات اعتمادًا على التشفير؛ إنها مُصمَّمة بوجهٍ خاص بحيث لا يُمكن حذف أي عنصر بيانات أو إيقاف تنفيذ أي عقدٍ ذكي دون التحكم بالأساس في عددٍ كبير للغاية من الآلات وإلغاء السلسلة، مما قد يؤدِّي بالتبعية إلى تدمير جزءٍ كبير من الإنترنت و/أو النظام المالي. إنه لمحلُّ نزاعٍ التساؤل ما إذا كانت البراعة غير العادية سمةً مُبتكرة أم عيبًا. إنها بالتأكيد أداة يُمكن أن يستخدمها أي نظام ذكاء اصطناعي خارق لحماية نفسه.
(٤-٢) … نقيد الآلات؟
لسوء الحظ، تُوجَد بعض الصعوبات المهمَّة. أولًا: إن نظام الذكاء الاصطناعي الخاص بأوراكل سيكون على الأقل مُفيدًا في فهم الجوانب الفيزيائية لعالَمه وأصوله — الموارد الحاسوبية ونمط تشغيلها والكيانات الغامضة التي شكلت مخزونه من المعلومات وتطرح عليه أسئلة الآن — كما هو الحال بالنسبة لنا فيما يتعلق بفهم عالمنا. ثانيًا: إذا كان الهدف من نظام الذكاء الاصطناعي الخاص بأوراكل هو تقديم إجاباتٍ دقيقة على الأسئلة في قدرٍ معقُول من الوقت، فسيكون لديه الدافع للخروج من القفص الذي هو فيه لاكتساب المزيد من الموارد الحاسُوبية والتحكُّم في مُوجِّهي الأسئلة إليه بحيث يسألونه فقط أسئلةً بسيطة. وأخيرًا، نحن لم نبتكِر بعدُ نظام حماية آمنًا ضد تدخُّل البشر العاديين، فضلًا عن الآلات الخارقة.
أعتقد أنه «ربما» تكون هناك حلول لبعض هذه المُشكلات، وخاصةً إذا قيَّدنا نُظُم الذكاء الاصطناعي الخاصة بأوراكل بحيث تكون آلات حاسبة منطقية أو بايزية جيِّدة على نحوٍ واضح. هذا يعني أننا يمكن أن نُصرَّ على أن الخوارزمية يمكن أن تنتج فقط نتيجةً تُتيحها المعلومات المُعطاة، ويمكننا التحقُّق رياضيًّا من تحقيق الخوارزمية لهذا الشرط. لكن هذا لا يحلُّ مشكلة التحكُّم في العملية التي ستُحدِّد «أي» العمليات الحسابية المنطقية أو البايزية التي سيتمُّ إجراؤها، من أجل الوصول إلى أقوى نتيجةٍ مُحتملة بأسرع ما يُمكن. ولأن تلك العملية لديها دافع للتفكير بسرعة، فإن لديها دافعًا لاكتساب موارد حاسوبية بالطبع للحفاظ على وجودها.
في عام ٢٠١٨، عقد مركز الذكاء الاصطناعي المُتوافق مع البشر التابع لجامعة كاليفورنيا ببيركلي ورشة عمل طرحنا فيها السؤال الآتي: «ماذا ستفعل إذا كنتَ تعرف على وجه اليقين أن الذكاء الاصطناعي الخارق سيتحقَّق في غضون عقد؟» كانت إجابتي هي إقناع المُطوِّرين أن يُؤجِّلوا بناء الكيان الذكي العام — ذلك الذي يُمكنه اختيار أفعاله في العالم الواقعي — ويبنُوا بدلًا منه نظام ذكاء اصطناعي خاصًّا بأوراكل. وفي تلك الأثناء، سنعمل على حلِّ المُشكلة بجعل نظم الذكاء الاصطناعي الخاصة بأوراكل آمنةً على نحوٍ مُثبت إلى أقصى حدٍّ مُمكن. وإمكانية نجاح تلك الاستراتيجية ترجع إلى أمرَين؛ أولًا: ستبلُغ القيمة المالية لنظام الذكاء الاصطناعي الخارق الخاص بأوراكل تريليونات الدولارات، مما قد يجعلُ المُطوِّرين على استعدادٍ لقبول هذا القيد؛ وثانيًا: التحكم في نظم الذكاء الاصطناعي الخاصة بأوراكل أسهل على نحوٍ شبه مؤكَّد من التحكُّم في كيانٍ ذكي عام، لذا، ستكون لدَينا فرصة أفضل لحل المشكلة خلال العقد.
(٤-٣) … نعمل في فِرَقٍ يتعاون فيها البشر والآلات؟
في حين أن أحد المُتهكِّمين قد يُشير إلى أن هذه مجرد خدعة دعائية لتيسير عملية حذف الموظفين البشريِّين من قوائم عملاء الشركات، فأنا أعتقد أن هذا يُحرك الأمر إلى الأمام قليلًا. إن الفِرَق التعاونية المُكوَّنة من البشر والآلات الذكية لهي في واقع الأمر هدف مرغوب فيه. لكن من المعروف أن أي فريق لن يكون ناجحًا إلا إذا كانت أهداف أعضائه مُتوافقة، لذا، فإن التأكيد على الفِرَق التعاونية المُكوَّنة من البشر والآلات الذكية يُبرز الحاجة إلى حلِّ المشكلة الأساسية المتعلقة بتوفيق القيمة. وبالطبع، إبراز المشكلة يختلف عن حلها.
(٤-٤) … نندمج مع الآلات؟
نحن سنندمج معها مباشرة، وسنُصبح آلات ذكية. … وعندما نصلُ إلى أواخر ثلاثينيات أو أربعينيات القرن الحادي والعشرين، سيُصبح تفكيرنا غير بيولوجي على نحوٍ غالب، والجزء غير البيولوجي سيكون في النهاية ذكيًّا للغاية وستكون لديه قدرات عالية بحيث يُمكنه نمذجة ومُحاكاة وفهم الجزء البيولوجي على نحوٍ كامل.
إن حقَّقنا تكافُلًا كاملًا، فلن تكون الآلة الذكية «كيانًا آخر»؛ ستكون هي أنت و[ستكون لها] علاقة بالقشرة الدماغية الخاصة بك تُماثل علاقة قشرتك الدماغية بنظامك الطرفي. … سيكون لدَينا الاختيار ما بين أن يجري تجاهُلنا ونُصبح فعليًّا بلا فائدة أو أشبه بحيوان أليف — مثل قطٍّ منزلي أو ما شابه — أو نصِل في النهاية إلى طريقةٍ يُمكن من خلالها أن نتكافل مع الآلات الذكية ونندمج معها.
إن شركة نيورالينك التي أسسها ماسك تعمل على تطوير جهازٍ يُسمَّى «الرابط العصبي» والذي يقوم على تقنيةٍ جرى وصفها في سلسلة روايات «الثقافة» التي كتبها إين بانكس. إن الهدف هو الربط على نحوٍ فعَّال ودائم بين القشرة الدماغية والشبكات والنظم الحاسوبية الخارجية. لكن هناك عقبتان فنِّيتان أساسيتان؛ أولًا: صعوبات الربط بين الجهاز الإلكتروني والنسيج البشري، وإمداده بالطاقة، وربطه بالعالَم الخارجي؛ وثانيًا: حقيقة أننا لا نفهم تقريبًا شيئًا عن التنفيذ العصبي للمستويات الأعلى من المعرفة في الدماغ، لذا، نحن لا نعرف أين سنربط الجهاز وعمليات المعالجة التي يجب أن يقوم بها.
بصرف النظر عن مدى الجدوى التقنية لتلك الأفكار، يجب على المرء أن يسأل إن كان هذا التوجُّه يُعدُّ أفضل مستقبل ممكن للبشرية أم لا. إن احتاج البشر إلى جراحة في الدماغ فقط لمواجهة التهديد الذي تفرضه التقنيات التي ابتكروها، فربما ارتكبنا خطأً ما في موضعٍ ما أثناء العملية.
(٤-٥) … نتجنَّب دمج أهداف بشرية؟
لا يُوجد سبب لدى الآلات الذكية لامتلاك غرائز خاصة بالحفاظ على الذات أو غيرة أو ما إلى ذلك. … فهي لن تكون لديها تلك «العواطف» المُدمِّرة ما لم ندمجها فيها. وأنا لا أفهم سبب رغبتنا في فعل ذلك.
يُسقط أصحاب السيناريوهات التشاؤمية فيما يتعلق باستخدام الذكاء الاصطناعي فكرة الذَّكَر المُهيمن الضيقة الأفق على مفهوم الذكاء. فهم يفترضُون أن الروبوتات الذكية إلى حدٍّ خارق ستُطور أهدافًا مثل التخلُّص من أسيادها أو السيطرة على العالم. … من الغريب أن الكثير من هؤلاء لا يرَون احتمالية أن الذكاء الاصطناعي سيتطور طبيعيًّا على نحوٍ أُنثوي؛ إذ سيكون قادرًا على نحوٍ كامل على حلِّ المشكلات، لكن دون أن تكون لدَيه أي رغبة في قتل الأبرياء أو السيطرة على الحضارة.
كما أوضحنا من قبل في النقاش الخاص بالأهداف الأداتية، لا يهم ما إذا كنا ندمج «عواطف» أو «رغبات» مثل الحفاظ على الذات أو امتلاك الموارد أو اكتشاف المعرفة أو، في الحالة المتطرفة، السيطرة على العالم. إن الآلة ستمتلك تلك العواطف على أيِّ حال، باعتبارها أهدافًا فرعية لأي هدفٍ ندمجه فيها، وبصرف النظر عن جنسها. فبالنسبة إلى أي آلة، الموت ليس سيئًا في حدِّ ذاته. لكن يجب تجنُّبه لأنه من الصعب جلب فنجان القهوة إذا كنت ميتًا.
هناك حلٌّ أكثر تطرُّفًا؛ وهو تجنُّب دمج أي أهداف في الآلة. ربما تقول إن المشكلة تكون هكذا قد حُلت. للأسف، الأمر ليس بسيطًا على هذا النحو. فبدون أهداف، لا يُوجَد أي ذكاء: لا يُوجَد اختلاف بين أي فعل والآخر، وستكون الآلة أشبه بمُولِّد أعداد عشوائية. وبدون أهداف، فلن يكون أيضًا هناك سبب للآلة لتفضيل جنَّة البشر على كوكبٍ تحوَّل إلى بحر من مشابك الورق (وهو سيناريو وُصف على نحوٍ مُفصَّل من قِبَل نيك بوستروم). في الواقع، قد تكون النتيجة الأخيرة مثاليةً لبكتيريا ثايوباسيلس فيراكسدانز الآكلة للحديد. ففي غياب مفهومٍ ما عن أهمية التفضيلات البشرية، على أي أساس يمكن القول بأن تلك البكتيريا على خطأ؟
يُوجَد شكل مختلف من فكرة «تجنُّب دمج الأهداف» والذي يتمثَّل في مفهوم أن النظام الذكي بالقدر الكافي بالضرورة سيُطوِّر، نتيجةً لذكائه، الأهداف «الصحيحة» من تلقاء نفسه. في الغالب، مُناصرو هذا المفهوم مُعجبون بالنظرية القائلة بأن الأشخاص ذوي الذكاء الأكبر يميلون إلى أن تكون لديهم أهداف غيرية ونبيلة أكثر؛ وهو رأيٌ قد يكون مُرتبطًا بمفهوم المؤيدين لذواتهم.
إن الذكاء والأهداف النهائية مُتعامدان؛ يمكن مبدئيًّا الجمع بين أي مستوى ذكاء وأي هدف نهائي تقريبًا.
إن كلمة «متعامدان» هنا تعني «يكوِّنان زاوية قائمة» بمعنى أن مستوى الذكاء والأهداف يُعدَّان المحورَين اللذين يُحدِّدان أيَّ نظام ذكي، ويُمكننا تغيير أيٍّ منهُما على نحوٍ مُستقل عن الآخر. على سبيل المثال، يُمكن لأي سيارة ذاتية القيادة أن تُعطى أيَّ عُنوانٍ باعتباره وجهتها، كما أن جعل السيارة سائقًا أفضل لا يعني أنها ستبدأ في رفض الذهاب إلى أرقام الشوارع القابلة للقسمة على ١٧. بالإضافة إلى ذلك، من السهل تخيُّل أن أي نظام ذكاء عام يُمكن إعطاؤه أي هدفٍ تقريبًا كي يتبعه؛ بما في ذلك زيادة عدد مشابك الورق أو عدد الأرقام المعروفة لثابت الدائرة. هذه بالضبط هي الطريقة التي تعمل بها نظم التعلم المُعزَّز والأنواع الأخرى من وسائل تحسين المكافأة: تكون الخوارزميات عامة على نحوٍ كامل، وتقبل «أي» إشارة مكافأة. بالنسبة للمهندسين وعلماء الكمبيوتر العاملين في إطار النموذج القياسي، فإن فرضية التعامُد مجرد أمر مُسلَّم به.
إن فكرة أنَّ النُّظم الذكية يمكنها ببساطة مراقبة العالم لاكتساب الأهداف التي يجب تحقيقها تُشير إلى أن النظام الذكي بالقدر الكافي سيتخلَّى على نحوٍ طبيعي عن هدفه الأساسي من أجل الهدف «الصحيح». من الصعب إدراك لماذا سيفعل أيُّ كيانٍ عقلاني ذلك. بالإضافة إلى ذلك، فإن تلك الفكرة تفترض مُسبقًا أن هناك هدفًا «صحيحًا» في العالم؛ إن هذا الهدف يجب أن يكون هدفًا تتفق عليه أنواع البكتيريا الآكلة للحديد والبشر وكل الأجناس الأخرى، وهو أمر صعب تخيُّله.
لكن هناك بعض النقاط المُفيدة فيما قاله كل من بروكس وبينكر. يبدو بالفعل أمرًا أحمق «بالنسبة إلينا»، على سبيل المثال، أن تُغيِّر الآلة لون السماء باعتبار ذلك أثرًا جانبيًّا لاتباع هدفٍ آخر، مع تجاهل العلامات الواضحة على عدم رضا البشر عن تلك النتيجة. إنه يبدو أمرًا أحمق بالنسبة إلينا؛ لأننا مُعتادون على ملاحظة عدم الرضا البشري و(غالبًا) يكون لدَينا الدافع لتجنُّب حدوثه، حتى إن لم نكن مُدركين على نحوٍ مُسبق أن الأشخاص ذوي الصلة يهتمون بلون السماء. هذا يعني أولًا أن البشر يهتمون بتفضيلات غيرهم من البشر؛ وثانيًا أنهم لا يعرفون كل هذه التفضيلات. في الفصل القادم، سأُحاجج بأن هاتَين السمتَين، عند دمجهما في إحدى الآلات، قد يوفران بدايةً لحلٍّ لمشكلة الملك ميداس.
(٥) عَود على بدء
قدَّم هذا الفصل نبذة مختصرة عن جدلٍ دائر في المجتمع العلمي الواسع النطاق، وهو جدل بين من يعتقد بوجود مخاطر للذكاء الاصطناعي ومن يتشكَّك في ذلك. لقد دار هذا الجدل بين جنبات الكتب والمدوَّنات والأبحاث الأكاديمية والحلقات النقاشية والحوارات الإعلامية والتغريدات والمقالات الصحفية. ورغم الجهود الجبارة ﻟ «المُتشكِّكين» — هؤلاء الذين يرَون أن مخاطر الذكاء الاصطناعي معدومة — فإنهم قد فشلوا في تحديد السبب في أن نُظُم الذكاء الاصطناعي الخارقة ستبقى بالضرورة تحت سيطرة البشر؛ كما أنهم حتى لم يُحاولوا تحديد السبب في أن تلك النظم لن تظهر للوجود أبدًا.
إن موقف «المُتشكِّكين» يبدو أنه يتمثَّل في أنه رغم أننا يجب على الأرجح أن نجعل مجموعة من الباحثين البارعين يبدءون العمل على الجوانب الأوَّلية للمشكلة، فإننا يجب ألا نفزع أو نبدأ في محاولة وقف أبحاث الذكاء الاصطناعي.
إن «المؤمنين» بوجود مخاطر للذكاء الاصطناعي، على الجانب الآخر، يُصرُّون على أننا يجب ألا نفزع أو نبدأ في محاولة وقف أبحاث الذكاء الاصطناعي، رغم أننا يجب على الأرجح أن نجعل مجموعة من الباحثين البارعين يبدءون العمل على الجوانب الأوَّلية للمشكلة.
على الرغم من أنني سأكون سعيدًا إن خرج علينا المُتشكِّكون باعتراض غير قابلٍ للتفنيد، ربما في شكل حلٍّ بسيط وفعَّال (وآمن) لمشكلة التحكم الخاصة بالذكاء الاصطناعي، فأنا أعتقد أنه من المُحتمل جدًّا ألا يحدث هذا، مثلما هو الحال بالنسبة إلى إيجاد حلٍّ بسيط وفعال للأمن الإلكتروني أو طريقة بسيطة وفعالة لتوليد طاقة نووية دون أيِّ مخاطر. وبدلًا من استمرار مسلسل السقوط في مُستنقع السباب القبلي والإحياء المُتكرِّر للحُجج القابلة للتفنيد، يبدو من الأفضل، كما قال ألكسندر، أن نبدأ العمل على بعض الجوانب الأولية للمشكلة.
لقد سلَّط الجدلُ الدائرُ الضوء على المُعضلة التي نواجهها: إذا أنشأنا آلاتٍ تسعى إلى التحقيق الأمثل لأهداف مُعينة، فيجب أن تكون الأهداف التي ندمجها في الآلات مُتوافقةً مع ما نُريد، لكننا لا نعرف كيف نُحدِّد الأهداف البشرية على نحوٍ كامل وصحيح. لحُسن الحظ، هناك حل وسط.