أهي حقًّا مجرد آلات؟
التشكيك في المكانة الأخلاقية للذكاء الاصطناعي: الوكالة الأخلاقية واكتساب المكانة الأخلاقية
إحدى القضايا التي أُثيرَت في الفصل السابق تتعلَّق بما إذا كان غير البشر مُهمِّين أيضًا. يعتقد الكثيرون اليوم أن الحيوانات مُهمَّة من الناحية الأخلاقية. ولكن لم يكُن الأمر كذلك دائمًا. على ما يبدو، كنَّا مُخطئين في الماضي بشأن الحيوانات. فإذا كان الكثيرون اليوم يعتقدون أن الآلات المدعومة بالذكاء الاصطناعي مجرد آلات، فهل يرتكِبون خطأً مُماثلًا؟ هل تستحِقُّ الآلات المدعومة بالذكاء الاصطناعي الفائقة الذكاء مكانةً أخلاقية؟ هل ينبغي أن نُعطيها حقوقًا؟ أم إنه من الخطورة بمكانٍ أن نُفكِّر حتى في مسألة ما إذا كانت الآلات يُمكن أن تحظى بمكانةٍ أخلاقية؟
إحدى الطرق لمناقشة ما هو الذكاء الاصطناعي وما يمكن أن يُصبح عليه هي السؤال عن المكانة الأخلاقية للذكاء الاصطناعي. ونحن هنا نتطرَّق إلى أسئلةٍ فلسفية مُتعلِّقة بالذكاء الاصطناعي، ليس عبر الميتافيزيقا أو الإبستمولوجيا أو تاريخ الأفكار، ولكن عبر فلسفة الأخلاق. يمكن أن يُشير مصطلح «المكانة الأخلاقية» (ويُسمى أحيانًا «الأهمية الأخلاقية») إلى نوعَين من الأسئلة. الأول يتعلَّق بما يُمكِن للذكاء الاصطناعي القيام به من الناحية الأخلاقية؛ بعبارةٍ أخرى، ما إذا كان يمكن أن يتمتَّع بما يُطلق عليه الفلاسفة «الوكالة الأخلاقية»، وإذا كان الأمر كذلك، فهل يتمتَّع بالوكالة الأخلاقية الكامِلة؟ ماذا يعني هذا؟ يبدو أن أفعال الذكاء الاصطناعي اليوم لها بالفعل عواقِب أخلاقية. سيتَّفق معظم الناس على أن لدى الذكاء الاصطناعي شكلًا «ضعيفًا» من أشكال الوكالة الأخلاقية بهذا المعنى، والذي يُشبِه، على سبيل المثال، مُعظم السيارات اليوم؛ إذ يمكن أن يكون للأخيرة أيضًا عواقِب أخلاقية. ولكن إذا سلَّمنا بأن الذكاء الاصطناعي يزداد ذكاءً واستقلالًا، فهل يمكن أن يتمتَّع بشكلٍ أقوى من أشكال الوكالة الأخلاقية؟ هل يجِب أن يتم منحُه أو سيتطوَّر لدَيه بعض القدرة على التفكير الأخلاقي والقدرة على إصدار الأحكام واتخاذ القرارات؟ على سبيل المثال: هل يُمكن وهل يجب أن نعتبر السيارات الذاتية القيادة التي تستخدِم الذكاء الاصطناعي ذات وكالة أخلاقية؟ هذه الأسئلة تتعلَّق بأخلاقيات الذكاء الاصطناعي، بمعنى أنها تتطرَّق إلى ماهية القدرات الأخلاقية التي يمكن أو ينبغي أن يتمتَّع بها الذكاء الاصطناعي؟ ولكن الأسئلة المُتعلقة ﺑ «المكانة الأخلاقية» يمكن أيضًا أن تُشير إلى كيف ينبغي أن نُعامل الذكاء الاصطناعي. هل الذكاء الاصطناعي «مجرد آلة»، أم أنه يستحق شكلًا من أشكال الاحترام الأخلاقي؟ هل يجب علينا مُعاملته بطريقةٍ مختلفة عن الطريقة التي نتعامل بها مثلًا مع آلة التحميص أو المغسلة؟ هل يجب أن نمنح حقوقًا لكيانٍ صناعي ذكي للغاية، إذا تم تطوير مثل هذا الكيان يومًا ما، حتى لو لم يكُن بشريًّا؟ هذا ما يُطلِق عليه الفلاسفة السؤال المتعلق ﺑ «اكتساب المكانة الأخلاقية». هذا السؤال يتعلق بأخلاقيات الذكاء الاصطناعي بذاته، ولكنه يتعلَّق بأخلاقياتنا تجاهه. هنا يكون الذكاء الاصطناعي موضعَ اهتمامٍ من الناحية الأخلاقية، بدلًا من كونه وكيلًا أخلاقيًّا مُحتملًا في حدِّ ذاته.
هل الذكاء الاصطناعي «مجرد آلة»؟ هل يجب علينا معاملته بطريقةٍ مختلفة عن الطريقة التي نتعامل بها مثلًا مع آلة التحميص أو المغسلة؟
الوكالة الأخلاقية
لنبدأ بالتحدُّث عن سؤال الوكالة الأخلاقية. إذا كان الذكاء الاصطناعي يُمكن أن يُصبح أكثر ذكاءً مما هو عليه اليوم، فيُمكننا أن نفترض أنه يستطيع أن يُطوِّر قدرته على التفكير الأخلاقي وأنه يستطيع أن يتعلَّم كيف يتَّخِذ البشر القرارات بشأن القضايا الأخلاقية. ولكن هل سيكون هذا كافيًا لكي يحظى بالوكالة الأخلاقية الكاملة؛ أي الوكالة الأخلاقية التي يتمتَّع بها الإنسان؟ هذا السؤال ليس خيالًا علميًّا بالكامل. فإذا كنا نعتمِد اليوم على الخوارزميات في اتخاذ بعض قراراتنا، على سبيل المثال في السيارات أو المحاكم، فيبدو أنه سيكون من المُهمِّ أن تكون تلك القرارات سليمةً من الناحية الأخلاقية. ولكن ليس من الواضح ما إذا كانت الآلات يمكن أن تتمتَّع بنفس القدرات الأخلاقية التي يتمتَّع بها البشر. إنها تتمتَّع بالوكالة الأخلاقية بمعنى أنها تقوم بأفعالٍ في العالَم، وهذه الأفعال لها عواقب أخلاقية. على سبيل المثال، قد تتسبَّب سيارة ذاتية القيادة في حادث، أو قد يوصي الذكاء الاصطناعي بسجن شخص معيَّن. هذه السلوكيات والخيارات ليست حيادية من الناحية الأخلاقية؛ إذ إن لها عواقب أخلاقية واضحة على الأشخاص ذوي الصلة. ولكن للتعامُل مع هذه المشكلة، هل يجب منح الوكالة الأخلاقية للذكاء الاصطناعي؟ وهل يمكن أن يتمتَّع بوكالة أخلاقية كاملة؟
لهذه الأسباب، يمكن أن نرفض فكرة تمتُّع الذكاء الاصطناعي بوكالة أخلاقية كاملة رفضًا تامًّا، أو يمكن أن نتَّخِذ موقفًا وسطًا: يجب أن نمنح الذكاء الاصطناعي نوعًا من القواعد الأخلاقية، ولكن ليس كل القواعد الأخلاقية. يستخدم وينديل فالاخ وكولين ألين مُصطلح «القواعد الأخلاقية الوظيفية» (٢٠٠٩، ٣٩). تحتاج أنظمة الذكاء الاصطناعي إلى بعض القدرة على تقييم العواقب الأخلاقية لأفعالِها. والمنطق وراء هذا القرار واضح في حالة السيارات ذاتية القيادة: ستتورَّط السيارة على الأرجح في مواقف تتطلَّب اتخاذ خيارٍ أخلاقي ولكن لا يوجَد وقت للاستعانة بالبشر لاتخاذ القرار أو انتظار التدخُّل البشري. وفي بعض الأحيان، تكون هذه الخيارات عبارة عن معضلة. يتحدَّث الفلاسفة عن معضلة عربة الترام، وهي تجربة فكرية تتعلق بسَير عربة ترام على مسار سكك حديدية ويجب عليك الاختيار بين عدم فِعل أي شيء، الأمر الذي سيؤدِّي إلى مَوت خمسة أشخاص مُقيَّدين بالمسار، أو سحب الرافعة وإرسال العربة إلى مسارٍ آخَر، حيث يكون هناك شخصٌ واحد مقيَّد به ولكنه شخص تعرِفه. ما هو الشيء السليم أخلاقيًّا الذي يتوجَّب عليك القيام به؟ بالمثل، يقول أنصار هذا النهج إن السيارة الذاتية القيادة قد تُضطَرُّ إلى اتخاذ خيار أخلاقي، على سبيل المثال، بين قتْل المشاة العابرين على الطريق والاصطدام بحائط، مما يؤدي إلى موت السائق. ما الخيار الذي يجِب أن تتَّخِذه السيارة؟ يبدو أنه سيتعين علينا اتخاذ هذه القرارات الأخلاقية (مُسبقًا) والتأكُّد من تغذية السيارات بها من قِبَل المُطوِّرين. أو ربما نحتاج إلى بناء سيارات مزوَّدة بالذكاء الاصطناعي تتعلَّم من اختيارات البشر. ومع ذلك، قد يُثار سؤال عما إذا كان إعطاء الذكاء الاصطناعي قواعد هو وسيلة جيدة لتمثيل الأخلاق البشرية، هذا إن كان من المُمكن «تمثيل» الأخلاق من الأساس، وإذا كانت مُعضلة عربة الترام تبين شيئًا جوهريًّا في الحياة والتجربة الأخلاقية. أو، من منظورٍ مختلف تمامًا، يمكن للمرء أن يتساءل عما إذا كان البشر في الواقع قادِرين على اتخاذ قرارات أخلاقية بكفاءة. ولماذا نُقلد أخلاق البشر من الأساس؟ إن مُناصري تجاوز الإنسانية، على سبيل المثال، يرَون أن الذكاء الاصطناعي سوف يتمتع بأخلاقٍ فائقة لأنه سيكون أكثر ذكاءً منَّا.
هذا التشكيك في التركيز على الإنسان يُوجِّهنا إلى موقفٍ آخَر، لا يتطلَّب وكالةً أخلاقية كاملة ويُحاول ترك الموقف الأخلاقي المُتمحوِر حول الإنسان. وقد دافع لوتشيانو فلوريدي وجيه دبليو ساندرز (٢٠٠٤) عن أخلاقٍ لا عقل لها وغير مُستندة إلى خصائص يمتلكها البشر. ويُمكننا جعل الوكالة الأخلاقية تعتمِد على التمتُّع بمستوًى كافٍ من التفاعل والاستقلال والقدرة على التكيُّف وكذلك القدرة على القيام بتصرُّفات ذات طابع أخلاقي. ووفقًا لهذه المعايير، فإن كلب البحث والإنقاذ يتمتَّع بالوكالة الأخلاقية، ولكن كذلك روبوت الذكاء الاصطناعي الذي يتولَّى تصفية الرسائل البريدية غير المرغوب فيها. وبالمِثل، يمكن تطبيق معايير لا تتمحوَر حول الإنسان لمنح الروبوتات الوكالة الأخلاقية، كما اقترح جون سالينز (٢٠٠٦): إذا كان الذكاء الاصطناعي مُستقلًّا عن المُبرمجين ويمكننا تفسير سلوكه بأن نعزو إليه القصد الأخلاقي (مثل قصد فعل الخير أو الشر)، وإذا نمَّ سلوكه عن فَهم مسئوليته تجاه وكلاء أخلاقِيِّين آخرِين، فإن هذا الذكاء الاصطناعي يتمتَّع بالوكالة الأخلاقية. ومن ثَم، فإن هذه الآراء لا تتطلَّب الوكالة الأخلاقية الكاملة إذا كان ذلك يعني الوكالة الأخلاقية البشرية، ولكنها تُعرِّف الوكالة الأخلاقية بطريقةٍ تكون من حيث المبدأ مُستقلةً عن الوكالة الأخلاقية الكاملة للبشر والقُدرات البشرية المطلوبة لذلك. ومع ذلك، هل ستكون مثل هذه الوكالة الأخلاقية الاصطناعية كافيةً إذا حُكِمَ عليها وفقًا للمعايير الأخلاقية البشرية؟ عمليًّا، يكمن القلق، على سبيل المثال، في أن السيارات ذاتية القيادة قد لا تُطبق القواعد الأخلاقية الكافية. أما من حيث المبدأ، فيكمن القلق في أننا نبتعِد كثيرًا عن الأخلاق البشرية هنا. ويعتقد الكثيرون أن الوكالة الأخلاقية مُرتبطة ويجب أن تكون مرتبطة بالإنسانية والشخصية. وهؤلاء لا يميلون إلى اعتناق أفكار مؤيِّدي ما بعد الإنسانية أو مؤيدي تجاوز الإنسانية.
اكتساب المكانة الأخلاقية
«إساءة معاملة» الذكاء الاصطناعي خطأ؛ ليس لأن ثمة ضررًا سيلحق بالذكاء الاصطناعي، ولكن لأن طابعنا الأخلاقي سيتأذَّى إذا ما فعلنا ذلك.
علاوةً على ذلك، نظرًا إلى أن مثل هذه الظروف مُتغيرة تاريخيًّا — فكر مرة أخرى في كيفية مُعاملتنا وتفكيرنا بشأن الحيوانات — ربما تكون هناك حاجة إلى اتخاذ سبُل الحيطة الأخلاقية قبل «تحديد» المكانة الأخلاقية للذكاء الاصطناعي بشكلٍ عام أو لآلة مُعيَّنة مزوَّدة بالذكاء الاصطناعي. ولماذا حتى نتحدَّث عن الذكاء الاصطناعي بشكلٍ عام أو بشكلٍ مجرد؟ يبدو أن هناك شيئًا خاطئًا في الإجراء الأخلاقي لمنح المكانة الأخلاقية: فمن أجل الحُكم على كيانٍ ما، نُخرج هذا الكيان من سياق علاقاته، وقبل أن نحصل على نتيجة إجرائنا الأخلاقي، نتعامَل معه بطريقةٍ رتبوية، سلطوية، مُهيمنة، ككيانٍ نتخذ نحن البشر المُتفوِّقين قرارًا بشأنه. ويبدو أننا قبل حتى أن نفكر في مكانته الأخلاقية، قد وضعناه بالفعل في منزلةٍ مُعيَّنة وربما أيضًا مارَسْنا عليه العنف بمعاملته ككائنٍ نتَّخذ قرارات بشأنه، ونصَّبنا أنفسنا آلهةً محورية قوية عالمة على الأرض يحقُّ لها منح المكانة الأخلاقية للكائناتِ الأخرى. لقد جعلنا أيضًا جميع السياقات والملابسات الاجتماعية غير مَرئية. كما في حالة مُعضلة عربة الترام، لقد اختزلنا الأخلاق في صورة كاريكاتيرية. باستخدام مثل هذا التفكير، يبدو أن فلاسفة الأخلاق يفعلون ما اتُّهِم الفلاسفةُ المؤيدون لدريفوس الباحثين في مجال الذكاء الاصطناعي الرمزي بفِعله: تشكيل وتجريد ثروة من التجربة الأخلاقية والمعرفة الأخلاقية على حساب التخلِّي عما يجعلنا بشرًا، وليس ذلك فحسب، بل وعلى حساب التضحية بمسألة المكانة الأخلاقية لغير البشر. وبصرف النظر عن المكانة الأخلاقية الفعلية للآلات المزوَّدة بالذكاء الاصطناعي، كما لو كان هذا يمكن تحديده بشكلٍ مُستقل تمامًا عن ذاتية الإنسان، فمن الأهمية بمكانٍ أن نفحص توجُّهنا الأخلاقي ومشروع التفكير الأخلاقي المجرد نفسه، بأسلوب نقدي.
«إساءة معاملة» الذكاء الاصطناعي خطأ؛ ليس لأن ثمة ضررًا سيلحق بالذكاء الاصطناعي، ولكن لأن طابعنا الأخلاقي سيتأذَّى إذا ما فعلنا ذلك.
نحو قضايا أخلاقية أكثر عملية
كما تُظهر المناقشات في هذا الفصل والفصل السابق، فإن التفكير في الذكاء الاصطناعي يُعلِّمنا أشياء أخرى إلى جانب ما نتعلَّمه بشأن الذكاء الاصطناعي. إنه يُعلمنا أيضًا أشياء عن أنفسنا: عن طريقة تفكيرنا، وطريقة تصرُّفنا في الواقع، والطريقة التي ينبغي أن نتعامَل بها مع غير البشر. فإذا نظرنا إلى الأُسس الفلسفية لأخلاقياتِ الذكاء الاصطناعي، نرى خلافات عميقةً حول طبيعة ومستقبل الإنسانية والعلم والحداثة. إن التشكيك في الذكاء الاصطناعيِّ يكشف اللثام عن عالَم مُظلم من الأسئلة النقدية حول المعرفة البشرية والمُجتمع البشري وطبيعة الأخلاق البشرية.
هذه المناقشات الفلسفية أقل بُعدًا وأقل «أكاديمية» مما قد يعتقِد البعض. وستظلُّ تُعاود الظهور أمامنا عندما نتناول، لاحقًا في هذا الكتاب، المزيدَ من المسائل الأخلاقية والقانونية والسياسية الأكثر عمليةً التي يُثيرها الذكاء الاصطناعي. وسرعان ما ستُواجهنا من جديدٍ بمجرَّد أن نُحاول التطرُّق إلى موضوعاتٍ مثل المسئولية والسيارات ذاتية القيادة، أو شفافية تعلُّم الآلة، أو الذكاء الاصطناعي المُتحيز، أو أخلاقيات الروبوتات الجنسية. إذا كانت أخلاقيات الذكاء الاصطناعي تُريد أن تكون أكثر مِن مجرَّد قائمة بالقضايا، فيجب أن يكون لدَيها ما تقوله حول مثل هذه المسائل.
بعد كلِّ ما قيل، حان الوقت الآن للتحوُّل إلى قضايا أكثر عملية. هذه القضايا لا تتعلَّق بالمُشكلات الفلسفية التي يطرحُها الذكاء الاصطناعي العام المُفترض، أو بالمخاطر المتَّصلة بالذكاء الفائق في المستقبل البعيد، أو بالوحوش المخيفة الأخرى التي يخلقها الخيال العلمي. إنها تتعلق بحقائق الذكاء الاصطناعي القائمة بالفعل، والتي هي أقلُّ وضوحًا وربما أقل جاذبية، ولكنها لا تزال شديدة الأهمية. إن الذكاء الاصطناعي في الوقت الحالي لا يأخُذ دور وحش فرانكنشتاين أو الروبوتات المُذهلة المزوَّدة بالذكاء الاصطناعي التي تُهدِّد الحضارة، كما أنه أكثر من مجرد تجربةٍ فكرية فلسفية. الذكاء الاصطناعي يتعلَّق بتقنياتٍ سريةٍ غير مرئية ولكنها مُتغلغلة ومنتشرة وقوية ومتزايدة الذكاء، تلك التقنيات التي تُشكِّل بالفعل حياتنا اليوم. ومن ثَمَّ، فإن أخلاقيات الذكاء الاصطناعي تتعلَّق بالتحديات الأخلاقية التي يُثيرها الذكاء الاصطناعي في الوقت الحالي وفي المُستقبل القريب، كما تتعلق بتأثير هذه التحدِّيات على مجتمعاتنا وديمقراطياتنا الهشَّة. إن أخلاقيات الذكاء الاصطناعي تتعلَّق بحياة الناس وبالسياسة. إنها تتعلق بحاجتنا، كأفرادٍ وكمجتمعات، إلى التعامُل مع القضايا الأخلاقية الآن.