الفصل الرابع

أهي حقًّا مجرد آلات؟

التشكيك في المكانة الأخلاقية للذكاء الاصطناعي: الوكالة الأخلاقية واكتساب المكانة الأخلاقية

إحدى القضايا التي أُثيرَت في الفصل السابق تتعلَّق بما إذا كان غير البشر مُهمِّين أيضًا. يعتقد الكثيرون اليوم أن الحيوانات مُهمَّة من الناحية الأخلاقية. ولكن لم يكُن الأمر كذلك دائمًا. على ما يبدو، كنَّا مُخطئين في الماضي بشأن الحيوانات. فإذا كان الكثيرون اليوم يعتقدون أن الآلات المدعومة بالذكاء الاصطناعي مجرد آلات، فهل يرتكِبون خطأً مُماثلًا؟ هل تستحِقُّ الآلات المدعومة بالذكاء الاصطناعي الفائقة الذكاء مكانةً أخلاقية؟ هل ينبغي أن نُعطيها حقوقًا؟ أم إنه من الخطورة بمكانٍ أن نُفكِّر حتى في مسألة ما إذا كانت الآلات يُمكن أن تحظى بمكانةٍ أخلاقية؟

إحدى الطرق لمناقشة ما هو الذكاء الاصطناعي وما يمكن أن يُصبح عليه هي السؤال عن المكانة الأخلاقية للذكاء الاصطناعي. ونحن هنا نتطرَّق إلى أسئلةٍ فلسفية مُتعلِّقة بالذكاء الاصطناعي، ليس عبر الميتافيزيقا أو الإبستمولوجيا أو تاريخ الأفكار، ولكن عبر فلسفة الأخلاق. يمكن أن يُشير مصطلح «المكانة الأخلاقية» (ويُسمى أحيانًا «الأهمية الأخلاقية») إلى نوعَين من الأسئلة. الأول يتعلَّق بما يُمكِن للذكاء الاصطناعي القيام به من الناحية الأخلاقية؛ بعبارةٍ أخرى، ما إذا كان يمكن أن يتمتَّع بما يُطلق عليه الفلاسفة «الوكالة الأخلاقية»، وإذا كان الأمر كذلك، فهل يتمتَّع بالوكالة الأخلاقية الكامِلة؟ ماذا يعني هذا؟ يبدو أن أفعال الذكاء الاصطناعي اليوم لها بالفعل عواقِب أخلاقية. سيتَّفق معظم الناس على أن لدى الذكاء الاصطناعي شكلًا «ضعيفًا» من أشكال الوكالة الأخلاقية بهذا المعنى، والذي يُشبِه، على سبيل المثال، مُعظم السيارات اليوم؛ إذ يمكن أن يكون للأخيرة أيضًا عواقِب أخلاقية. ولكن إذا سلَّمنا بأن الذكاء الاصطناعي يزداد ذكاءً واستقلالًا، فهل يمكن أن يتمتَّع بشكلٍ أقوى من أشكال الوكالة الأخلاقية؟ هل يجِب أن يتم منحُه أو سيتطوَّر لدَيه بعض القدرة على التفكير الأخلاقي والقدرة على إصدار الأحكام واتخاذ القرارات؟ على سبيل المثال: هل يُمكن وهل يجب أن نعتبر السيارات الذاتية القيادة التي تستخدِم الذكاء الاصطناعي ذات وكالة أخلاقية؟ هذه الأسئلة تتعلَّق بأخلاقيات الذكاء الاصطناعي، بمعنى أنها تتطرَّق إلى ماهية القدرات الأخلاقية التي يمكن أو ينبغي أن يتمتَّع بها الذكاء الاصطناعي؟ ولكن الأسئلة المُتعلقة ﺑ «المكانة الأخلاقية» يمكن أيضًا أن تُشير إلى كيف ينبغي أن نُعامل الذكاء الاصطناعي. هل الذكاء الاصطناعي «مجرد آلة»، أم أنه يستحق شكلًا من أشكال الاحترام الأخلاقي؟ هل يجب علينا مُعاملته بطريقةٍ مختلفة عن الطريقة التي نتعامل بها مثلًا مع آلة التحميص أو المغسلة؟ هل يجب أن نمنح حقوقًا لكيانٍ صناعي ذكي للغاية، إذا تم تطوير مثل هذا الكيان يومًا ما، حتى لو لم يكُن بشريًّا؟ هذا ما يُطلِق عليه الفلاسفة السؤال المتعلق ﺑ «اكتساب المكانة الأخلاقية». هذا السؤال يتعلق بأخلاقيات الذكاء الاصطناعي بذاته، ولكنه يتعلَّق بأخلاقياتنا تجاهه. هنا يكون الذكاء الاصطناعي موضعَ اهتمامٍ من الناحية الأخلاقية، بدلًا من كونه وكيلًا أخلاقيًّا مُحتملًا في حدِّ ذاته.

هل الذكاء الاصطناعي «مجرد آلة»؟ هل يجب علينا معاملته بطريقةٍ مختلفة عن الطريقة التي نتعامل بها مثلًا مع آلة التحميص أو المغسلة؟

الوكالة الأخلاقية

لنبدأ بالتحدُّث عن سؤال الوكالة الأخلاقية. إذا كان الذكاء الاصطناعي يُمكن أن يُصبح أكثر ذكاءً مما هو عليه اليوم، فيُمكننا أن نفترض أنه يستطيع أن يُطوِّر قدرته على التفكير الأخلاقي وأنه يستطيع أن يتعلَّم كيف يتَّخِذ البشر القرارات بشأن القضايا الأخلاقية. ولكن هل سيكون هذا كافيًا لكي يحظى بالوكالة الأخلاقية الكاملة؛ أي الوكالة الأخلاقية التي يتمتَّع بها الإنسان؟ هذا السؤال ليس خيالًا علميًّا بالكامل. فإذا كنا نعتمِد اليوم على الخوارزميات في اتخاذ بعض قراراتنا، على سبيل المثال في السيارات أو المحاكم، فيبدو أنه سيكون من المُهمِّ أن تكون تلك القرارات سليمةً من الناحية الأخلاقية. ولكن ليس من الواضح ما إذا كانت الآلات يمكن أن تتمتَّع بنفس القدرات الأخلاقية التي يتمتَّع بها البشر. إنها تتمتَّع بالوكالة الأخلاقية بمعنى أنها تقوم بأفعالٍ في العالَم، وهذه الأفعال لها عواقب أخلاقية. على سبيل المثال، قد تتسبَّب سيارة ذاتية القيادة في حادث، أو قد يوصي الذكاء الاصطناعي بسجن شخص معيَّن. هذه السلوكيات والخيارات ليست حيادية من الناحية الأخلاقية؛ إذ إن لها عواقب أخلاقية واضحة على الأشخاص ذوي الصلة. ولكن للتعامُل مع هذه المشكلة، هل يجب منح الوكالة الأخلاقية للذكاء الاصطناعي؟ وهل يمكن أن يتمتَّع بوكالة أخلاقية كاملة؟

هناك مواقف فلسفية مُتنوِّعة حيال هذه الأسئلة. يقول بعض الأشخاص إن الآلات لا يمكن أن تتمتَّع أبدًا بالوكالة الأخلاقية. ويرى هؤلاء أن الآلات ليس لدَيها القدرات اللازمة للوكالة الأخلاقية، مثل الحالات العقلية أو الانفعالات أو الإرادة الحرة. ولذلك هناك خطورة في أن نفترِض أنها تستطيع اتخاذ قراراتٍ سليمة أخلاقيًّا وأن نعتمِد عليها في اتخاذ مثل هذه القرارات اعتمادًا كاملًا. على سبيل المثال، قالت ديبورا جونسون (٢٠٠٦) إن أنظمة الكمبيوتر لا تتمتَّع بوكالةٍ أخلاقية خاصة بها: إنها من إنتاج البشر وتُستخدَم من قِبَلهم، والبشر وحدَهم لديهم الحرية والقدرة على التصرُّف واتخاذ القرارات من الناحية الأخلاقية. وبالطريقة نفسها، يمكن للمرء أن يقول إن الذكاء الاصطناعي من إنتاج البشر، وبالتالي يجب أن يكون اتخاذ القرارات الأخلاقية في الممارسات التكنولوجية من اختصاص البشر. على النقيض من ذلك، هناك أولئك الذين يعتقدون أن الآلات يمكن أن تتمتَّع بوكالةٍ أخلاقية كاملة تمامًا مثل البشر. ويزعم الباحثون مثل مايكل وسوزان أندرسون، على سبيل المثال، أنه من حيث المبدأ يمكن، بل يجب، أن تُمنح الآلات نوعًا من الأخلاق البشرية (Anderson and Anderson 2011). ويُمكننا تزويد الذكاء الاصطناعي بالمبادئ، وربما تكون الآلات حتى أفضل من البشر في الوصول إلى القرارات الأخلاقية نظرًا لأنها أكثر عقلانية ولا تنجرف وراء عواطفها. وقد جادل البعض، لدحض هذه الفكرة، بأن القواعد الأخلاقية كثيرًا ما تتضارب (على سبيل المثال، انظر إلى قصص الروبوتات لأسيموف، حيث تتسبَّب القوانين الأخلاقية للروبوتات دائمًا في مشكلات للبشر والروبوتات)، وأن مشروع إنشاء «آلات أخلاقية» من خلال تغذِيَتها بالقواعد يستند إلى افتراضاتٍ خاطئة بخصوص طبيعة الأخلاق. فالأخلاق لا يمكن اختزالها في اتِّباع القواعد، كما أنها ليست مسألة عواطف بشرية فحسب؛ ولكن هذه العواطف قد تكون ضرورية للغاية للحُكم الأخلاقي. فإذا كان الذكاء الاصطناعي العام مُمكنًا على الإطلاق، فإننا لا نُريد نوعًا من «الذكاء الاصطناعي المريض نفسيًّا» أي الذي يتمتَّع بالعقلانية الكاملة ولكنَّه لا يهتمُّ باهتمامات الإنسان لأنه يفتقر إلى المشاعر (Coeckelbergh 2010).

لهذه الأسباب، يمكن أن نرفض فكرة تمتُّع الذكاء الاصطناعي بوكالة أخلاقية كاملة رفضًا تامًّا، أو يمكن أن نتَّخِذ موقفًا وسطًا: يجب أن نمنح الذكاء الاصطناعي نوعًا من القواعد الأخلاقية، ولكن ليس كل القواعد الأخلاقية. يستخدم وينديل فالاخ وكولين ألين مُصطلح «القواعد الأخلاقية الوظيفية» (٢٠٠٩، ٣٩). تحتاج أنظمة الذكاء الاصطناعي إلى بعض القدرة على تقييم العواقب الأخلاقية لأفعالِها. والمنطق وراء هذا القرار واضح في حالة السيارات ذاتية القيادة: ستتورَّط السيارة على الأرجح في مواقف تتطلَّب اتخاذ خيارٍ أخلاقي ولكن لا يوجَد وقت للاستعانة بالبشر لاتخاذ القرار أو انتظار التدخُّل البشري. وفي بعض الأحيان، تكون هذه الخيارات عبارة عن معضلة. يتحدَّث الفلاسفة عن معضلة عربة الترام، وهي تجربة فكرية تتعلق بسَير عربة ترام على مسار سكك حديدية ويجب عليك الاختيار بين عدم فِعل أي شيء، الأمر الذي سيؤدِّي إلى مَوت خمسة أشخاص مُقيَّدين بالمسار، أو سحب الرافعة وإرسال العربة إلى مسارٍ آخَر، حيث يكون هناك شخصٌ واحد مقيَّد به ولكنه شخص تعرِفه. ما هو الشيء السليم أخلاقيًّا الذي يتوجَّب عليك القيام به؟ بالمثل، يقول أنصار هذا النهج إن السيارة الذاتية القيادة قد تُضطَرُّ إلى اتخاذ خيار أخلاقي، على سبيل المثال، بين قتْل المشاة العابرين على الطريق والاصطدام بحائط، مما يؤدي إلى موت السائق. ما الخيار الذي يجِب أن تتَّخِذه السيارة؟ يبدو أنه سيتعين علينا اتخاذ هذه القرارات الأخلاقية (مُسبقًا) والتأكُّد من تغذية السيارات بها من قِبَل المُطوِّرين. أو ربما نحتاج إلى بناء سيارات مزوَّدة بالذكاء الاصطناعي تتعلَّم من اختيارات البشر. ومع ذلك، قد يُثار سؤال عما إذا كان إعطاء الذكاء الاصطناعي قواعد هو وسيلة جيدة لتمثيل الأخلاق البشرية، هذا إن كان من المُمكن «تمثيل» الأخلاق من الأساس، وإذا كانت مُعضلة عربة الترام تبين شيئًا جوهريًّا في الحياة والتجربة الأخلاقية. أو، من منظورٍ مختلف تمامًا، يمكن للمرء أن يتساءل عما إذا كان البشر في الواقع قادِرين على اتخاذ قرارات أخلاقية بكفاءة. ولماذا نُقلد أخلاق البشر من الأساس؟ إن مُناصري تجاوز الإنسانية، على سبيل المثال، يرَون أن الذكاء الاصطناعي سوف يتمتع بأخلاقٍ فائقة لأنه سيكون أكثر ذكاءً منَّا.

هذا التشكيك في التركيز على الإنسان يُوجِّهنا إلى موقفٍ آخَر، لا يتطلَّب وكالةً أخلاقية كاملة ويُحاول ترك الموقف الأخلاقي المُتمحوِر حول الإنسان. وقد دافع لوتشيانو فلوريدي وجيه دبليو ساندرز (٢٠٠٤) عن أخلاقٍ لا عقل لها وغير مُستندة إلى خصائص يمتلكها البشر. ويُمكننا جعل الوكالة الأخلاقية تعتمِد على التمتُّع بمستوًى كافٍ من التفاعل والاستقلال والقدرة على التكيُّف وكذلك القدرة على القيام بتصرُّفات ذات طابع أخلاقي. ووفقًا لهذه المعايير، فإن كلب البحث والإنقاذ يتمتَّع بالوكالة الأخلاقية، ولكن كذلك روبوت الذكاء الاصطناعي الذي يتولَّى تصفية الرسائل البريدية غير المرغوب فيها. وبالمِثل، يمكن تطبيق معايير لا تتمحوَر حول الإنسان لمنح الروبوتات الوكالة الأخلاقية، كما اقترح جون سالينز (٢٠٠٦): إذا كان الذكاء الاصطناعي مُستقلًّا عن المُبرمجين ويمكننا تفسير سلوكه بأن نعزو إليه القصد الأخلاقي (مثل قصد فعل الخير أو الشر)، وإذا نمَّ سلوكه عن فَهم مسئوليته تجاه وكلاء أخلاقِيِّين آخرِين، فإن هذا الذكاء الاصطناعي يتمتَّع بالوكالة الأخلاقية. ومن ثَم، فإن هذه الآراء لا تتطلَّب الوكالة الأخلاقية الكاملة إذا كان ذلك يعني الوكالة الأخلاقية البشرية، ولكنها تُعرِّف الوكالة الأخلاقية بطريقةٍ تكون من حيث المبدأ مُستقلةً عن الوكالة الأخلاقية الكاملة للبشر والقُدرات البشرية المطلوبة لذلك. ومع ذلك، هل ستكون مثل هذه الوكالة الأخلاقية الاصطناعية كافيةً إذا حُكِمَ عليها وفقًا للمعايير الأخلاقية البشرية؟ عمليًّا، يكمن القلق، على سبيل المثال، في أن السيارات ذاتية القيادة قد لا تُطبق القواعد الأخلاقية الكافية. أما من حيث المبدأ، فيكمن القلق في أننا نبتعِد كثيرًا عن الأخلاق البشرية هنا. ويعتقد الكثيرون أن الوكالة الأخلاقية مُرتبطة ويجب أن تكون مرتبطة بالإنسانية والشخصية. وهؤلاء لا يميلون إلى اعتناق أفكار مؤيِّدي ما بعد الإنسانية أو مؤيدي تجاوز الإنسانية.

اكتساب المكانة الأخلاقية

ثمة موضوع آخَر مُثير للجدَل ويتعلَّق باكتساب الذكاء الاصطناعي لمكانةٍ أخلاقية. تخيَّل أن لدَينا ذكاءً اصطناعيًّا فائقًا. هل من المَقبول أخلاقيًّا إيقاف تشغيلِه، أو «قتله»؟ وإذا ما نظرنا عن كثَب إلى الذكاء الاصطناعي الحالي: هل من المقبول ركل كلبٍ آلي مُزود بالذكاء الاصطناعي؟1 إذا كانت الآلات المدعومة بالذكاء الاصطناعي ستكون جزءًا من الحياة اليومية، كما يتوقَّع العديد من الباحثين، فإن مثل هذه الحالات ستظهر بالضرورة وتُثير مسألة كيف يجِب على البشر التصرُّف تجاه هذه الكيانات الاصطناعية. ومع ذلك، ليس علَينا أن ننظُر إلى المُستقبل البعيد أو إلى الخيال العلمي. فقد أظهرت الأبحاث أن الناس في الوقت الحالي يتعاطفون مع الروبوتات ويتردَّدون في «قتلها» أو «تعذيبها» (Suzuki et al. 2015; Darling, Nandy, and Breazeal 2015)، حتى إذا لم تكُن مزوَّدة بالذكاء الاصطناعي. ويبدو أن البشر لا يحتاجون من الكيانات الاصطناعية سوى القليل جدًّا من أجل إضفاء الإنسانية أو الشخصية عليهم والتعاطُف معهم. فإذا أصبحت هذه الكيانات الآن مزودةً بالذكاء الاصطناعي، مما يجعلها أشبَه بالإنسان (أو بالحيوان)، يبدو أن هذا يجعل مسألة إكساب المكانة الأخلاقية أكثر إلحاحًا. على سبيل المثال، ماذا ينبغي أن يكون ردُّ فعلنا تجاه الأشخاص الذين يتعاطفون مع الذكاء الاصطناعي؟ هل هُم مُخطئون؟
ربما يكون قول إن الآلات المدعومة بالذكاء الاصطناعي هي مجرد آلات وإن الأشخاص الذين يتعاطفون معها ببساطةٍ مُخطئون في تقديرهم للأمور وفي عواطفهم وتجربتِهم الأخلاقية هو الأقرب إلى البديهة. إذ يبدو لنا، عند النظرة الأولى، أننا لا ندين بشيءٍ إلى الآلات. فهي أشياء، وليست أشخاصًا. ويُفكر الكثير من الباحِثين في مجال الذكاء الاصطناعي بهذا المنطق. على سبيل المثال، ترى جوانا برايسون أن الروبوتات هي أدوات ومُمتلكات وأنه ليس لدَينا أي التزاماتٍ تجاهها (Bryson 2010). قد يتفق الذين يتبنَّون هذا الموقف بشدَّة على أنه إذا كان لدى الآلات المدعومة بالذكاء الاصطناعي القُدرة على الوعي، ولدَيها حالات عقلية، وما إلى ذلك، فإننا مُطالبون بأن نمنحها مكانةً أخلاقية. ولكنهم سيقولون إن هذا الشرط لا يتحقَّق اليوم. وكما رأينا في الفصول السابقة، قد يقول البعض إنه لن يتحقَّق أبدًا؛ ويقول آخَرون إنه يمكن تحقيقُه من حيث المبدأ، ولكن هذا لن يحدث في المستقبل القريب. ولكن النتيجة المُترتِّبة على السؤال المُتعلق بالمكانة الأخلاقية هي أنه في الوقت الحالي وفي المستقبل القريب، يُفترَض أن نتعامَل مع الآلات المدعومة بالذكاء الاصطناعي كأشياء، إلا إذا ثبت خلاف ذلك.
على الرغم من ذلك، فثمَّة مشكلة واحدة تواجِهنا عند اتخاذ هذا الموقف، وهي أنه لا يفسر ولا يُبرر إحساسنا البديهي الأخلاقي ولا تجاربنا الأخلاقية التي تُخبرنا بأن ثمَّة شيئًا خاطئًا في «إساءة معاملة» الذكاء الاصطناعي، حتى إذا لم تكُن لدَيه خصائص شبيهة بالبشر أو الحيوانات مثل الوعي أو الإحساس. للعثور على مثل هذه التبريرات، يُمكن للمرء اللجوء إلى كانط، الذي اعتبر أنه من الخطأ إطلاق النار على كلب؛ ليس لأن إطلاق النار على كلبٍ ينتهك أي التزاماتٍ تجاه هذا الكلب، ولكن لأن مثل هذا الشخص «يضرُّ بصفات الرحمة والإنسانية في نفسه، والتي يجب أن يُمارسها بناءً على واجباته تجاه البشر» (Kant 1997). أما اليوم فنحن نميل إلى التفكير بطريقةٍ مختلفة تجاه الكلاب (على الرغم من أن هذا ليس حال الجميع وليس الحال في كل مكان). ولكن يبدو أنه يُمكن تطبيق الحجَّة نفسها على الآلات المدعومة بالذكاء الاصطناعي: يُمكننا أن نقول إننا لا ندين بشيءٍ إلى الآلات المدعومة بالذكاء الاصطناعي، ولكنَّنا مع ذلك ينبغي لنا عدم ركْل أو «تعذيب» آلة مزوَّدة بالذكاء الاصطناعي؛ لأن ذلك يجعلنا غير رحماء تجاه البشر. يُمكن أيضًا استخدام حجَّةِ أخلاقيات الفضيلة، وهي حُجَّة غير مباشرة أيضًا لأنها تتعلَّق بالبشَر وليس بالذكاء الاصطناعي: «إساءة معاملة» الذكاء الاصطناعي خطأ ليس لأن ثمَّة ضررًا سيلحق بالذكاء الاصطناعي، ولكن لأن طابعنا الأخلاقي سيتأذَّى إذا ما فعلنا ذلك. وهذا لا يجعلنا أشخاصًا أفضل. وعلى النقيض من هذا النهج يُمكننا أن نقول إنه في المُستقبل قد تتمتَّع بعض الآلات المزوَّدة بالذكاء الاصطناعي بقيمةٍ جوهرية وتستحقُّ اهتمامنا الأخلاقي، بشرط أن تكون لدَيها خصائص مثل الإحساس. ولا يبدو أن النهج غير المباشر للواجب أو الفضيلة يأخذ هذا الجانب «الآخَر» من العلاقة الأخلاقية على محمل الجد. فهو يُعنى فقط بالبشر. فماذا عن الآلات المزوَّدة بالذكاء الاصطناعي؟ ولكن هل يُمكن للآلات المزوَّدة بالذكاء الاصطناعي أو الروبوتات أن تكون هي «الآخر» كما سأل ديفيد جنكل (٢٠١٨)؟ مرة أخرى، يبدو أن المنطق يقول: لا، الآلات المزوَّدة بالذكاء الاصطناعي ليست لدَيها الخصائص المطلوبة.

«إساءة معاملة» الذكاء الاصطناعي خطأ؛ ليس لأن ثمة ضررًا سيلحق بالذكاء الاصطناعي، ولكن لأن طابعنا الأخلاقي سيتأذَّى إذا ما فعلنا ذلك.

ثمة نهج مختلف تمامًا يرى أن طريقة تعامُلنا مع مسألة المكانة الأخلاقية هي نفسها تنطوي على إشكالية. يعتمد التفكير الأخلاقي الشائع بشأن المكانة الأخلاقية على ما تملِكه الكيانات من خصائص ذات صلةٍ بالأخلاق؛ على سبيل المثال، الوعي أو الإحساس. ولكن كيف نعلَم ما إذا كان لدى الذكاء الاصطناعي فعلًا خصائص مُعينة ذات صلةٍ بالأخلاق أم لا؟ وهل نحن متأكِّدون من ذلك في حالة البشر؟ يقول المُتشكِّكون إننا لسنا متأكِّدين. ومع ذلك، حتى دون هذا اليقين المَعرفي، فإننا لا نزال نُضفي على الإنسان مكانةً أخلاقية على أساس المظهر. ومن المُرجَّح أن يحدُث الشيء نفسه إذا قُدِّر للآلات المزوَّدة بالذكاء الاصطناعي أن تتمتَّع بمظهرٍ وسلوك شبيهَين بالبشر في المستقبل. يبدو أنه بغضِّ النظر عمَّا يعتبره الفلاسفة من الصواب أخلاقيًّا، سيُضفي البشر، بأية حال، على هذه الآلات مكانة أخلاقية، ويمنحونها حقوقًا، على سبيل المثال. علاوة على ذلك، إذا نظرنا عن كثَب إلى الطريقةِ الَّتي يُضفي بها البشر المكانةَ الأخلاقية «في الواقع»، فإنه يتَّضح على سبيل المثال أن كلًّا من العلاقات الاجتماعية القائمة واللُّغة تلعب دورًا. على سبيل المثال، إذا عامَلْنا قطَّتنا بلُطف، فهذا ليس لأننا ننخرِط في تفكيرٍ أخلاقي بشأن قِطَّتنا، ولكن لأن لدَينا بالفعل نوعًا من العلاقة الاجتماعية معها. إنها بالفعل حيوانٌ أليف ومُرافق لنا قبل أن نقوم بالعمل الفلسفي الذي نُكسِبها بموجبِه مكانة أخلاقية؛ هذا إذا شعرنا من الأساس بحاجةٍ إلى مثل هذه الممارسة. وإذا أطلقنا اسمًا خاصًّا على كلبنا، فإننا — على عكس الحيوانات التي لا تحمِل اسمًا التي نأكُلها — قد منحناه بالفعل مكانةً أخلاقية خاصَّة، بصرْف النظر عن خصائصه الموضوعية. باستخدام مثل هذا النهج العلاقاتي والنقدي وغير المُتزمِّت (Coeckelbergh 2012)، يُمكننا القول إن البشر سوف يمنحون الآلات المزوَّدة بالذكاء الاصطناعي مكانةً أخلاقية بناءً على كيفية تضمينها في حياتنا الاجتماعية وفي لُغتنا وفي ثقافتنا البشرية.

علاوةً على ذلك، نظرًا إلى أن مثل هذه الظروف مُتغيرة تاريخيًّا — فكر مرة أخرى في كيفية مُعاملتنا وتفكيرنا بشأن الحيوانات — ربما تكون هناك حاجة إلى اتخاذ سبُل الحيطة الأخلاقية قبل «تحديد» المكانة الأخلاقية للذكاء الاصطناعي بشكلٍ عام أو لآلة مُعيَّنة مزوَّدة بالذكاء الاصطناعي. ولماذا حتى نتحدَّث عن الذكاء الاصطناعي بشكلٍ عام أو بشكلٍ مجرد؟ يبدو أن هناك شيئًا خاطئًا في الإجراء الأخلاقي لمنح المكانة الأخلاقية: فمن أجل الحُكم على كيانٍ ما، نُخرج هذا الكيان من سياق علاقاته، وقبل أن نحصل على نتيجة إجرائنا الأخلاقي، نتعامَل معه بطريقةٍ رتبوية، سلطوية، مُهيمنة، ككيانٍ نتخذ نحن البشر المُتفوِّقين قرارًا بشأنه. ويبدو أننا قبل حتى أن نفكر في مكانته الأخلاقية، قد وضعناه بالفعل في منزلةٍ مُعيَّنة وربما أيضًا مارَسْنا عليه العنف بمعاملته ككائنٍ نتَّخذ قرارات بشأنه، ونصَّبنا أنفسنا آلهةً محورية قوية عالمة على الأرض يحقُّ لها منح المكانة الأخلاقية للكائناتِ الأخرى. لقد جعلنا أيضًا جميع السياقات والملابسات الاجتماعية غير مَرئية. كما في حالة مُعضلة عربة الترام، لقد اختزلنا الأخلاق في صورة كاريكاتيرية. باستخدام مثل هذا التفكير، يبدو أن فلاسفة الأخلاق يفعلون ما اتُّهِم الفلاسفةُ المؤيدون لدريفوس الباحثين في مجال الذكاء الاصطناعي الرمزي بفِعله: تشكيل وتجريد ثروة من التجربة الأخلاقية والمعرفة الأخلاقية على حساب التخلِّي عما يجعلنا بشرًا، وليس ذلك فحسب، بل وعلى حساب التضحية بمسألة المكانة الأخلاقية لغير البشر. وبصرف النظر عن المكانة الأخلاقية الفعلية للآلات المزوَّدة بالذكاء الاصطناعي، كما لو كان هذا يمكن تحديده بشكلٍ مُستقل تمامًا عن ذاتية الإنسان، فمن الأهمية بمكانٍ أن نفحص توجُّهنا الأخلاقي ومشروع التفكير الأخلاقي المجرد نفسه، بأسلوب نقدي.

«إساءة معاملة» الذكاء الاصطناعي خطأ؛ ليس لأن ثمة ضررًا سيلحق بالذكاء الاصطناعي، ولكن لأن طابعنا الأخلاقي سيتأذَّى إذا ما فعلنا ذلك.

نحو قضايا أخلاقية أكثر عملية

كما تُظهر المناقشات في هذا الفصل والفصل السابق، فإن التفكير في الذكاء الاصطناعي يُعلِّمنا أشياء أخرى إلى جانب ما نتعلَّمه بشأن الذكاء الاصطناعي. إنه يُعلمنا أيضًا أشياء عن أنفسنا: عن طريقة تفكيرنا، وطريقة تصرُّفنا في الواقع، والطريقة التي ينبغي أن نتعامَل بها مع غير البشر. فإذا نظرنا إلى الأُسس الفلسفية لأخلاقياتِ الذكاء الاصطناعي، نرى خلافات عميقةً حول طبيعة ومستقبل الإنسانية والعلم والحداثة. إن التشكيك في الذكاء الاصطناعيِّ يكشف اللثام عن عالَم مُظلم من الأسئلة النقدية حول المعرفة البشرية والمُجتمع البشري وطبيعة الأخلاق البشرية.

هذه المناقشات الفلسفية أقل بُعدًا وأقل «أكاديمية» مما قد يعتقِد البعض. وستظلُّ تُعاود الظهور أمامنا عندما نتناول، لاحقًا في هذا الكتاب، المزيدَ من المسائل الأخلاقية والقانونية والسياسية الأكثر عمليةً التي يُثيرها الذكاء الاصطناعي. وسرعان ما ستُواجهنا من جديدٍ بمجرَّد أن نُحاول التطرُّق إلى موضوعاتٍ مثل المسئولية والسيارات ذاتية القيادة، أو شفافية تعلُّم الآلة، أو الذكاء الاصطناعي المُتحيز، أو أخلاقيات الروبوتات الجنسية. إذا كانت أخلاقيات الذكاء الاصطناعي تُريد أن تكون أكثر مِن مجرَّد قائمة بالقضايا، فيجب أن يكون لدَيها ما تقوله حول مثل هذه المسائل.

بعد كلِّ ما قيل، حان الوقت الآن للتحوُّل إلى قضايا أكثر عملية. هذه القضايا لا تتعلَّق بالمُشكلات الفلسفية التي يطرحُها الذكاء الاصطناعي العام المُفترض، أو بالمخاطر المتَّصلة بالذكاء الفائق في المستقبل البعيد، أو بالوحوش المخيفة الأخرى التي يخلقها الخيال العلمي. إنها تتعلق بحقائق الذكاء الاصطناعي القائمة بالفعل، والتي هي أقلُّ وضوحًا وربما أقل جاذبية، ولكنها لا تزال شديدة الأهمية. إن الذكاء الاصطناعي في الوقت الحالي لا يأخُذ دور وحش فرانكنشتاين أو الروبوتات المُذهلة المزوَّدة بالذكاء الاصطناعي التي تُهدِّد الحضارة، كما أنه أكثر من مجرد تجربةٍ فكرية فلسفية. الذكاء الاصطناعي يتعلَّق بتقنياتٍ سريةٍ غير مرئية ولكنها مُتغلغلة ومنتشرة وقوية ومتزايدة الذكاء، تلك التقنيات التي تُشكِّل بالفعل حياتنا اليوم. ومن ثَمَّ، فإن أخلاقيات الذكاء الاصطناعي تتعلَّق بالتحديات الأخلاقية التي يُثيرها الذكاء الاصطناعي في الوقت الحالي وفي المُستقبل القريب، كما تتعلق بتأثير هذه التحدِّيات على مجتمعاتنا وديمقراطياتنا الهشَّة. إن أخلاقيات الذكاء الاصطناعي تتعلَّق بحياة الناس وبالسياسة. إنها تتعلق بحاجتنا، كأفرادٍ وكمجتمعات، إلى التعامُل مع القضايا الأخلاقية الآن.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤