الفصل الحادي عشر

التحديات التي تُواجه صانعي السياسات

الأخلاقيات الاستباقية: الابتكار المسئول وتضمين القِيَم في التصميم

ربما لا يُدهشنا أن نعرف أن سياسات أخلاقيات الذكاء الاصطناعي تواجِه العديد من التحدِّيات. وقد رأينا أن بعض السياسات المُقترحة تؤيد رؤيةً استباقية لأخلاقيات الذكاء الاصطناعي؛ بمعنى أننا بحاجةٍ إلى مراعاة الأخلاق في المرحلة المُبكرة من تطوير تكنولوجيا الذكاء الاصطناعي. وتكمُن الفكرة في تجنُّب المشكلات الأخلاقية والمُجتمعية التي يخلقها الذكاء الاصطناعي والتي سيكون من الصعب التعامُل معها بمجرد حدوثها. ويتماشى هذا مع أفكار الابتكار المسئول، وتضمين القِيَم في التصميم، وغيرها من الأفكار المُشابهة التي اقتُرِحت على مدار السنوات الأخيرة. وهذا يُحوِّل المشكلة من معالجة الآثار السلبية للتقنيات المُستخدمة على نطاق واسع بالفعل إلى تحمل المسئولية تجاه التقنيات التي يتم تطويرها اليوم.

ومع ذلك، ليس من السهل أن نتوقَّع العواقِب غير المقصودة للتقنيات الجديدة في مرحلة التصميم. إحدى الطرق لتخفيف هذه المشكلة هو بناء سيناريوهات حول العواقب الأخلاقية المُستقبلية. وهناك أساليب مُختلفة لممارسة الأخلاقيات في البحث والابتكار (Reijers et al. 2018)، إحداها ليست فقط دراسة تأثير سرديات الذكاء الاصطناعي الحالية وتقييمها (Royal Society, 2018) ولكن أيضًا خلق سرديات جديدة أكثر واقعيةً حول تطبيقات مُعينة للذكاء الاصطناعي.

النهج المُوجَّه للمُمارسة والنهج التصاعدي: كيف نترجمهما عمليًّا؟

الابتكار المسئول لا يتعلق فقط بتضمين الأخلاقيات في التصميم، ولكنه يتطلَّب أيضًا مراعاة آراء مُختلف الأطراف المَعنية ومصالحهم. وتنطوي الحوكمة الشاملة على إشراك نطاقٍ واسع من الأطراف المَعنية، وإجراء نقاشٍ عام، والتدخل المُجتمعي المُبكر في مرحلة البحث والابتكار (Von Schomberg 2011). وهذا قد يعني، مثلًا، تنظيم مجموعات نقاشٍ مركزة واستخدام تقنيات أخرى لمعرفة رأي الناس في التكنولوجيا.

يتعارض هذا النهج التصاعدي في الابتكار المسئول مع نهج الأخلاقيات التطبيقية الذي يتبعه معظم وثائق السياسات، والذي يميل في الغالب إلى أن يكون نهجًا تنازليًّا ومجردًا. أولًا، يتم إنشاء السياسات غالبًا من قِبل خبراء، دون أن يشارك فيها نطاق واسع من الأطراف المَعنية. ثانيًا، حتى إذا أيَّدت هذه السياسات مبادئ مثل الأخلاقيات المُضمنة في التصميم، فإنها تظلُّ شديدة الغموض فيما يتعلق بما يَعنيه تطبيق هذه المبادئ عمليًّا. ولإنجاح سياسة الذكاء الاصطناعي، يظلُّ التحدي كبيرًا لبناء جسرٍ بين المبادئ الأخلاقية والقانونية المُجردة والعالية المستوى من ناحية، وبين مُمارسات تطوير التكنولوجيا واستخدامها في سياقاتٍ مُعينة، والتقنيات، وأصوات أولئك الذين يشاركون في هذه الممارسات ويعملون في هذه السياقات من ناحية أخرى. يُترك بناء هذا الجسر لمَن تُوجَّه إليهم هذه السياسات المقترحة. فهل يُمكننا القيام بالمزيد في المرحلة الأولى من صنع السياسات، وهل يجِب علينا ذلك؟ نحتاج على الأقل إلى المزيد من العمل على الأساليب والإجراءات والمؤسَّسات التي نحتاجها لجعل أخلاقيات الذكاء الاصطناعي تنجح عمليًّا. ويجب علينا أن نُولي المزيد من الاهتمام للعملية.

الابتكار المسئول لا يتعلق فقط بتضمين الأخلاقيات في التصميم، ولكنه يتطلب أيضًا مراعاة آراء مختلف الأطراف المَعنية ومصالحهم.

فيما يتعلق بالسؤال عمَّن يشارك في وضع أخلاقيات الذكاء الاصطناعي، فإننا نحتاج إلى تطبيق نهج تصاعدي إلى جانب النهج التنازلي، بمعنى الاستماع أكثر إلى الباحثين والمهنيين الذين يتعاملون مع الذكاء الاصطناعي عمليًّا، بل وإلى الأشخاص الذين من المُحتمَل أن يضرَّهم الذكاء الاصطناعي. إذا كنا نؤيد مبدأ الديمقراطية وإذا كان هذا المفهوم يشمل التضمين والمشاركة في صنع القرار بشأن مُستقبل مجتمعاتنا، فإن سماع صوت الأطراف المَعنية ليس أمرًا اختياريًّا ولكنه إلزامي من الناحيتَين الأخلاقية والسياسية. بينما يشارك بعض صانعي السياسات في نوع من التشاور مع الأطراف المعنية (على سبيل المثال، لدى المفوضية الأوروبية تحالف الذكاء الاصطناعي الخاص بها)،1 لا يزال من المشكوك فيه ما إذا كانت مثل هذه الجهود تصل حقًّا إلى المُطورين والمستخدمين النهائيين للتكنولوجيا، والأهم من ذلك، إلى أولئك الذين سيتعيَّن عليهم تحمُّل معظم المخاطر والتعايش مع آثارها السلبية. فهل صُنع القرار والسياسات الخاصة بالذكاء الاصطناعي أمرٌ ديمقراطي ينطوي على مشاركة حقًّا؟
إنَّ مفهوم الديمقراطية مُهدَّد أيضًا بحقيقة تركز السلطة في أيدي عددٍ صغير نسبيًّا من الشركات الكبيرة. ويرى بول نيميتز (٢٠١٨) أن تراكُم السلطة الرقمية في أيدي شركات قليلة ينطوي على إشكالية: إذا مارست حفنة من الشركات سُلطتها ليس فقط على الأفراد — من خلال تكوين ملفَّاتٍ تعريفية عنا — ولكن أيضًا على البنية الأساسية للديمقراطية، فإن هذه الشركات، على الرغم من نواياها الحسنة للمساهمة في الذكاء الاصطناعي الأخلاقي، سوف تضع عقباتٍ أمامه. ولذلك، فمِن الضروري وضع لوائح تنظيمية وحدود لحماية المصلحة العامة، ولضمان أن هذه الشركات لن تُشكل القواعد بمفردها. وأشار موراي شاناهان إلى أن «المَيل إلى تركُّز السلطة والثروة والموارد في أيدي عدد قليل يتَّسم بالاستدامة الذاتية» (٢٠١٥، ١٦٦)، مما يجعل من الصعب تحقيق مجتمعٍ أكثر إنصافًا. كما أنه يجعل الأفراد عُرضة لجميع أنواع المخاطر، بما في ذلك الاستغلال وانتهاكات الخصوصية، على سبيل المثال، ما تُسمِّيه دراسة أجراها المجلس الأوروبي «التأثير المُروِّع لإعادة استخدام البيانات» (Yeung 2018, 33).

إذا قارنَّا الوضع مع سياسة البيئة، يُمكن أن نكون مُتشائمين أيضًا بشأن إمكانية أن تتَّخذ البلدان إجراءً فعَّالًا وتعاونيًّا بشأن أخلاقيات الذكاء الاصطناعي. فلنأخُذ، على سبيل المثال، العمليات السياسية المُتعلقة بتغيُّر المناخ في الولايات المتحدة، حيث يتم في بعض الأحيان إنكار مشكلة الاحترار العالمي وتغيُّر المناخ نفسها، وحيث تعمل بعض القوى السياسية ذات النفوذ ضد اتخاذ أي إجراءٍ حيال ذلك، أو النجاح المحدود للغاية لمؤتمرات تغيُّر المناخ الدولية في الاتفاق على سياسة مناخية مشتركة وفعَّالة. وقد يواجِه أولئك الذين يسعون إلى اتخاذ إجراءٍ عالَمي في ظل المشكلات الأخلاقية والمجتمعية التي أثارها الذكاءُ الاصطناعي صعوبات مُماثلة. فغالبًا ما تتفوق المصالح الأخرى على المصلحة العامة، وهناك ندرة في السياسات الحكومية الدولية الخاصة بالتكنولوجيا الرقمية الجديدة، بما فيها الذكاء الاصطناعي. ومع ذلك، هناك استثناءٌ واحد لذلك وهو الاهتمام العالمي بحظر الأسلحة القاتلة الذاتية التشغيل، التي تحتوي أيضًا على جانب ذكاء اصطناعي. ولكن هذا لا يزال استثناءً، ولا يحظى أيضًا بدعم جميع البلدان (على سبيل المثال، ما زال موضع جدل في الولايات المتحدة).

علاوةً على ذلك، ورغم حسن النية، فإن لكلٍّ من أخلاقيات التصميم والابتكار المسئول قيودهما الخاصة. أولًا، تفترض أساليب مثل التصميم الحساس للقِيَم أنه يُمكننا التعبير عن قِيَمنا، وتفترض جهود بناء الآلات الأخلاقية أننا يمكن أن نُعبِّر بشكلٍ كامل عن أخلاقياتنا. ولكن هذا لا يحدث بالضرورة دائمًا؛ إذ إننا قد لا نستطيع التفكير بوضوحٍ ولا التعبير عن أخلاقياتنا اليومية. ففي بعض الأحيان، نستجيب إلى مشكلات أخلاقية بطريقةٍ مُعينة دون أن نتمكن من تبرير استجابتنا بشكل كامل (Boddington 2017). وكما قال فيتجنشتاين: أخلاقياتنا ليست فقط متجسدة ولكنها مُضمَّنة في شكلٍ من أشكال الحياة. إنها متصلة على نحوٍ عميق بطريقة قيامنا بالأفعال ككائنات متجسدة واجتماعية، وكمجتمعات وثقافات. وهذا يفرض حدودًا على مشروع التعبير الكامل عن الأخلاق والتفكير الأخلاقي. ويمثل أيضًا مشكلة لمشروع تطوير الآلات الأخلاقية، ويتحدى الافتراضات التي تقول إن الأخلاق والديمقراطية يمكن مناقشتهما والتعبير عنهما بالكامل. كما يخلق مشكلة لصانعي السياسات الذين يعتقدون أن أخلاقيات الذكاء الاصطناعي يمكن التعامل معها تمامًا من خلال قائمة من المبادئ أو من خلال أساليب قانونية وتقنية مُحدَّدة. نحن بالتأكيد بحاجةٍ إلى أساليب وإجراءات وعمليات. ولكن كل هذا ليس كافيًا؛ فالأخلاقيات لا تعمل مثل الآلة، وكذلك السياسة والابتكار المسئول.

ثانيًا، يُمكن أن يكون هذان النهجان عائقًا أمام الأخلاقيات عندما يكون من الواجب أخلاقيًّا إيقاف تطوير التكنولوجيا. فغالبًا ما تكون وظيفتهما من الناحية العملية هي تيسير عملية الابتكار، وتعزيز تحقيق الأرباح، وضمان قبول التكنولوجيا. وقد لا يكون هذا بالضرورة سيئًا. ولكن ماذا لو كانت المبادئ الأخلاقية تُشير إلى أنه يجب إيقاف أو تعليق التكنولوجيا، أو تطبيق مُعيَّن من تطبيقاتها؟ اعتبر كروفورد وكالو (٢٠١٦) أن أداتَي التصميم الحسَّاس للقِيَم والابتكار المسئول تعتمدان على افتراض أن التكنولوجيا سيجري تطويرها؛ وتَقلُّ فعاليَّتهما عندما يتعلق الأمر باتخاذ قرار حول ما إذا كان يجب إنشاء هذه التكنولوجيا من الأساس. على سبيل المثال، في حالة الذكاء الاصطناعي المُتقدِّم مثل تطبيقات تعلُّم الآلة الجديدة، ربما تكون هذه التكنولوجيا لا تزال غير جديرة بالثقة أو لها عيوب أخلاقية خطيرة، وأن بعض تطبيقاتها على الأقل قد يتوجب عدم استخدامها (بعد). وسواء أكان وقف التكنولوجيا هو الحل الأفضل دائمًا أم لا، فإن القضية هي أننا يجِب على الأقل أن نتمتَّع بالحق في طرح السؤال وتقرير ما ينبغي فعله. فإذا كان هذا الحق غائبًا، فسوف يظلُّ الابتكار المسئول ستارًا نُخفي وراءه مواصلة العمل كالمعتاد.

نحو أخلاقيات إيجابية

على الرغم من كلِّ ما قيل، فإن أخلاقيات الذكاء الاصطناعي بشكلٍ عامٍّ لا تتعلَّق بالضرورة بمنع الأشياء (Boddington 2017). هناك عائقٌ آخر يَحُول دون مُمارسة أخلاقيات الذكاء الاصطناعي عمليًّا، وهذا العائق هو أنَّ العديد من الجهات الفاعلة في مجال الذكاء الاصطناعي مثل الشركات والباحثين التقنيِّين لا يزالون يعتبرون الأخلاقيات قيودًا، أو أشياءً سلبية. هذه الفكرة ليست مُضللة بشكلٍ كامل؛ إذ غالبًا ما يجب على الأخلاق أن تُقيِّد، وتَحُد، وتقولَ إن شيئًا ما غير مقبول. وإذا أخذنا أخلاقيات الذكاء الاصطناعي على مَحمل الجد ونفَّذنا توصياتها، فقد نُواجِه بعض التنازُلات، ولا سيَّما على المدى القصير. فقد يكون للأخلاقيات ثمَن لا بد من دفعه؛ سواءٌ على مستوى المال أو الوقت أو الطاقة. ومع ذلك، فمِن خلال تقليل المخاطر، تدعم الأخلاقيات والابتكار المسئول التنميةَ المُستدامة للأعمال التجارية والمجتمع على المدى البعيد. ولا يزال هناك تَحدٍّ في إقناع جميع الجهات الفاعلة في مجال الذكاء الاصطناعي، بمَن فيهم صانعي السياسات، بأن هذا هو الحال فعلًا. لاحظ أيضًا أن السياسة واللوائح التنظيميَّة لا تتعلَّق فقط بحظر الأشياء أو بجعلِها أكثر صعوبةً وتعقيدًا؛ بل يُمكن أن تكون داعمة، من خلال تقديم حوافز، على سبيل المثال.

علاوةً على ذلك، إلى جانب الأخلاقيات السلبية التي تفرض قيودًا، نحن في حاجة إلى توضيح الأخلاقيات الإيجابية وشرحها: لوضع رؤية للحياة الجيدة والمجتمع الجيد. وبينما تلمح بعض المبادئ الأخلاقية المقترحة أعلاه إلى مِثل هذه الرؤية، فلا يزال توجيه المناقشة إلى هذا الاتجاه تحديًّا. كما سبق وذكرنا، لا تتعلَّق المسائل الأخلاقية الخاصة بالذكاء الاصطناعي بالتكنولوجيا فحسب؛ بل تتعلَّق بحياة الإنسان وازدهاره، وتتعلَّق بمُستقبل المجتمع، وربما تتعلق أيضًا بغير البشر، وبالبيئة، وبمُستقبل الكوكب (انظر الفصل التالي). وهكذا تُعيدنا المناقشات حول أخلاقيات الذكاء الاصطناعي وسياساته من جديدٍ إلى الأسئلة الكبيرة التي يجب أن نطرحها على أنفسنا؛ أفرادًا، ومُجتمعاتٍ، وربما بشرًا. ويمكن للفلاسفة أن يُساعدونا في التفكير في هذه الأسئلة. وبالنسبة إلى صانعي السياسات، يكمُن التحدِّي في تطوير رؤية واسعة للمُستقبل التكنولوجي تتضمَّن أفكارًا حول ما هو مُهم وما هو ذو معنًى وما هو ذو قيمة. على الرغم من أن الديمقراطيات الليبرالية بشكلٍ عامٍّ تتعمَّد تجاهل مثل هذه الأسئلة وتركها للأفراد، ولا تتدخَّل في مثل هذه الموضوعات العميقة مثل ماهية الحياة الجيدة ومِن ثَم فهي «سطحية» (ابتكار سياسي أدَّى إلى تجنُّب بعض أنواع الحروب على الأقل وساهم في الاستقرار والازدهار)، فإنه في ظلِّ التحدِّيات الأخلاقية والسياسية التي تواجِهنا، فإن تجاهل الأسئلة الأخلاقية الأكثر «عمقًا» يُعتبر من قبيل انعدام المسئولية. وينبغي أن تتعلَّق السياسة أيضًا، بما فيها سياسات الذكاء الاصطناعي، بالأخلاقيات الإيجابية.

بشكلٍ عام، لا تتعلَّق أخلاقيات الذكاء الاصطناعي بالضرورة بمنع الأشياء؛ بل نحن في حاجة إلى أخلاقيات إيجابية: لوضع رؤية للحياة الجيدة والمُجتمع الجيد.

ومع ذلك، فالسبيل إلى ذلك من منظور صانعي السياسات، ليس من خلال العمل بشكلٍ فردي وتولِّي دور الملك الفيلسوف كما في فلسفة أفلاطون، ولكن بالعثور على التوازن الصحيح بين التكنوقراطية والديمقراطية التشاركية. الأسئلة التي تُواجهنا هي أسئلة تُهمنا جميعًا؛ وعلينا أن نتشارك جميعًا في الإجابة عنها. لذلك، لا يُمكننا تركها في أيدي فئةٍ قليلة من الأشخاص، سواء أكانوا في الحكومة أم في الشركات الكبيرة. ويُعيدنا هذا إلى الأسئلة حول كيفية إنجاح الابتكار المسئول والمشاركة في سياسات الذكاء الاصطناعي. المشكلة لا تتعلَّق فقط بالسلطة؛ إنها تتعلَّق أيضًا بالخير: الخير للأفراد والخير للمجتمع. إن أفكارنا الحالية حول الحياة الجيدة والمجتمع الجيد — إذا كنا قادِرين على التعبير عنها من الأساس — قد تحتاج إلى نقاشٍ نقدي أعمق بكثير. ودعوني أقترح أنه قد يكون من المُفيد للغرب، على الأقل أن يستكشفوا خيار مُحاولة التعلُّم من أنظمةٍ سياسية أخرى غير غربية وثقافات سياسية أخرى. لا يجوز لسياسة الذكاء الاصطناعي الفعَّالة والمُبررة تجنُّب المشاركة في مثل هذه النقاشات الأخلاقية الفلسفية والسياسية الفلسفية.

تداخُل التخصُّصات وتجاوز التخصُّصات

هناك عوائق أخرى يجب تجاوزها إذا أردْنا جعل أخلاقيات الذكاء الاصطناعي أكثر فعاليةً وأردنا دعم التطوير المسئول للتكنولوجيا، تجنُّبًا لما يُسميه الباحثون التقنيون «شتاءَ» الذكاء الاصطناعي الجديد: إبطاء عملية تطوير الذكاء الاصطناعي والاستثمار فيه. أحد هذه العوائق هو نقص تداخُل التخصُّصات وتجاوز التخصُّصات الكافي. ما زلنا نواجِه فجوة شاسعة في الخلفية والفهم بين المُختصِّين في العلوم الإنسانية والعلوم الاجتماعية من جهة، والمُختصِّين في العلوم الطبيعية والهندسية من جهةٍ أخرى، داخل المُجتمع الأكاديمي وخارجه. حتى الآن، ما زلنا نفتقد الدعم المؤسَّسي لسدِّ الفجوة الواسعة بين هذَين «العالمَين»، سواء في المجتمع الأكاديمي أو في المجتمع الأوسع. ولكن إذا كنَّا نُريد حقًّا أن نمتلك تكنولوجيا متقدمة أخلاقية مثل الذكاء الاصطناعي الأخلاقي، فيجب علينا أن نُقرِّب بين هؤلاء الأشخاص وبين هذَين العالمَين، في أقرب وقتٍ ممكن.

ويتطلَّب هذا إحداث تغيير في كيفية إجراء البحث والتطوير — فمثلًا، يجب أن يُشارك فيه ليس فقط الأشخاص التقنيون ورجال الأعمال ولكن أيضًا مُختصُّون في العلوم الإنسانية — وكذلك تغيير كيفية «تعليم» الأشخاص، من الشباب وغيرهم. يجب أن نحرص على أن يُدرك الأشخاص الذين لدَيهم خلفية في العلوم الإنسانية أهمية التفكير في التقنيات الجديدة مثل الذكاء الاصطناعي ويُحاولوا اكتساب بعض المعرفة حول هذه التقنيات وما تقوم به. ومن ناحيةٍ أخرى، يجب جعل العلماء والمهندسين أكثر حساسيةً تجاه الجوانب الأخلاقية والمُجتمعية لتطوير التكنولوجيا واستخدامِها. ومن ثَم عندما يتعلَّمون استخدام الذكاء الاصطناعي، ويُساهمون بعد ذلك في تطوير تكنولوجيا الذكاء الاصطناعي الجديدة، فإنهم لن يرَوا الأخلاقيات موضوعًا هامشيًّا لا يمتُّ بصِلةٍ إلى مُمارساتهم التكنولوجية ولكن يرَونها «جزءًا أساسيًّا» من هذه الممارسات. وعندئذٍ، في الحالة المثالية، ستعني «ممارسة الذكاء الاصطناعي» أو «ممارسة علم البيانات» أن يتمَّ تضمين الأخلاقيات ببساطة بوصفها جزءًا أساسيًّا لا غِنى عنه. على نطاقٍ أوسع، يُمكننا أن نفكر في شكلٍ أكثر تنوُّعًا وشمولية من التعليم أو السرد تتداخل فيه التخصُّصات جذريًّا فيما يتعلق بالأساليب والمناهج، وبالموضوعات، وأيضًا بالوسائط والتقنيات. بعبارةٍ أخرى أوضح، إذا تعلَّمَ المهندسون كيفية العمل باستخدام النصوص وتعلم المُختصون في العلوم الإنسانية كيفية العمل باستخدام أجهزة الكمبيوتر، فسيزداد الأمل في أخلاقيات التكنولوجيا وفي سياسة تصلح للتنفيذ عمليًّا.

مخاطر «شتاء» الذكاء الاصطناعي وخطر الاستخدام اللاواعي للذكاء الاصطناعي

إذا لم يبدأ تنفيذ هذه التوجيهات في السياسة والتعليم على أرض الواقع، وبشكلٍ عام، إذا فشل مشروع الذكاء الاصطناعي الأخلاقي، فإننا لن نُواجِه فقط مخاطر «شتاء» الذكاء الاصطناعي؛ بل إن الخطر الأدهى والأمَرَّ سيكمن في الكارثة الأخلاقية والاجتماعية والاقتصادية التي ستُلمُّ بنا وسيدفع ثمنها البشر وغير البشر والبيئة. هذا لا يتعلق بالتفرد التكنولوجي، أو بالآلات التي ستدمر العالم، أو بسيناريوهات نهاية العالم الأخرى حول المستقبل البعيد، ولكنه يتعلق بالزيادة البطيئة ولكن المؤكدة في تراكم المخاطر التكنولوجية وما ينجم عنها من تفاقم الضعف البشري والاجتماعي والاقتصادي والبيئي. هذه الزيادة في المخاطر والضعف مرتبطة بالمشكلات الأخلاقية المشار إليها هنا وفي الفصول السابقة، بما فيها الاستخدام الجاهل والمتهور لتقنيات الأتمتة المُتقدِّمة مثل الذكاء الاصطناعي. إن الفجوة في التعليم ربما تزيد من تأثير مخاطر الذكاء الاصطناعي بشكلٍ عام: حتى لو لم تتسبَّب دائمًا في مخاطر جديدة مباشرة، فإنها تُضاعف المخاطر الموجودة بالفعل على نحوٍ استثنائي. حتى الآن، لا يُوجَد ما يُسمى «رخصة قيادة» لاستخدام الذكاء الاصطناعي، ولا يُوجَد تعليم إلزامي لأخلاقيات الذكاء الاصطناعي للباحثين التقنيِّين، ورجال الأعمال، ومسئولي الحكومة وغيرهم من الأشخاص المشاركين في ابتكار الذكاء الاصطناعي واستخدامه وسياساته. هناك الكثير من آلات الذكاء الاصطناعي غير المُروَّضة في أيدي أشخاصٍ لا يعرفون المخاطر والمشكلات الأخلاقية المُرتبطة بها، أو الذين قد تكون لديهم توقعات خطأ بشأن التكنولوجيا. ويكمن الخطر، مرة أخرى، في ممارسة السلطة دون معرفة و(بالتالي) دون مسئولية؛ والأسوأ من ذلك أن يخضع الآخرون إلى هذه السلطة. وإذا كان هناك شرٌّ على الإطلاق، فإنه يُقيم حيثما قالت فيلسوفة القرن العشرين حنة آرنت: في غياب الوعي عن القرارات والعمل اليومي المُمل. وعندما يُفترَض أن الذكاء الاصطناعي غير مُتحيز ويُستخدَم دون فَهم لما يتم القيام به، فإن هذا من شأنه أن يُسهم في تعميق غياب الوعي، ثم في النهاية، في الفساد الأخلاقي للعالم. وتستطيع سياسات التعليم المساعَدة في التخفيف من ذلك وبالتالي المساهمة في جعل الذكاء الاصطناعي جيدًا وذا معنًى.

لا تزال هناك العديد من الأسئلة المُزعجة، وربما المؤلِمة إلى حدٍّ ما، التي غالبًا ما يتم تجاهلها في المناقشات التي تدور حول أخلاقيات الذكاء الاصطناعي وسياساته، ولكنها تستحقُّ منَّا على الأقل أن نذكُرها هنا، حتى وإن لم نُحللها تحليلًا كاملًا. هل أخلاقيات الذكاء الاصطناعي تتعلَّق فقط بخير البشر وقيمتهم، أم إن علينا أن نراعي أيضًا قِيَم غير البشر وخيرهم ومصالحهم؟ وحتى إذا كانت أخلاقيات الذكاء الاصطناعي تتعلق بشكل رئيسي بالبشر، فهل يمكن أن تكون أخلاقيات الذكاء الاصطناعي ليست بالمسألة الأهم التي يتعيَّن على البشرية الاهتمام بها؟ يقودنا هذا السؤال إلى الفصل الأخير من الكتاب.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤