التحديات التي تُواجه صانعي السياسات
الأخلاقيات الاستباقية: الابتكار المسئول وتضمين القِيَم في التصميم
ربما لا يُدهشنا أن نعرف أن سياسات أخلاقيات الذكاء الاصطناعي تواجِه العديد من التحدِّيات. وقد رأينا أن بعض السياسات المُقترحة تؤيد رؤيةً استباقية لأخلاقيات الذكاء الاصطناعي؛ بمعنى أننا بحاجةٍ إلى مراعاة الأخلاق في المرحلة المُبكرة من تطوير تكنولوجيا الذكاء الاصطناعي. وتكمُن الفكرة في تجنُّب المشكلات الأخلاقية والمُجتمعية التي يخلقها الذكاء الاصطناعي والتي سيكون من الصعب التعامُل معها بمجرد حدوثها. ويتماشى هذا مع أفكار الابتكار المسئول، وتضمين القِيَم في التصميم، وغيرها من الأفكار المُشابهة التي اقتُرِحت على مدار السنوات الأخيرة. وهذا يُحوِّل المشكلة من معالجة الآثار السلبية للتقنيات المُستخدمة على نطاق واسع بالفعل إلى تحمل المسئولية تجاه التقنيات التي يتم تطويرها اليوم.
النهج المُوجَّه للمُمارسة والنهج التصاعدي: كيف نترجمهما عمليًّا؟
يتعارض هذا النهج التصاعدي في الابتكار المسئول مع نهج الأخلاقيات التطبيقية الذي يتبعه معظم وثائق السياسات، والذي يميل في الغالب إلى أن يكون نهجًا تنازليًّا ومجردًا. أولًا، يتم إنشاء السياسات غالبًا من قِبل خبراء، دون أن يشارك فيها نطاق واسع من الأطراف المَعنية. ثانيًا، حتى إذا أيَّدت هذه السياسات مبادئ مثل الأخلاقيات المُضمنة في التصميم، فإنها تظلُّ شديدة الغموض فيما يتعلق بما يَعنيه تطبيق هذه المبادئ عمليًّا. ولإنجاح سياسة الذكاء الاصطناعي، يظلُّ التحدي كبيرًا لبناء جسرٍ بين المبادئ الأخلاقية والقانونية المُجردة والعالية المستوى من ناحية، وبين مُمارسات تطوير التكنولوجيا واستخدامها في سياقاتٍ مُعينة، والتقنيات، وأصوات أولئك الذين يشاركون في هذه الممارسات ويعملون في هذه السياقات من ناحية أخرى. يُترك بناء هذا الجسر لمَن تُوجَّه إليهم هذه السياسات المقترحة. فهل يُمكننا القيام بالمزيد في المرحلة الأولى من صنع السياسات، وهل يجِب علينا ذلك؟ نحتاج على الأقل إلى المزيد من العمل على الأساليب والإجراءات والمؤسَّسات التي نحتاجها لجعل أخلاقيات الذكاء الاصطناعي تنجح عمليًّا. ويجب علينا أن نُولي المزيد من الاهتمام للعملية.
الابتكار المسئول لا يتعلق فقط بتضمين الأخلاقيات في التصميم، ولكنه يتطلب أيضًا مراعاة آراء مختلف الأطراف المَعنية ومصالحهم.
إذا قارنَّا الوضع مع سياسة البيئة، يُمكن أن نكون مُتشائمين أيضًا بشأن إمكانية أن تتَّخذ البلدان إجراءً فعَّالًا وتعاونيًّا بشأن أخلاقيات الذكاء الاصطناعي. فلنأخُذ، على سبيل المثال، العمليات السياسية المُتعلقة بتغيُّر المناخ في الولايات المتحدة، حيث يتم في بعض الأحيان إنكار مشكلة الاحترار العالمي وتغيُّر المناخ نفسها، وحيث تعمل بعض القوى السياسية ذات النفوذ ضد اتخاذ أي إجراءٍ حيال ذلك، أو النجاح المحدود للغاية لمؤتمرات تغيُّر المناخ الدولية في الاتفاق على سياسة مناخية مشتركة وفعَّالة. وقد يواجِه أولئك الذين يسعون إلى اتخاذ إجراءٍ عالَمي في ظل المشكلات الأخلاقية والمجتمعية التي أثارها الذكاءُ الاصطناعي صعوبات مُماثلة. فغالبًا ما تتفوق المصالح الأخرى على المصلحة العامة، وهناك ندرة في السياسات الحكومية الدولية الخاصة بالتكنولوجيا الرقمية الجديدة، بما فيها الذكاء الاصطناعي. ومع ذلك، هناك استثناءٌ واحد لذلك وهو الاهتمام العالمي بحظر الأسلحة القاتلة الذاتية التشغيل، التي تحتوي أيضًا على جانب ذكاء اصطناعي. ولكن هذا لا يزال استثناءً، ولا يحظى أيضًا بدعم جميع البلدان (على سبيل المثال، ما زال موضع جدل في الولايات المتحدة).
ثانيًا، يُمكن أن يكون هذان النهجان عائقًا أمام الأخلاقيات عندما يكون من الواجب أخلاقيًّا إيقاف تطوير التكنولوجيا. فغالبًا ما تكون وظيفتهما من الناحية العملية هي تيسير عملية الابتكار، وتعزيز تحقيق الأرباح، وضمان قبول التكنولوجيا. وقد لا يكون هذا بالضرورة سيئًا. ولكن ماذا لو كانت المبادئ الأخلاقية تُشير إلى أنه يجب إيقاف أو تعليق التكنولوجيا، أو تطبيق مُعيَّن من تطبيقاتها؟ اعتبر كروفورد وكالو (٢٠١٦) أن أداتَي التصميم الحسَّاس للقِيَم والابتكار المسئول تعتمدان على افتراض أن التكنولوجيا سيجري تطويرها؛ وتَقلُّ فعاليَّتهما عندما يتعلق الأمر باتخاذ قرار حول ما إذا كان يجب إنشاء هذه التكنولوجيا من الأساس. على سبيل المثال، في حالة الذكاء الاصطناعي المُتقدِّم مثل تطبيقات تعلُّم الآلة الجديدة، ربما تكون هذه التكنولوجيا لا تزال غير جديرة بالثقة أو لها عيوب أخلاقية خطيرة، وأن بعض تطبيقاتها على الأقل قد يتوجب عدم استخدامها (بعد). وسواء أكان وقف التكنولوجيا هو الحل الأفضل دائمًا أم لا، فإن القضية هي أننا يجِب على الأقل أن نتمتَّع بالحق في طرح السؤال وتقرير ما ينبغي فعله. فإذا كان هذا الحق غائبًا، فسوف يظلُّ الابتكار المسئول ستارًا نُخفي وراءه مواصلة العمل كالمعتاد.
نحو أخلاقيات إيجابية
علاوةً على ذلك، إلى جانب الأخلاقيات السلبية التي تفرض قيودًا، نحن في حاجة إلى توضيح الأخلاقيات الإيجابية وشرحها: لوضع رؤية للحياة الجيدة والمجتمع الجيد. وبينما تلمح بعض المبادئ الأخلاقية المقترحة أعلاه إلى مِثل هذه الرؤية، فلا يزال توجيه المناقشة إلى هذا الاتجاه تحديًّا. كما سبق وذكرنا، لا تتعلَّق المسائل الأخلاقية الخاصة بالذكاء الاصطناعي بالتكنولوجيا فحسب؛ بل تتعلَّق بحياة الإنسان وازدهاره، وتتعلَّق بمُستقبل المجتمع، وربما تتعلق أيضًا بغير البشر، وبالبيئة، وبمُستقبل الكوكب (انظر الفصل التالي). وهكذا تُعيدنا المناقشات حول أخلاقيات الذكاء الاصطناعي وسياساته من جديدٍ إلى الأسئلة الكبيرة التي يجب أن نطرحها على أنفسنا؛ أفرادًا، ومُجتمعاتٍ، وربما بشرًا. ويمكن للفلاسفة أن يُساعدونا في التفكير في هذه الأسئلة. وبالنسبة إلى صانعي السياسات، يكمُن التحدِّي في تطوير رؤية واسعة للمُستقبل التكنولوجي تتضمَّن أفكارًا حول ما هو مُهم وما هو ذو معنًى وما هو ذو قيمة. على الرغم من أن الديمقراطيات الليبرالية بشكلٍ عامٍّ تتعمَّد تجاهل مثل هذه الأسئلة وتركها للأفراد، ولا تتدخَّل في مثل هذه الموضوعات العميقة مثل ماهية الحياة الجيدة ومِن ثَم فهي «سطحية» (ابتكار سياسي أدَّى إلى تجنُّب بعض أنواع الحروب على الأقل وساهم في الاستقرار والازدهار)، فإنه في ظلِّ التحدِّيات الأخلاقية والسياسية التي تواجِهنا، فإن تجاهل الأسئلة الأخلاقية الأكثر «عمقًا» يُعتبر من قبيل انعدام المسئولية. وينبغي أن تتعلَّق السياسة أيضًا، بما فيها سياسات الذكاء الاصطناعي، بالأخلاقيات الإيجابية.
بشكلٍ عام، لا تتعلَّق أخلاقيات الذكاء الاصطناعي بالضرورة بمنع الأشياء؛ بل نحن في حاجة إلى أخلاقيات إيجابية: لوضع رؤية للحياة الجيدة والمُجتمع الجيد.
ومع ذلك، فالسبيل إلى ذلك من منظور صانعي السياسات، ليس من خلال العمل بشكلٍ فردي وتولِّي دور الملك الفيلسوف كما في فلسفة أفلاطون، ولكن بالعثور على التوازن الصحيح بين التكنوقراطية والديمقراطية التشاركية. الأسئلة التي تُواجهنا هي أسئلة تُهمنا جميعًا؛ وعلينا أن نتشارك جميعًا في الإجابة عنها. لذلك، لا يُمكننا تركها في أيدي فئةٍ قليلة من الأشخاص، سواء أكانوا في الحكومة أم في الشركات الكبيرة. ويُعيدنا هذا إلى الأسئلة حول كيفية إنجاح الابتكار المسئول والمشاركة في سياسات الذكاء الاصطناعي. المشكلة لا تتعلَّق فقط بالسلطة؛ إنها تتعلَّق أيضًا بالخير: الخير للأفراد والخير للمجتمع. إن أفكارنا الحالية حول الحياة الجيدة والمجتمع الجيد — إذا كنا قادِرين على التعبير عنها من الأساس — قد تحتاج إلى نقاشٍ نقدي أعمق بكثير. ودعوني أقترح أنه قد يكون من المُفيد للغرب، على الأقل أن يستكشفوا خيار مُحاولة التعلُّم من أنظمةٍ سياسية أخرى غير غربية وثقافات سياسية أخرى. لا يجوز لسياسة الذكاء الاصطناعي الفعَّالة والمُبررة تجنُّب المشاركة في مثل هذه النقاشات الأخلاقية الفلسفية والسياسية الفلسفية.
تداخُل التخصُّصات وتجاوز التخصُّصات
هناك عوائق أخرى يجب تجاوزها إذا أردْنا جعل أخلاقيات الذكاء الاصطناعي أكثر فعاليةً وأردنا دعم التطوير المسئول للتكنولوجيا، تجنُّبًا لما يُسميه الباحثون التقنيون «شتاءَ» الذكاء الاصطناعي الجديد: إبطاء عملية تطوير الذكاء الاصطناعي والاستثمار فيه. أحد هذه العوائق هو نقص تداخُل التخصُّصات وتجاوز التخصُّصات الكافي. ما زلنا نواجِه فجوة شاسعة في الخلفية والفهم بين المُختصِّين في العلوم الإنسانية والعلوم الاجتماعية من جهة، والمُختصِّين في العلوم الطبيعية والهندسية من جهةٍ أخرى، داخل المُجتمع الأكاديمي وخارجه. حتى الآن، ما زلنا نفتقد الدعم المؤسَّسي لسدِّ الفجوة الواسعة بين هذَين «العالمَين»، سواء في المجتمع الأكاديمي أو في المجتمع الأوسع. ولكن إذا كنَّا نُريد حقًّا أن نمتلك تكنولوجيا متقدمة أخلاقية مثل الذكاء الاصطناعي الأخلاقي، فيجب علينا أن نُقرِّب بين هؤلاء الأشخاص وبين هذَين العالمَين، في أقرب وقتٍ ممكن.
ويتطلَّب هذا إحداث تغيير في كيفية إجراء البحث والتطوير — فمثلًا، يجب أن يُشارك فيه ليس فقط الأشخاص التقنيون ورجال الأعمال ولكن أيضًا مُختصُّون في العلوم الإنسانية — وكذلك تغيير كيفية «تعليم» الأشخاص، من الشباب وغيرهم. يجب أن نحرص على أن يُدرك الأشخاص الذين لدَيهم خلفية في العلوم الإنسانية أهمية التفكير في التقنيات الجديدة مثل الذكاء الاصطناعي ويُحاولوا اكتساب بعض المعرفة حول هذه التقنيات وما تقوم به. ومن ناحيةٍ أخرى، يجب جعل العلماء والمهندسين أكثر حساسيةً تجاه الجوانب الأخلاقية والمُجتمعية لتطوير التكنولوجيا واستخدامِها. ومن ثَم عندما يتعلَّمون استخدام الذكاء الاصطناعي، ويُساهمون بعد ذلك في تطوير تكنولوجيا الذكاء الاصطناعي الجديدة، فإنهم لن يرَوا الأخلاقيات موضوعًا هامشيًّا لا يمتُّ بصِلةٍ إلى مُمارساتهم التكنولوجية ولكن يرَونها «جزءًا أساسيًّا» من هذه الممارسات. وعندئذٍ، في الحالة المثالية، ستعني «ممارسة الذكاء الاصطناعي» أو «ممارسة علم البيانات» أن يتمَّ تضمين الأخلاقيات ببساطة بوصفها جزءًا أساسيًّا لا غِنى عنه. على نطاقٍ أوسع، يُمكننا أن نفكر في شكلٍ أكثر تنوُّعًا وشمولية من التعليم أو السرد تتداخل فيه التخصُّصات جذريًّا فيما يتعلق بالأساليب والمناهج، وبالموضوعات، وأيضًا بالوسائط والتقنيات. بعبارةٍ أخرى أوضح، إذا تعلَّمَ المهندسون كيفية العمل باستخدام النصوص وتعلم المُختصون في العلوم الإنسانية كيفية العمل باستخدام أجهزة الكمبيوتر، فسيزداد الأمل في أخلاقيات التكنولوجيا وفي سياسة تصلح للتنفيذ عمليًّا.
مخاطر «شتاء» الذكاء الاصطناعي وخطر الاستخدام اللاواعي للذكاء الاصطناعي
إذا لم يبدأ تنفيذ هذه التوجيهات في السياسة والتعليم على أرض الواقع، وبشكلٍ عام، إذا فشل مشروع الذكاء الاصطناعي الأخلاقي، فإننا لن نُواجِه فقط مخاطر «شتاء» الذكاء الاصطناعي؛ بل إن الخطر الأدهى والأمَرَّ سيكمن في الكارثة الأخلاقية والاجتماعية والاقتصادية التي ستُلمُّ بنا وسيدفع ثمنها البشر وغير البشر والبيئة. هذا لا يتعلق بالتفرد التكنولوجي، أو بالآلات التي ستدمر العالم، أو بسيناريوهات نهاية العالم الأخرى حول المستقبل البعيد، ولكنه يتعلق بالزيادة البطيئة ولكن المؤكدة في تراكم المخاطر التكنولوجية وما ينجم عنها من تفاقم الضعف البشري والاجتماعي والاقتصادي والبيئي. هذه الزيادة في المخاطر والضعف مرتبطة بالمشكلات الأخلاقية المشار إليها هنا وفي الفصول السابقة، بما فيها الاستخدام الجاهل والمتهور لتقنيات الأتمتة المُتقدِّمة مثل الذكاء الاصطناعي. إن الفجوة في التعليم ربما تزيد من تأثير مخاطر الذكاء الاصطناعي بشكلٍ عام: حتى لو لم تتسبَّب دائمًا في مخاطر جديدة مباشرة، فإنها تُضاعف المخاطر الموجودة بالفعل على نحوٍ استثنائي. حتى الآن، لا يُوجَد ما يُسمى «رخصة قيادة» لاستخدام الذكاء الاصطناعي، ولا يُوجَد تعليم إلزامي لأخلاقيات الذكاء الاصطناعي للباحثين التقنيِّين، ورجال الأعمال، ومسئولي الحكومة وغيرهم من الأشخاص المشاركين في ابتكار الذكاء الاصطناعي واستخدامه وسياساته. هناك الكثير من آلات الذكاء الاصطناعي غير المُروَّضة في أيدي أشخاصٍ لا يعرفون المخاطر والمشكلات الأخلاقية المُرتبطة بها، أو الذين قد تكون لديهم توقعات خطأ بشأن التكنولوجيا. ويكمن الخطر، مرة أخرى، في ممارسة السلطة دون معرفة و(بالتالي) دون مسئولية؛ والأسوأ من ذلك أن يخضع الآخرون إلى هذه السلطة. وإذا كان هناك شرٌّ على الإطلاق، فإنه يُقيم حيثما قالت فيلسوفة القرن العشرين حنة آرنت: في غياب الوعي عن القرارات والعمل اليومي المُمل. وعندما يُفترَض أن الذكاء الاصطناعي غير مُتحيز ويُستخدَم دون فَهم لما يتم القيام به، فإن هذا من شأنه أن يُسهم في تعميق غياب الوعي، ثم في النهاية، في الفساد الأخلاقي للعالم. وتستطيع سياسات التعليم المساعَدة في التخفيف من ذلك وبالتالي المساهمة في جعل الذكاء الاصطناعي جيدًا وذا معنًى.
لا تزال هناك العديد من الأسئلة المُزعجة، وربما المؤلِمة إلى حدٍّ ما، التي غالبًا ما يتم تجاهلها في المناقشات التي تدور حول أخلاقيات الذكاء الاصطناعي وسياساته، ولكنها تستحقُّ منَّا على الأقل أن نذكُرها هنا، حتى وإن لم نُحللها تحليلًا كاملًا. هل أخلاقيات الذكاء الاصطناعي تتعلَّق فقط بخير البشر وقيمتهم، أم إن علينا أن نراعي أيضًا قِيَم غير البشر وخيرهم ومصالحهم؟ وحتى إذا كانت أخلاقيات الذكاء الاصطناعي تتعلق بشكل رئيسي بالبشر، فهل يمكن أن تكون أخلاقيات الذكاء الاصطناعي ليست بالمسألة الأهم التي يتعيَّن على البشرية الاهتمام بها؟ يقودنا هذا السؤال إلى الفصل الأخير من الكتاب.