الفصل الثامن

لامسئوليةُ الآلات والقرارات غير المُبررة

كيف يمكن أن نسند المسئولية الأخلاقية وما الكيفية الواجبة لذلك؟

عند استخدام الذكاء الاصطناعي لاتخاذ قرارات وللقيام بأشياء بالنيابة عنَّا، فإننا نواجِهُ مشكلة مشتركة في جميع تقنيات الأتمتة، غير أن هذه المشكلة تزداد أهميةً عندما يُمكِّننا الذكاء الاصطناعي من تفويض المزيد والمزيد من القرارات إلى الآلات أكثر بكثيرٍ مما كنا نفعل في الماضي: وهذه المشكلة هي إسناد المسئولية.1 إذا مُنح الذكاء الاصطناعي وكالة أكبر وأخذ على عاتقه ما كان يتولَّاه البشر في الماضي، فكيف نُسند المسئولية الأخلاقية عن أفعاله؟ مَن المسئول عن الأضرار والفوائد التي تنشأ عن التكنولوجيا عندما يفوض البشر الوكالة والقرارات إلى الذكاء الاصطناعي؟ وفيما يخصُّ المخاطر تحديدًا: مَن المسئول عند حدوث خطأ ما؟

عندما يقوم البشَر بأداء مهامَّ واتخاذ قرارات، فنحن عادةً ما نربط الوكالة بالمسئولية الأخلاقية. فأنت مسئول عما تفعله وعن القرارات التي تتَّخذها. وإذا كان لدَيك تأثير على العالم وعلى الآخرين، فأنت مسئول عن عواقب أفعالك. وفقًا لأرسطو، هذا هو الشرط الأول للمسئولية الأخلاقية، المعروف باسم الشرط التحكُّمي: في الأخلاقيات النيقوماخية، يقول أرسطو إن الفعل يجب أن ينشأ من الفاعل. ولهذا الرأي أيضًا جانب تقييمي: إذا كان لديك وكالة وإذا كنتَ قادرًا على اتخاذ قرارات، فينبغي أن تتحمَّل المسئولية عن أفعالك. وما نريد تجنُّبه من الناحية الأخلاقية هو أن يُوجَد شخص يتمتع بالوكالة والقدرة ولكنه لا يتحمل المسئولية. أضاف أرسطو أيضًا شرطًا آخَر فيما يخص المسئولية الأخلاقية: أنت مسئول إذا كنت تعلم ما تفعله. وهذا شرط إدراكي: يجب أن تكون واعيًا بما تفعل وعلى دراية بعواقبه المحتملة. وما نحتاج إلى تجنُّبه هنا هو شخص تصدُر عنه أفعال لا يدري ماهيتها، وهو ما قد يؤدي في النهاية إلى عواقب وخيمة.

إذا مُنِح الذكاء الاصطناعي وكالةً أكبر وأخذ على عاتِقِه ما كان يتولَّاه البشر في الماضي، فكيف نُسند المسئولية الأخلاقية عن أفعاله؟

الآن دعونا نرى هل تتحقَّق هذه الشروط عند تفويض القرارات والأعمال إلى الذكاء الاصطناعي. المشكلة الأولى هي أن الذكاء الاصطناعي يمكن أن يتَّخذ قراراتٍ ويؤدي أفعالًا لها عواقب أخلاقية، ولكنه لا يُدرك ما يفعله وغير قادر على التفكير الأخلاقي وبالتالي لا يُمكن اعتباره مسئولًا من الناحية الأخلاقية عما يفعله. يمكن أن تتمتَّع الآلات بالوكالة ولكن ليس بالوكالة الأخلاقية؛ لأنها تفتقِر إلى الوعي والإرادة الحرة والعواطف والقُدرة على تكوين النوايا وما شابَهَ ذلك. على سبيل المثال، وفقًا لرؤية أرسطو، يمكن للبشر فقط أداء الأفعال التطوُّعية والتفكير في أفعالهم. إذا كان هذا صحيحًا، فإن الحلَّ الوحيد هو جعْل البشر مسئولين عما تفعله الآلة. ومن ثَم فإن البشر يُفوِّضون الوكالة إلى الآلة، ولكنهم يحتفِظون بالمسئولية. ونحن نفعل ذلك بالفعل في أنظمتنا القانونية؛ إذ إننا لا نَعتبِر الكلاب أو الأطفال الصغار مسئولين عن أفعالهم، ولكننا نضع المسئولية القانونية على عاتق مَن يتولَّون رعايتهم. وفي مؤسسةٍ ما، قد نُفوِّض مهمةً معينة إلى شخصٍ ما ولكننا نُحمِّل المسئولية للمدير المسئول عن المشروع العام، على الرغم من أن الشخص المُفوض في هذه الحالة يتحمَّل جزءًا من المسئولية.2 إذَن لماذا لا نسمح للآلة بأداء الأعمال ونحتفظ بالمسئولية على الجانب البشري؟ يبدو أن هذه هي أفضل وسيلة نمضي بها قدمًا، حيث إن الخوارزميات والآلات بلا مسئولية.

ومع ذلك، يواجِه هذا الحلُّ عدة مشكلات في حالة الذكاء الاصطناعي. أولًا، يمكن للنظام المزوَّد بالذكاء الاصطناعي أن يتَّخذ قراراته ويؤدي أفعاله بسرعة كبيرة للغاية، على سبيل المثال، في التداول العالي التردُّد أو في السيارات الذاتية القيادة، مما يحرم الإنسان من الوقت الكافي لاتخاذ القرار النهائي أو التدخُّل في الفعل. فكيف يُمكن للبشر أن يتحمَّلوا المسئولية عن مثل هذه الأفعال والقرارات؟ ثانيًا، لأنظمة الذكاء الاصطناعي تواريخ. عندما يقوم الذكاء الاصطناعي بأشياء في سياق تطبيقٍ مُعين، فربما يُصبح من غير الواضح مَن أنشأه، ومَن استخدمه أولًا، والكيفية التي يجب بها توزيع المسئولية بين هذه الأطراف المختلفة المعنية. على سبيل المثال، في حالة إنشاء خوارزمية ذكاء اصطناعي في سياق مشروعٍ علمي في الجامعة، ثم تطبيق هذه الخوارزمية للمرة الأولى في المُختبر في الجامعة، ثم في قطاع الرعاية الصحية، وفي وقتٍ لاحق في سياقٍ عسكري. فمَن يتحمَّل المسئولية؟ قد يكون من الصعب تتبُّع جميع البشر المتورِّطين في تاريخ هذه الخوارزمية بالذات، بل في التاريخ السببي الذي أدَّى إلى نتيجةٍ معيَّنة تَحمِل إشكالية أخلاقية. فنحن لا نعرف دائمًا جميع الأشخاص المَعنيِّين في اللحظة التي تُثار فيها مشكلة تتعلق بالمسئولية. فخوارزمية الذكاء الاصطناعي غالبًا ما يكون لها تاريخ طويل يشارك فيه العديد من الأشخاص. وهذا يُفضي بنا إلى مشكلة نمطية في إسناد المسئولية عن الأفعال التكنولوجية؛ إذ غالبًا ما يكون هناك الكثير من الأطراف ويُمكنني أن أضيف، الأشياء.

هناك الكثير من الأطراف بمعنى أن الكثير من الأشخاص يشاركون في الفعل التكنولوجي. في حالة الذكاء الاصطناعي، يبدأ الأمر بالمبرمج، ولكن لدينا أيضًا المستخدم النهائي وآخرون. دعونا نفكر مثلًا في السيارة الذاتية القيادة: هناك المبرمج، ومُستخدِمُ السيارة، وأصحابُ شركة السيارات، والمستخدِمون الآخرون للطريق، وهكذا. في مارس ٢٠١٨، تسبَّبَت سيارة ذاتية القيادة لشركة أوبر في حادثٍ في أريزونا أدَّى إلى وفاة أحد المُشاة. فمَن المسئول عن هذه النتيجة المأساوية؟ يمكن أن يكون المسئولون هم مَن برمجوا السيارة، والأشخاص المسئولين عن تطوير المنتج في الشركة، وشركة أوبر نفسها، ومستخدم السيارة، والشخص السائر، والمشرع (على سبيل المثال، ولاية أريزونا)، وهكذا. إذَن فليس من الواضح على مَن تقع المسئولية. قد يكون الأمر هو أن المسئولية لا يمكن ولا يجب إسنادها إلى شخصٍ واحد؛ وربما تقع على أكثر من شخص. ولكن هذا يعني أنه ليس من الواضح كيفية توزيع المسئولية. فقد تقع المسئولية على بعضهم أكثر من الآخرين.

هناك أيضًا الكثير من الأشياء، بمعنى أن النظام التكنولوجي يتألف من العديد من العناصر المتصلة؛ وعادةً ما يكون هناك العديد من المكونات التي تدخل في النظام. هناك خوارزمية الذكاء الاصطناعي، ولكن هذه الخوارزمية تتفاعل مع أجهزة استشعار، وتستخدم جميع أنواع البيانات، وتتفاعل مع جميع أنواع المكونات المادية والبرمجية. كل هذه الأشياء لها تاريخها ومتصلة بالأشخاص الذين برمجوها أو أنتجوها. وعندما يحدُث خطأ، لا يكون واضحًا لنا بالضرورة ما إذا كان «الذكاء الاصطناعي» هو الذي سبَّب المشكلة أم مُكوِّن آخَر من مكونات النظام؛ بل إننا لا نعرف بالضرورة أين تنتهي مسئولية الذكاء الاصطناعي وتبدأ مسئولية بقية المكونات التكنولوجية. وهذا يجعل من الصعب إسناد المسئولية وتوزيعها. دعونا نفكر أيضًا في تعلم الآلة وعلم البيانات: كما رأينا، ليس هناك فقط خوارزمية، ولكن أيضًا عملية تشمل مراحل مختلفة مثل جمع البيانات ومعالجتها، وتدريب الخوارزمية، وهكذا؛ وجميع هذه المراحل يدخل فيها عناصر تقنية مختلفة وتتطلَّب قرارات بشرية. مرة أخرى، هناك تاريخ سببي يشترك فيه الكثير من البشر والأجزاء، وهذا يجعل إسناد المسئولية أمرًا صعبًا.

لكي نُحاول التعامل مع هذه القضايا، يمكننا أن نتعلم من الأنظمة القانونية أو نلقي نظرة على كيفية عمل التأمين؛ وسوف أتحدَّث عن بعض المفاهيم القانونية في الفصول المتعلقة بالسياسة. ولكن ثمَّة أسئلة أكثر عمومية تلوح لنا من وراء هذه الأنظمة القانونية وأنظمة التأمين حول وكالة الذكاء الاصطناعي والمسئولية عنه: إلى أي مدى نريد أن نعتمد على تقنية الأتمتة، وهل يُمكننا أن نتحمل المسئولية عما يقوم به الذكاء الاصطناعي، وكيف يُمكننا إسناد المسئوليات وتوزيعها؟ على سبيل المثال، مفهوم الإهمال في القانون يتعلَّق بما إذا كان الشخص قد أدَّى ما عليه من واجب العناية. ولكن ماذا يعني هذا الواجب في حالة الذكاء الاصطناعي، خاصةً أنه من الصعب التنبُّؤ بجميع العواقب الأخلاقية المُحتملة؟

وهذا يقودنا إلى القضية التالية. حتى إذا تمَّ حلُّ مشكلة التحكم، فهناك الشرط الثاني للمسئولية الأخلاقية، والذي يتعلَّق بمشكلة المعرفة. لكي تتحمَّل المسئولية، يجب أن تعرف ما تفعله والنتائج المُترتِّبة على فعلك، وفيما بعد، تعرف ما قمتَ به. وبالإضافة إلى ذلك، هذه المسألة لها جانب سردي: في حالة البشر، نتوقَّع أن يتمكن الشخص من شرح ما قام به أو قرَّرَه. المسئولية إذَن تعني القدرة على الرد والتفسير. فإذا حدث خطأ ما، فنحن نريد ردًّا وتفسيرًا. على سبيل المثال، نطلب من القاضي أن يُفسِّر قراره، أو نسأل الجاني لماذا فعل ما فعلَه. وهذه الشروط تُصبح إشكاليةً للغاية في حالة الذكاء الاصطناعي. أولًا، من حيث المبدأ، لا «يعرف» الذكاء الاصطناعي في الوقت الحاضر ما يفعله، بمعنى أنه ليس واعيًا وبالتالي لا يدرك ما يقوم به ولا يدرك نتائج أفعاله. يمكنه تخزين ما يفعله وتسجيله، ولكنه لا «يعرف ما يقوم به» كما يفعل البشر، الذين يُدركون، بوصفهم كائنات واعية، ما يفعلون ويمكنهم — وفقًا لأرسطو مرة أخرى — التفكير والتأمل في أفعالهم وعواقب تلك الأفعال. وعندما لا تُلبَّى هذه الشروط في حالة البشر، على سبيل المثال، في حالة الأطفال الصغار جدًّا، فإننا لا نحمِّلهم المسئولية. وكذلك عادةً ما لا نُحمِّل الحيوانات المسئولية أيضًا.3 وإذا لم يُلبِّ الذكاء الاصطناعي هذه الشروط، فإننا لا نستطيع أن نُحمِّله المسئولية. والحل مرة أخرى هو تحميل المسئولية للبشر عن أعمال الذكاء الاصطناعي، على افتراض أنهم يعرفون ما يقوم به الذكاء الاصطناعي وما يفعلونه باستخدام الذكاء الاصطناعي — وبمراعاة الجانب السردي — وأنهم قادرون على الردِّ عن أفعاله ويُمكنهم تفسير ما قام به الذكاء الاصطناعي.

ومع ذلك، فإن مدى صحة هذا الافتراض ليس أمرًا من السهل تقريره كما قد يبدو للوهلة الأولى. عادةً ما يعرف المبرمجون والمستخدمون ما الذي يرغبون في القيام به باستخدام الذكاء الاصطناعي، أو بدقَّة أكبر: يعرفون ما يريدون من الذكاء الاصطناعي أن يفعله لهم. إنهم يعرفون الهدف النهائي؛ ولهذا السبب يفوِّضون المهمة إلى الذكاء الاصطناعي. وقد يكونون أيضًا على دراية بكيفية عمل التكنولوجيا بشكلٍ عام. ولكن، كما سنرى، هم لا يعرفون بدقَّةٍ دائمًا ما يفعله الذكاء الاصطناعي (في أي لحظة) ولا يُمكنهم دائمًا تفسير ما فعله أو كيف وصل إلى قراره.

الشفافية والقابلية للتفسير

نحن نواجه هنا مشكلة الشفافية والقابلية للتفسير. في بعض أنظمة الذكاء الاصطناعي، تكون الطريقة التي يستخدمها الذكاء الاصطناعي لاتخاذ قراره واضحة. على سبيل المثال، إذا كان الذكاء الاصطناعي يستخدم شجرة اتخاذ القرارات، فإن الطريقة التي يصل بها إلى قراره تكون واضحة. فقد تمَّت برمجتُه بطريقة تُحدِّد القرار، بناءً على مدخلات مُعيَّنة. وبالتالي يمكن للبشر تفسير كيف وصل الذكاء الاصطناعي إلى قراره، ويمكن أن «نطلُب» من الذكاء الاصطناعي أن «يُفسر» قراره. بعد ذلك، يمكن للبشر تحمُّل مسئولية القرار أو، على الأحرى، اتخاذ قرار بناءً على التوصية التي قدَّمَها الذكاء الاصطناعي. ومع ذلك، مع بعض أنظمة الذكاء الاصطناعي الأخرى، ولا سيما تلك التي تستخدم تعلُّم الآلة وخاصة التعلُّم العميق الذي يستخدم الشبكات العصبية، لم يعُد من الممكن للإنسان تقديم هذا التفسير أو اتخاذ قراراتٍ من هذا النوع. حيث لم يعُد واضحًا كيف يصل الذكاءُ الاصطناعي إلى قراره، وبالتالي لا يُمكن للبشَر تفسير القرار بشكلٍ كامل. إنهم يعرفون كيف يعمل النظام الخاص بهم، بشكلٍ عام، ولكن لا يُمكنهم تفسير قرارٍ معيَّن. ولنضرب مثلًا بلعبة الشطرنج المزودة بالتعلُّم العميق: يعرف المبرمجون كيف يعمل الذكاء الاصطناعي، ولكن الطريقة الدقيقة التي يصل من خلالها الجهاز إلى حركةٍ معيَّنة (أي ما يحدث في طبقات الشبكة العصبية) ليست واضحة ولا يمكن تفسيرها. وهذه مشكلة فيما يخصُّ تحمُّل المسئولية، حيث لا يستطيع البشر الذين يُنشئون الذكاء الاصطناعي أو يستخدمونه تفسير قرار معين، وبالتالي يفشلون في معرفة ما يقوم به الذكاء الاصطناعي ولا يُمكنهم تبرير أفعاله. فمِن ناحية، يعرف البشر ما الذي يقوم به الذكاء الاصطناعي (على سبيل المثال، يعرفون الرموز البرمجية الخاصة بالذكاء الاصطناعي ويعرفون كيف يعمل بشكلٍ عام)، ولكن من ناحية أخرى، هم لا يعرفون (لا يُمكنهم تفسير قرار معيَّن)، وتكون نتيجة ذلك أن البشر الذين يتأثرون بالذكاء الاصطناعي لا يمكن إعطاؤهم معلوماتٍ دقيقة حول ما الذي دفع الآلة إلى الوصول إلى هذا التوقُّع. وبالتالي، على الرغم من أن كل تكنولوجيا الأتمتة تُثير مشكلات فيما يتعلق بالمسئولية، فإننا هنا نواجه مشكلةً تخصُّ بعض أنواع الذكاء الاصطناعي؛ وهي ما يطلَق عليها مشكلة الصندوق الأسود.

علاوةً على ذلك، حتى الافتراض بأن البشر في مثل هذه الحالات يتمتعون بمعرفةٍ حول الذكاء الاصطناعي بشكلٍ عام وحول رموزه البرمجية ليس دائمًا صحيحًا. فعلى الأرجح يعرف المبرمجون الأصليون الرموز البرمجية وكيفية عمل كل شيءٍ (أو على الأقل يعرفون الجزء الذي برمجوه)، ولكن ذلك لا يعني أن المبرمِجين والمُستخدمين اللاحقِين الذين يُغيرون الخوارزمية أو يستخدمونها لتطبيقاتٍ محدَّدة يعرفون تمامًا ما يفعله الذكاء الاصطناعي. على سبيل المثال، قد لا يفهم الشخص الذي يستخدم خوارزمية التداول الذكاء الاصطناعي تمام المعرفة، أو قد لا يعرف مُستخدمو وسائل التواصل الاجتماعي حتى أن الذكاء الاصطناعي يُستخدَم، فما بالك بأن يفهموه. ومن جهة المبرمِجين (الأصليين)، فهم قد لا يعرفون على نحوٍ دقيق الاستخدام «المُستقبلي» للخوارزمية التي يُطورونها أو مختلف مجالات التطبيق التي يُمكن استخدامها فيها، فما بالك بكلِّ التبِعات غير المقصودة للاستخدام المُستقبلي لهذه الخوارزمية. لذلك، حتى بغضِّ النظر عن المشكلة الخاصة بتعلُّم الآلة (التعلم العميق)، هناك مشكلة تتعلَّق بالمعرفة لدرجة أنَّ الكثيرين ممَّن يستخدمونه لا يعرفون ما يفعلون؛ لأنهم لا يعرفون ما الذي يفعله الذكاء الاصطناعي، وما هي تأثيراته، أو حتى أنه مُستخدَم من الأساس. وهذه أيضًا مشكلة فيما يخصُّ جانب المسئولية، وبالتالي فهي مشكلة أخلاقية خطيرة.

في بعض الأحيان، يتم تسليط الضوء على هذه المشكلات في سياق الثقة: فغياب الشفافية يؤدي إلى غياب الثقة في التكنولوجيا وفي الأشخاص الذين يستخدمون هذه التكنولوجيا. لذلك يسأل بعض الباحثين كيف يُمكننا زيادة الثقة في الذكاء الاصطناعي، ويُحدِّدون الشفافية والقابلية للتفسير كعاملٍ من العوامل التي يمكن أن تزيد من الثقة، فضلًا عن تجنُّب التحيُّز (Winikoff 2018) أو صور الذكاء الاصطناعي المُرعبة («ترمينيتور») (Siau and Wang 2018). وكما سنرى في الفصل القادم، غالبًا ما تهدف سياسات الذكاء الاصطناعي أيضًا إلى بناء الثقة. ومع ذلك، فإن مصطلحات مثل الذكاء الاصطناعي «الجدير بالثقة» مُثيرة للجدل؛ إذ تجعلنا نتساءل هل يجِب أن نحتفظ بمصطلح «الثقة» للحديث عن العلاقات الإنسانية، أم يمكن استخدامه للحديث عن الآلات أيضًا؟ تقول جوانا برايسون (٢٠١٨)، الباحثة في مجال الذكاء الاصطناعي، إن الذكاء الاصطناعي ليس شيئًا يمكن الوثوق به ولكنه مجموعة من تقنيات تطوير البرامج؛ ومن ثَم فهي تعتقد أن مصطلح «الثقة» يجب أن يُحتفَظ به للحديث عن البشر ومؤسساتهم الاجتماعية. وعلاوةً على ذلك، يُثير موضوع الشفافية والقابلية للتفسير تساؤلاتٍ حول نوع المجتمع الذي نرغب في العيش فيه. فهنا لا يكمُن الخطر في مجرد تلاعُب الرأسماليين أو النخب التكنوقراطية وهيمنتهم، مما يخلق مجتمعًا يُعاني من الانقسام إلى حدٍّ كبير. وإنما يتمثل الخطر الأكبر وربما الأعمق الذي يَحيق بنا في أن نعيش في مجتمعٍ عالي التقنية، مجتمع لا تعود فيه حتى هذه النخب قادرةً على معرفة ما تفعله، مجتمع لا يستطيع فيه أحدٌ أن يُفسِّر ما يحدث.
كما سنرى، يقترح صانعو السياسات في بعض الأحيان «الذكاء الاصطناعي القابل للتفسير» و«حق التفسير». إلا إننا لا ندري إن كان من المُمكن أن يكون الذكاء الاصطناعي شفافًا طوال الوقت. يبدو هذا سهلَ التحقيق في الأنظمة الكلاسيكية. ولكن إذا بدا مُستحيلًا من حيث المبدأ شرح كلِّ خطوة في عملية اتخاذ القرار وشرح القرارات المُتعلقة بأفراد مُحدَّدين مع تطبيقات تعلم الآلة المُعاصرة، فلدَينا مشكلة إذَن. هل من الممكن «فتح الصندوق الأسود»؟ قد يكون هذا شيئًا جيدًا، ليس فقط للأخلاق ولكن أيضًا لتحسين النظام (أي، النموذج) والتعلُّم منه. على سبيل المثال، إذا كان النظام أكثر قابلية للتفسير، وإذا كان الذكاء الاصطناعي يَستخدِم ما نعتبره سماتٍ غير ملائمة، عندئذٍ يمكن للبشر اكتشاف هذه المشكلات والمساعدة في القضاء على الارتباطات الزائفة. وإذا كان الذكاء الاصطناعي يُحدد استراتيجيات جديدة لمُمارسة لعبةٍ ويجعل هذه الاستراتيجيات أكثر شفافية للبشر، عندئذٍ يمكن للبشر تعلُّمها من الآلة لتحسين أدائهم في اللعبة. وهذا مُفيد ليس فقط في مجال الألعاب، ولكن أيضًا في مجالات مِثل الرعاية الصحية والعدالة الجنائية والعلوم. لذلك، يُحاول بعض الباحثين تطوير تقنيات لفتح الصندوق الأسود (Samek, Wiegand, and Müller 2017). ولكن إذا لم يكن ذلك مُمكنًا بعدُ أو كان مُمكنًا بدرجة محدودة، فكيف لنا أن نمضي قدمًا؟ هل تتعلَّق المشكلة الأخلاقية هنا بالاختيار بين الأداء وإمكانية التفسير (Seseri 2018)؟ وإذا كانت تكلفة إنشاء نظام ذي أداءٍ جيد هي نقص في الشفافية، فهل يجِب علينا استخدام مثل هذا النظام، أم لا؟ أم يجب أن نُحاول تجنُّب هذه المشكلة والبحث عن حلول تقنية أخرى، بحيث تكون حتى أنظمة الذكاء الاصطناعي الأكثر تقدمًا قادرةً على تبرير أفعالها للبشر؟ هل يُمكننا تدريب الآلات على القيام بذلك؟

علاوةً على ذلك، حتى إذا كانت الشفافية مرغوبة ومُمكنة، فقد يكون من الصعب تحقيقها عمليًّا. على سبيل المثال، ربما لا تكون الشركات الخاصة على استعدادٍ للكشف عن خوارزمياتها؛ لأنها ترغب في حماية مصالحها التجارية. كذلك قد تحُول قوانين الملكية الفكرية التي تحمي تلك المصالح دون ذلك. وكما سنرى في فصول لاحقة، إذا كان الذكاء الاصطناعي في أيدي الشركات القوية، فإن هذا يُثير السؤال حول مَن يصنع قوانين الذكاء الاصطناعي ومَن يجب أن يصنعها.

ومع ذلك، يجب مراعاة أن الشفافية والقابلية للتفسير من الناحية الأخلاقية لا تتعلَّق بالضرورة بالكشف عن الرموز البرمجية، وهي بالتأكيد لا تقتصر على ذلك فحسب. المسألة تتعلَّق أساسًا بتفسير القرارات للبشر. إنها لا تتعلَّق في المقام الأول بتفسير «كيف يعمل» وإنما تتعلَّق بكيف يُمكنني أنا، بوصفي إنسانًا من المتوقَّع منه أن يكون مسئولًا ويتصرَّف بمسئولية، تفسير قراري. ويُمكن أن تكون كيفية عمل الذكاء الاصطناعي، وكيفية وصوله إلى هذه التوصية، جزءًا من ذلك التفسير. علاوةً على ذلك، فإن الكشف عن الرموز البرمجية بمُفردها لا يعطي بالضرورة معرفةً حول كيفية عمل الذكاء الاصطناعي. فهذه المعرفة تعتمِد على الخلفية التعليمية للإنسان ومهاراته. فإذا كان يفتقر إلى الخبرة التقنية ذات الصلة، فإننا نحتاج إلى نوعٍ آخَر من التفسير. وهذا لا يُذكِّرنا فحسب بمشكلة التعليم ولكنه يؤدِّي بنا إلى سؤالٍ حول نوع التفسير الذي نحتاجُه، ثم ماهية التفسير في حدِّ ذاته.

وهكذا تَطرَح قضية الشفافية والقابلية للتفسير أيضًا أسئلة فلسفية وعلمية مُثيرة للاهتمام، مثل الأسئلة المتعلقة بطبيعة التفسير (Weld and Bansal 2018). ومما يتألف التفسير الجيد؟ وما الفرق بين التفسيرات والأسباب، وهل يمكن للآلات تقديم أي منها؟ وكيف يتَّخذ البشر القرارات في الواقع؟ وكيف يُبرِّرون قراراتهم؟ هناك أبحاث حول هذا الموضوع في علم النفس المعرفي والعلوم المعرفية، والتي يُمكن استخدامها للتفكير في الذكاء الاصطناعي القابل للتفسير. على سبيل المثال، لا يُقدم الناس عمومًا سلاسل سببيةً كاملة؛ وإنما يختارون تفسيراتٍ ويجيبون عما يعتقدون أنها مُعتقدات الشخص الذي يُفسِّر لهم: التفسيرات اجتماعية (Miller 2018). وربما نتوقع أيضًا أن تكون تفسيرات الآلات مختلفة عن تفسيرات البشر، الذين يُبررون أفعالهم في كثيرٍ من الأحيان بأنها نتيجة للعواطف. ولكن إذا فعلنا ذلك، فهل يعني هذا أننا نعتبر طريقة اتخاذ الآلات للقرارات أفضل من طريقة اتخاذ البشر لها (Dignum et al. 2018)، وإذا كان الأمر كذلك، فهل يجب أن نفعل؟ يتحدث بعض الباحثين عن الاستدلال بدلًا من التفسير. بل إن وينيكوف (٢٠١٨) يطلب «الاستدلال بناءً على القِيَم» من الذكاء الاصطناعي وغيره من الأنظمة المُستقلة، التي يجب أن تكون قادرةً على تمثيل القيم البشرية والاستدلال باستخدام تلك القِيَم. ولكن هل يمكن للآلة أن تقوم بالاستدلال، وكيف يمكن للنظام التكنولوجي «استخدام» القِيَم أو «تمثيلها» من الأساس؟ أي نوع من المعرفة يمتلكها هذا النظام؟ وهل يمتلك معرفة من الأساس؟ وهل يستطيع الفهم من الأساس؟ وكما يسأل بودينجتون (٢٠١٧)، هل يمكن للبشر أن يُعبِّروا بشكلٍ كامل عن قيَمِهم الجوهرية؟
مثل هذه المشكلات مُثيرة للاهتمام من منظور الفلاسفة، ولكنها أيضًا ذات صلةٍ مباشرة بالأخلاقيات، كما أنها واقعية وعملية للغاية. وكما يقول كاستيلفيتشي (٢٠١٦): إن فتح «الصندوق الأسود» مشكلة في العالَم الحقيقي. على سبيل المثال، يجب على البنوك أن تُفسِّر سبب رفض قرضٍ ما؛ ويجب على القضاة تفسير سبب إصدار الأوامر بحبس شخصٍ ما (مرةً أخرى). إن تفسير القرارات ليس فقط جزءًا من طبيعة البشر عندما يتواصلون (Goebel et al. 2018)، بل هو أيضًا مطلب أخلاقي. إن القدرة على التفسير شرط ضروري للسلوك واتخاذ القرارات بشكل مسئول وقابل للمساءلة. ويبدو أنه ضروري لأي مجتمع يرغب في احترام البشر بوصفهم أفرادًا مُستقلين اجتماعيِّين يُحاولون التصرف واتخاذ القرارات بشكلٍ مسئول وفي الوقت نفسه يُطالبون، عن استحقاق، بالحصول على أسبابٍ للقرارات التي تؤثر عليهم وتفسيرات لها. وسواءٌ أكان بإمكان الذكاء الاصطناعي توفير تلك الأسباب والتفسيرات «مباشرةً» أم لا، فإن البشر لا بد أن يكونوا قادرين على الإجابة عند سؤالهم عن الأسباب. إن التحدي الذي يواجِه الباحثين في مجال الذكاء الاصطناعي هو ضمان أنه في حال استخدام الذكاء الاصطناعي لأغراض اتخاذ القرارات من الأساس، فيجب تصميم التكنولوجيا بحيث يتمكن البشر قدْر الإمكان من الإجابة عند سؤالهم عن أسباب اتخاذ تلك القرارات.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤