لامسئوليةُ الآلات والقرارات غير المُبررة
كيف يمكن أن نسند المسئولية الأخلاقية وما الكيفية الواجبة لذلك؟
عندما يقوم البشَر بأداء مهامَّ واتخاذ قرارات، فنحن عادةً ما نربط الوكالة بالمسئولية الأخلاقية. فأنت مسئول عما تفعله وعن القرارات التي تتَّخذها. وإذا كان لدَيك تأثير على العالم وعلى الآخرين، فأنت مسئول عن عواقب أفعالك. وفقًا لأرسطو، هذا هو الشرط الأول للمسئولية الأخلاقية، المعروف باسم الشرط التحكُّمي: في الأخلاقيات النيقوماخية، يقول أرسطو إن الفعل يجب أن ينشأ من الفاعل. ولهذا الرأي أيضًا جانب تقييمي: إذا كان لديك وكالة وإذا كنتَ قادرًا على اتخاذ قرارات، فينبغي أن تتحمَّل المسئولية عن أفعالك. وما نريد تجنُّبه من الناحية الأخلاقية هو أن يُوجَد شخص يتمتع بالوكالة والقدرة ولكنه لا يتحمل المسئولية. أضاف أرسطو أيضًا شرطًا آخَر فيما يخص المسئولية الأخلاقية: أنت مسئول إذا كنت تعلم ما تفعله. وهذا شرط إدراكي: يجب أن تكون واعيًا بما تفعل وعلى دراية بعواقبه المحتملة. وما نحتاج إلى تجنُّبه هنا هو شخص تصدُر عنه أفعال لا يدري ماهيتها، وهو ما قد يؤدي في النهاية إلى عواقب وخيمة.
إذا مُنِح الذكاء الاصطناعي وكالةً أكبر وأخذ على عاتِقِه ما كان يتولَّاه البشر في الماضي، فكيف نُسند المسئولية الأخلاقية عن أفعاله؟
ومع ذلك، يواجِه هذا الحلُّ عدة مشكلات في حالة الذكاء الاصطناعي. أولًا، يمكن للنظام المزوَّد بالذكاء الاصطناعي أن يتَّخذ قراراته ويؤدي أفعاله بسرعة كبيرة للغاية، على سبيل المثال، في التداول العالي التردُّد أو في السيارات الذاتية القيادة، مما يحرم الإنسان من الوقت الكافي لاتخاذ القرار النهائي أو التدخُّل في الفعل. فكيف يُمكن للبشر أن يتحمَّلوا المسئولية عن مثل هذه الأفعال والقرارات؟ ثانيًا، لأنظمة الذكاء الاصطناعي تواريخ. عندما يقوم الذكاء الاصطناعي بأشياء في سياق تطبيقٍ مُعين، فربما يُصبح من غير الواضح مَن أنشأه، ومَن استخدمه أولًا، والكيفية التي يجب بها توزيع المسئولية بين هذه الأطراف المختلفة المعنية. على سبيل المثال، في حالة إنشاء خوارزمية ذكاء اصطناعي في سياق مشروعٍ علمي في الجامعة، ثم تطبيق هذه الخوارزمية للمرة الأولى في المُختبر في الجامعة، ثم في قطاع الرعاية الصحية، وفي وقتٍ لاحق في سياقٍ عسكري. فمَن يتحمَّل المسئولية؟ قد يكون من الصعب تتبُّع جميع البشر المتورِّطين في تاريخ هذه الخوارزمية بالذات، بل في التاريخ السببي الذي أدَّى إلى نتيجةٍ معيَّنة تَحمِل إشكالية أخلاقية. فنحن لا نعرف دائمًا جميع الأشخاص المَعنيِّين في اللحظة التي تُثار فيها مشكلة تتعلق بالمسئولية. فخوارزمية الذكاء الاصطناعي غالبًا ما يكون لها تاريخ طويل يشارك فيه العديد من الأشخاص. وهذا يُفضي بنا إلى مشكلة نمطية في إسناد المسئولية عن الأفعال التكنولوجية؛ إذ غالبًا ما يكون هناك الكثير من الأطراف ويُمكنني أن أضيف، الأشياء.
هناك الكثير من الأطراف بمعنى أن الكثير من الأشخاص يشاركون في الفعل التكنولوجي. في حالة الذكاء الاصطناعي، يبدأ الأمر بالمبرمج، ولكن لدينا أيضًا المستخدم النهائي وآخرون. دعونا نفكر مثلًا في السيارة الذاتية القيادة: هناك المبرمج، ومُستخدِمُ السيارة، وأصحابُ شركة السيارات، والمستخدِمون الآخرون للطريق، وهكذا. في مارس ٢٠١٨، تسبَّبَت سيارة ذاتية القيادة لشركة أوبر في حادثٍ في أريزونا أدَّى إلى وفاة أحد المُشاة. فمَن المسئول عن هذه النتيجة المأساوية؟ يمكن أن يكون المسئولون هم مَن برمجوا السيارة، والأشخاص المسئولين عن تطوير المنتج في الشركة، وشركة أوبر نفسها، ومستخدم السيارة، والشخص السائر، والمشرع (على سبيل المثال، ولاية أريزونا)، وهكذا. إذَن فليس من الواضح على مَن تقع المسئولية. قد يكون الأمر هو أن المسئولية لا يمكن ولا يجب إسنادها إلى شخصٍ واحد؛ وربما تقع على أكثر من شخص. ولكن هذا يعني أنه ليس من الواضح كيفية توزيع المسئولية. فقد تقع المسئولية على بعضهم أكثر من الآخرين.
هناك أيضًا الكثير من الأشياء، بمعنى أن النظام التكنولوجي يتألف من العديد من العناصر المتصلة؛ وعادةً ما يكون هناك العديد من المكونات التي تدخل في النظام. هناك خوارزمية الذكاء الاصطناعي، ولكن هذه الخوارزمية تتفاعل مع أجهزة استشعار، وتستخدم جميع أنواع البيانات، وتتفاعل مع جميع أنواع المكونات المادية والبرمجية. كل هذه الأشياء لها تاريخها ومتصلة بالأشخاص الذين برمجوها أو أنتجوها. وعندما يحدُث خطأ، لا يكون واضحًا لنا بالضرورة ما إذا كان «الذكاء الاصطناعي» هو الذي سبَّب المشكلة أم مُكوِّن آخَر من مكونات النظام؛ بل إننا لا نعرف بالضرورة أين تنتهي مسئولية الذكاء الاصطناعي وتبدأ مسئولية بقية المكونات التكنولوجية. وهذا يجعل من الصعب إسناد المسئولية وتوزيعها. دعونا نفكر أيضًا في تعلم الآلة وعلم البيانات: كما رأينا، ليس هناك فقط خوارزمية، ولكن أيضًا عملية تشمل مراحل مختلفة مثل جمع البيانات ومعالجتها، وتدريب الخوارزمية، وهكذا؛ وجميع هذه المراحل يدخل فيها عناصر تقنية مختلفة وتتطلَّب قرارات بشرية. مرة أخرى، هناك تاريخ سببي يشترك فيه الكثير من البشر والأجزاء، وهذا يجعل إسناد المسئولية أمرًا صعبًا.
لكي نُحاول التعامل مع هذه القضايا، يمكننا أن نتعلم من الأنظمة القانونية أو نلقي نظرة على كيفية عمل التأمين؛ وسوف أتحدَّث عن بعض المفاهيم القانونية في الفصول المتعلقة بالسياسة. ولكن ثمَّة أسئلة أكثر عمومية تلوح لنا من وراء هذه الأنظمة القانونية وأنظمة التأمين حول وكالة الذكاء الاصطناعي والمسئولية عنه: إلى أي مدى نريد أن نعتمد على تقنية الأتمتة، وهل يُمكننا أن نتحمل المسئولية عما يقوم به الذكاء الاصطناعي، وكيف يُمكننا إسناد المسئوليات وتوزيعها؟ على سبيل المثال، مفهوم الإهمال في القانون يتعلَّق بما إذا كان الشخص قد أدَّى ما عليه من واجب العناية. ولكن ماذا يعني هذا الواجب في حالة الذكاء الاصطناعي، خاصةً أنه من الصعب التنبُّؤ بجميع العواقب الأخلاقية المُحتملة؟
ومع ذلك، فإن مدى صحة هذا الافتراض ليس أمرًا من السهل تقريره كما قد يبدو للوهلة الأولى. عادةً ما يعرف المبرمجون والمستخدمون ما الذي يرغبون في القيام به باستخدام الذكاء الاصطناعي، أو بدقَّة أكبر: يعرفون ما يريدون من الذكاء الاصطناعي أن يفعله لهم. إنهم يعرفون الهدف النهائي؛ ولهذا السبب يفوِّضون المهمة إلى الذكاء الاصطناعي. وقد يكونون أيضًا على دراية بكيفية عمل التكنولوجيا بشكلٍ عام. ولكن، كما سنرى، هم لا يعرفون بدقَّةٍ دائمًا ما يفعله الذكاء الاصطناعي (في أي لحظة) ولا يُمكنهم دائمًا تفسير ما فعله أو كيف وصل إلى قراره.
الشفافية والقابلية للتفسير
نحن نواجه هنا مشكلة الشفافية والقابلية للتفسير. في بعض أنظمة الذكاء الاصطناعي، تكون الطريقة التي يستخدمها الذكاء الاصطناعي لاتخاذ قراره واضحة. على سبيل المثال، إذا كان الذكاء الاصطناعي يستخدم شجرة اتخاذ القرارات، فإن الطريقة التي يصل بها إلى قراره تكون واضحة. فقد تمَّت برمجتُه بطريقة تُحدِّد القرار، بناءً على مدخلات مُعيَّنة. وبالتالي يمكن للبشر تفسير كيف وصل الذكاء الاصطناعي إلى قراره، ويمكن أن «نطلُب» من الذكاء الاصطناعي أن «يُفسر» قراره. بعد ذلك، يمكن للبشر تحمُّل مسئولية القرار أو، على الأحرى، اتخاذ قرار بناءً على التوصية التي قدَّمَها الذكاء الاصطناعي. ومع ذلك، مع بعض أنظمة الذكاء الاصطناعي الأخرى، ولا سيما تلك التي تستخدم تعلُّم الآلة وخاصة التعلُّم العميق الذي يستخدم الشبكات العصبية، لم يعُد من الممكن للإنسان تقديم هذا التفسير أو اتخاذ قراراتٍ من هذا النوع. حيث لم يعُد واضحًا كيف يصل الذكاءُ الاصطناعي إلى قراره، وبالتالي لا يُمكن للبشَر تفسير القرار بشكلٍ كامل. إنهم يعرفون كيف يعمل النظام الخاص بهم، بشكلٍ عام، ولكن لا يُمكنهم تفسير قرارٍ معيَّن. ولنضرب مثلًا بلعبة الشطرنج المزودة بالتعلُّم العميق: يعرف المبرمجون كيف يعمل الذكاء الاصطناعي، ولكن الطريقة الدقيقة التي يصل من خلالها الجهاز إلى حركةٍ معيَّنة (أي ما يحدث في طبقات الشبكة العصبية) ليست واضحة ولا يمكن تفسيرها. وهذه مشكلة فيما يخصُّ تحمُّل المسئولية، حيث لا يستطيع البشر الذين يُنشئون الذكاء الاصطناعي أو يستخدمونه تفسير قرار معين، وبالتالي يفشلون في معرفة ما يقوم به الذكاء الاصطناعي ولا يُمكنهم تبرير أفعاله. فمِن ناحية، يعرف البشر ما الذي يقوم به الذكاء الاصطناعي (على سبيل المثال، يعرفون الرموز البرمجية الخاصة بالذكاء الاصطناعي ويعرفون كيف يعمل بشكلٍ عام)، ولكن من ناحية أخرى، هم لا يعرفون (لا يُمكنهم تفسير قرار معيَّن)، وتكون نتيجة ذلك أن البشر الذين يتأثرون بالذكاء الاصطناعي لا يمكن إعطاؤهم معلوماتٍ دقيقة حول ما الذي دفع الآلة إلى الوصول إلى هذا التوقُّع. وبالتالي، على الرغم من أن كل تكنولوجيا الأتمتة تُثير مشكلات فيما يتعلق بالمسئولية، فإننا هنا نواجه مشكلةً تخصُّ بعض أنواع الذكاء الاصطناعي؛ وهي ما يطلَق عليها مشكلة الصندوق الأسود.
علاوةً على ذلك، حتى الافتراض بأن البشر في مثل هذه الحالات يتمتعون بمعرفةٍ حول الذكاء الاصطناعي بشكلٍ عام وحول رموزه البرمجية ليس دائمًا صحيحًا. فعلى الأرجح يعرف المبرمجون الأصليون الرموز البرمجية وكيفية عمل كل شيءٍ (أو على الأقل يعرفون الجزء الذي برمجوه)، ولكن ذلك لا يعني أن المبرمِجين والمُستخدمين اللاحقِين الذين يُغيرون الخوارزمية أو يستخدمونها لتطبيقاتٍ محدَّدة يعرفون تمامًا ما يفعله الذكاء الاصطناعي. على سبيل المثال، قد لا يفهم الشخص الذي يستخدم خوارزمية التداول الذكاء الاصطناعي تمام المعرفة، أو قد لا يعرف مُستخدمو وسائل التواصل الاجتماعي حتى أن الذكاء الاصطناعي يُستخدَم، فما بالك بأن يفهموه. ومن جهة المبرمِجين (الأصليين)، فهم قد لا يعرفون على نحوٍ دقيق الاستخدام «المُستقبلي» للخوارزمية التي يُطورونها أو مختلف مجالات التطبيق التي يُمكن استخدامها فيها، فما بالك بكلِّ التبِعات غير المقصودة للاستخدام المُستقبلي لهذه الخوارزمية. لذلك، حتى بغضِّ النظر عن المشكلة الخاصة بتعلُّم الآلة (التعلم العميق)، هناك مشكلة تتعلَّق بالمعرفة لدرجة أنَّ الكثيرين ممَّن يستخدمونه لا يعرفون ما يفعلون؛ لأنهم لا يعرفون ما الذي يفعله الذكاء الاصطناعي، وما هي تأثيراته، أو حتى أنه مُستخدَم من الأساس. وهذه أيضًا مشكلة فيما يخصُّ جانب المسئولية، وبالتالي فهي مشكلة أخلاقية خطيرة.
علاوةً على ذلك، حتى إذا كانت الشفافية مرغوبة ومُمكنة، فقد يكون من الصعب تحقيقها عمليًّا. على سبيل المثال، ربما لا تكون الشركات الخاصة على استعدادٍ للكشف عن خوارزمياتها؛ لأنها ترغب في حماية مصالحها التجارية. كذلك قد تحُول قوانين الملكية الفكرية التي تحمي تلك المصالح دون ذلك. وكما سنرى في فصول لاحقة، إذا كان الذكاء الاصطناعي في أيدي الشركات القوية، فإن هذا يُثير السؤال حول مَن يصنع قوانين الذكاء الاصطناعي ومَن يجب أن يصنعها.
ومع ذلك، يجب مراعاة أن الشفافية والقابلية للتفسير من الناحية الأخلاقية لا تتعلَّق بالضرورة بالكشف عن الرموز البرمجية، وهي بالتأكيد لا تقتصر على ذلك فحسب. المسألة تتعلَّق أساسًا بتفسير القرارات للبشر. إنها لا تتعلَّق في المقام الأول بتفسير «كيف يعمل» وإنما تتعلَّق بكيف يُمكنني أنا، بوصفي إنسانًا من المتوقَّع منه أن يكون مسئولًا ويتصرَّف بمسئولية، تفسير قراري. ويُمكن أن تكون كيفية عمل الذكاء الاصطناعي، وكيفية وصوله إلى هذه التوصية، جزءًا من ذلك التفسير. علاوةً على ذلك، فإن الكشف عن الرموز البرمجية بمُفردها لا يعطي بالضرورة معرفةً حول كيفية عمل الذكاء الاصطناعي. فهذه المعرفة تعتمِد على الخلفية التعليمية للإنسان ومهاراته. فإذا كان يفتقر إلى الخبرة التقنية ذات الصلة، فإننا نحتاج إلى نوعٍ آخَر من التفسير. وهذا لا يُذكِّرنا فحسب بمشكلة التعليم ولكنه يؤدِّي بنا إلى سؤالٍ حول نوع التفسير الذي نحتاجُه، ثم ماهية التفسير في حدِّ ذاته.