ما يجب القيام به وأسئلة أخرى يتعيَّن على صانعي السياسات الإجابة عنها
نظرًا إلى المشكلات الأخلاقية المُرتبطة
بالذكاء الاصطناعي، فإنه من الواضح أن شيئًا ما يجب القيام به. ولذا، تتضمَّن معظم
مبادرات السياسات المُتعلقة بالذكاء الاصطناعي أخلاقيات الذكاء الاصطناعي. وجدير بالذكر
أن هناك الكثير من المبادرات في هذا المجال في الوقت الحالي. ومع ذلك، ليس من الواضح
بالضبط ما يجِب القيام به، وما المسار الذي يجب اتِّخاذه. على سبيل المثال، ليس واضحًا
كيفية التعامُل مع مشكلة الشفافية أو التحيُّز، نظرًا إلى التقنيات نفسها، والتحيُّز
الذي يُعاني منه المجتمع بالفعل، والآراء المُتباينة حول العدالة والإنصاف. وهناك أيضًا
العديد من التدابير المُمكن اتخاذها: إذ يمكن أن تعني السياسة التنظيمَ من خلال إصدار
القوانين واللوائح، على سبيل المثال، الأنظمة القانونية، ولكن هناك أيضًا استراتيجيات
أخرى قد تكون مُتصلة أو غير متصلة بالأنظمة القانونية، مثل التدابير التكنولوجية،
وقواعد الأخلاق، والتعليم. ولا يقتصر التنظيم على القوانين ولكنه يتضمن أيضًا معايير
مثل معايير الآيزو. وعلاوة على ذلك، هناك أيضًا أنواع أخرى من الأسئلة التي يتعيَّن
الإجابة عنها في السياسات المقترحة؛ فالأمر ليس فقط ما يجِب القيام به، ولكن أيضًا
لماذا يجب القيام به، ومتى يجِب القيام به، وما مِقدار ما يجب القيام به، ومَن يجب عليه
أن يقوم به، وما هي طبيعة المشكلة ومَداها ودرجة خطورتها وإلحاحها.
أولًا: من المُهم تبرير التدابير المقترحة. على سبيل المثال، قد تستنِد السياسة
المُقترحة إلى مبادئ حقوق الإنسان لتبرير اقتراحٍ بالتقليل من اتخاذ القرارات التي
تعتمِد على خوارزميات مُتحيزة. ثانيًا: استجابة إلى التطوُّر التكنولوجي، غالبًا ما
تأتي السياسة بعد فوات الأوان، عندما تكون التكنولوجيا قد توغَّلت بالفعل في المجتمع
ودخلت في كلِّ شيء. بدلًا من ذلك، يمكن أن نُحاول وضع سياسة قبل أن يكتمِل تطوير
التكنولوجيا ويبدأ استخدامها. وفيما يخصُّ الذكاء الاصطناعي، يمكن القول إن هذا ما زال
مُمكنًا، إلى حدٍّ ما، على الرغم من أن الكثير من الأنظمة المدعومة بالذكاء الاصطناعي
موجودة بالفعل حولنا. والبُعد الزمني مُهم أيضًا فيما يتعلَّق بالنطاق الزمني للسياسة:
هل هي مُخصَّصة فقط للسنوات الخمس أو العشر المقبلة، أم تهدف إلى أن تُكوِّن إطار عمل
على المدى البعيد؟ هنا علينا أن نختار. على سبيل المثال، يمكن تجاهل التنبؤات على المدى
البعيد والتركيز على المستقبل القريب، كما تفعل معظم السياسات المُقترحة، أو يمكن طرح
رؤية لمستقبل الإنسانية. ثالثًا: لا يتفق الجميع على أن حلَّ المشكلات يتطلَّب الكثير
من التدابير الجديدة. يزعم بعض الأشخاص والمؤسسات أن التشريعات الحالية كافية للتعامُل
مع الذكاء الاصطناعي. فإذا كان هذا هو الحال، فإنه يبدو أن المُشرِّعين ليسوا في حاجة
إلى القيام بالكثير، في حين أن الذين يُفسرون القانون والذين يُطوِّرون الذكاء
الاصطناعي هم مَن يحتاجون إلى العمل الدءوب. ويعتقد آخَرون أنه يجب أن نُعيد التفكير
في
جوهر المجتمع ومؤسساته، بما في ذلك أنظمتنا القانونية، من أجل التعامُل مع المشكلات
الأساسية وإعداد أجيال المُستقبل. رابعًا: يجب أن توضِّح السياسة المقترحة مَن الذي يجب
أن يتخذ الإجراءات. وقد لا يقتصِر هذا على جهةٍ واحدة وإنما أكثر من جهة. فكما رأينا،
يشترك الكثيرون في أي عملٍ تكنولوجي. ويُثير هذا سؤالًا حول كيفية توزيع المسئولية عن
السياسة والتغيير: هل الحكومات أساسًا هي المسئولة عن اتخاذ إجراءات، أم يجب، على سبيل
المثال، على الشركات والصناعة اتخاذ إجراءاتٍ خاصة بها لضمان الذكاء الاصطناعي
الأخلاقي؟ وفيما يتعلَّق بالشركات، هل يجب مخاطبة الشركات الكبيرة فقط أم أيضًا الشركات
الصغيرة والمتوسِّطة الحجم؟ وما هو دور العلماء (المُختصِّين بالكمبيوتر) والمهندسين
الأفراد؟ وما هو دور المواطنين؟
خامسًا: تعتمد الإجابة عما يجب القيام به ومقدار ما يجب القيام به، وعن أسئلة أخرى،
على كيفية تعريف طبيعة المشكلة نفسها ومَداها ودرجة خطورتها وإلحاحها. على سبيل المثال،
هناك اتجاه في سياسات التكنولوجيا (وفي الواقع، في أخلاقيات الذكاء الاصطناعي) لرؤية
مشكلاتٍ جديدة في كلِّ مكان. ومع ذلك، كما رأينا في الفصل السابق، فالعديد من المشكلات
قد لا تكون حكرًا على التقنيات الجديدة، ولكنها ربما تكون موجودةً منذ وقتٍ طويل.
علاوةً على ذلك، كما أظهر النقاش حول التحيُّز، يعتمِد ما نقترح القيام به على كيفية
تعريف المشكلة: هل هي مشكلة خاصة بالعدالة، وإذا كانت كذلك، فما هو نوع العدالة
المُهدَّدة؟ سيشكل تعريف المشكلة التدابير التي نقترحها. على سبيل المثال، إذا قدَّمنا
تدابير للعمل الإيجابي، فإن هذا يستند إلى تعريفٍ مُعين للمشكلة. وأخيرًا، يلعب أيضًا
تعريف الذكاء الاصطناعي دورًا في تحديد السياسة المقترحة ونطاقها، وقد كان هذا التعريف
دائمًا مُثيرًا للجدل والنقاشات. على سبيل المثال، هل مِن المُمكن ومن المُستحسَن أن
نُميز بوضوح بين الذكاء الاصطناعي والخوارزميات الذكية المُستقلة، أو بين الذكاء
الاصطناعي وتقنيات الأتمتة؟ جميع هذه الأسئلة تجعل من صنع السياسات المُتعلقة بالذكاء
الاصطناعي أمرًا قد يُثير الجدل بشكلٍ كبير. وبالفعل، نجد العديد من الاختلافات
والجدالات، على سبيل المثال حول مدى الحاجة إلى تشريعات جديدة، وحول المبادئ التي يجب
الاستناد إليها بالضبط لتبرير التدابير، وحول مسألة ما إذا كان ينبغي تحقيق توازن بين
أخلاقيات الذكاء الاصطناعي والاعتبارات الأخرى (مثل تنافسية الشركات والاقتصاد). ومع
ذلك، إذا فكَّرنا في وثائق السياسة الفعلية، فسنجد درجةً ملحوظة من التقارُب.
المبادئ الأخلاقية والتبريرات
لقد أدَّى الإحساس الواسع الانتشار بضرورة
وأهمية التعامُل مع التحديات الأخلاقية والمُجتمعية التي أثارها الذكاء الاصطناعي إلى
سَيل من المبادرات ووثائق السياسات التي لا تُعرِّف فقط بعض المشكلات الأخلاقية
المُرتبطة بالذكاء الاصطناعي ولكنها تهدف أيضًا إلى توفير توجيهات مِعيارية للسياسات.
وقد اقتُرحت سياسات خاصة بالذكاء الاصطناعي تشتمل على عنصرٍ أخلاقي من قِبل مجموعة
متنوعة من الجهات، بما في ذلك الحكومات والهيئات الحكومية مثل اللجان الوطنية
للأخلاقيات، وشركات التكنولوجيا مثل جوجل، والمهندسين ومنظماتهم المهنية مثل معهد
مهندسي الكهرباء والإلكترونيات، والهيئات الحكومية الدولية مثل الاتحاد الأوروبي،
والجهات غير الحكومية وغير الهادفة للربح، والباحثين.
لقد أدَّى الإحساس الواسع الانتشار بضرورة وأهمية التعامُل مع التحديات الأخلاقية
والمُجتمعية التي أثارها الذكاء الاصطناعي إلى سَيل من المبادرات ووثائق
السياسات.
إذا راجعنا بعض المبادرات والمقترحات الحديثة، يتبيَّن أن معظم الوثائق تبدأ بتبرير
السياسة من خلال توضيح المبادئ، ثم تُقدم بعض التوصيات فيما يتعلق بالمشكلات الأخلاقية
المُحددة. وكما سنرى، هذه المشكلات والمبادئ شديدة التشابُه. وفي كثير من الحالات،
تعتمِد المبادرات على مبادئ أخلاقية عامة ومبادئ من قانون أخلاقيات المهنة. فدعوني
أُراجِع معكم بعض المقترحات.
ترفض معظم المقترحات سيناريو الخيال العلمي الذي تستولي فيه الآلات الفائقة الذَّكاء
على زمام الأمور وتتولَّى فيه السيطرة. على سبيل المثال، في فترة رئاسة أوباما، نشرت
حكومة الولايات المتحدة تقريرًا بعنوان «الاستعداد لمُستقبل الذكاء الاصطناعي»، تؤكِّد
فيه صراحةً على أن المخاوف الطويلة الأمد بشأن الذكاء الاصطناعي الفائق العام «يجب ألا
يكون لها تأثير كبير على السياسة الحالية» (المكتب التنفيذي للرئيس ٢٠١٦، ٨). وبدلًا
من
ذلك، يتناول التقرير المُشكلات الحالية والمُتوقَّعة في المستقبل القريب التي يُثيرها
تعلُّم الآلة، مثل التحيُّز ومشكلة أنه حتى المُطورون قد لا يفهمون نظامهم بما فيه
الكفاية لتجنُّب مثل هذه العواقب. ويؤكِّد التقرير أن الذكاء الاصطناعي مُفيد للابتكار
والنمو الاقتصادي ويُشدِّد على الرقابة الذاتية، ولكنه يقول إن حكومة الولايات المتحدة
يُمكنها مراقبة سلامة التطبيقات وعدالتها، وتعديل الأطر القانونية إذا لزِم
الأمر.
علاوةً على ذلك، تملك العديد من الدول
الأوروبية حاليًّا استراتيجيات للذكاء الاصطناعي تتضمَّن عنصرًا أخلاقيًّا. ويُعد
«الذكاء الاصطناعي القابل للتفسير» هدفًا مشتركًا بين العديد من صانعي السياسات. يقول
مجلس عموم المملكة المتحدة (٢٠١٨) إن الشفافية وحق التفسير أمور أساسية لنتمكَّن من
مساءلة الخوارزميات، ويجب على الصناعات والجهات التشريعية التعامُل مع مسألة اتخاذ
القرارات المُتحيزة من قِبل الخوارزميات. كذلك تفحص لجنة مجلس لوردات المملكة المتحدة
المختارة المَعنية بالذكاء الاصطناعي التداعِيات الأخلاقية للذكاء الاصطناعي. وفي
فرنسا، يقترح تقرير فيلاني العمل نحو تطوير «ذكاء اصطناعي ذي معنًى» لا يؤدي إلى تفاقُم
مشكلات الإقصاء، أو يزيد من التفاوت الاجتماعي، أو يؤدي إلى مجتمع تحكُمنا فيه
خوارزميات «صناديق سوداء»؛ إذ يجب أن يكون الذكاء الاصطناعي قابلًا للتفسير وصديقًا
للبيئة (
Villani 2018). كما أنشأت النمسا مؤخرًا مجلسًا
استشاريًّا وطنيًّا معنيًّا بالروبوتات والذكاء الاصطناعي،
1 والذي قدَّم توصياتٍ لسياسةٍ تستنِد إلى حقوق الإنسان، والعدالة والإنصاف،
والإشراك والتضامُن، والديمقراطية والمشاركة، وعدم التمييز، والمسئولية، وقِيَم أخرى
شبيهة. كما تُوصي ورقتها البيضاء بتطوير ذكاء اصطناعي قابلٍ للتفسير وتقول صراحةً إن
المسئولية تظلُّ على عاتق البشر؛ ولا يمكن أن يكون الذكاء الاصطناعي مسئولًا أخلاقيًّا
(
ACRAI 2018). كذلك، فإن الهيئات والمؤتمرات
الدولية نشطة للغاية. فقد نشر المؤتمر الدولي لمُفوضي حماية البيانات والخصوصية إعلانًا
بشأن الأخلاقيات وحماية البيانات في الذكاء الاصطناعي، ويتضمَّن مبادئ العدالة،
والمساءلة، والشفافية والفهم، والتصميم المسئول، والخصوصية المُتضمنة في التصميم (مفهوم
يُطالب بمراعاة الخصوصية في جميع مراحل عملية الهندسة)، وتمكين الأفراد، والحدِّ من
التحيز أو التمييز وتخفيف آثارهما (
ICDPPC
2018).
يضع بعض صانعي السياسات هدفهم في إطار «الذكاء الاصطناعي الجدير بالثقة». فعلى سبيل
المثال، تؤكِّد المُفوضية الأوروبية، التي تُعَد بلا شكٍّ واحدة من أبرز الهيئات
العالمية في مجال صُنع سياسات الذكاء الاصطناعي، على أهمية هذا المصطلح. وفي أبريل
٢٠١٨، أنشأت فريقَ خبراء رفيع المستوى معنِيًّا بالذكاء الاصطناعي لوضع مجموعةٍ جديدة
من إرشادات الذكاء الاصطناعي؛ وفي ديسمبر ٢٠١٨، أصدر الفريق مُسودة وثيقة عمل تتضمَّن
إرشادات أخلاقية تدعو إلى نهجٍ في الذكاء الاصطناعي يتمحور حول الإنسان، وإلى تطوير
ذكاءٍ اصطناعي جدير بالثقة، يحترم الحقوق الأساسية والمبادئ الأخلاقية. وكانت الحقوق
المذكورة هي كرامة الإنسان، وحرية الفرد، واحترام الديمقراطية، والعدالة، وسيادة
القانون، وحقوق المواطن. أما المبادئ الأخلاقية، فهي الإحسان (فعل الخير) وعدم إلحاق
الأذى، والاستقلال (الحفاظ على وكالة الإنسان)، والعدالة (أن تكون عادلًا)، والقابلية
للتفسير (شفافية التنفيذ). هذه المبادئ مألوفة من مجال أخلاقيات علم الأحياء، ولكن
الوثيقة تُضيف إليها القابلية للتفسير، وتتضمَّن تفسيراتٍ تسلط الضوء على المشكلات
الأخلاقية الخاصة التي يُثيرها الذكاء الاصطناعي. على سبيل المثال، يُفسِّر مبدأ عدم
إلحاق الأذى على المطالبة بأن خوارزميات الذكاء الاصطناعي يجب أن تتجنَّب التمييز،
والتلاعُب، والتوجيه السلبي، ويجِب أن تحمي الفئات الضعيفة مثل الأطفال والمهاجرين. أما
مبدأ العدالة، فيُفسَّر على أنه يتضمن مطالبة مطوري الذكاء الاصطناعي ومنفِّذيه بضمان
احتفاظ الأفراد والمجموعات الأقلية بالتحرُّر من التحيُّز. ويفسر مبدأ القابلية للتفسير
على أنه يُطالب بأن تكون أنظمة الذكاء الاصطناعي قابلة للتدقيق و«مفهومة من قِبل البشر
على اختلاف مستويات فهمهم وخبرتهم» (European Commission AI HLEG 2018,
10). وتُحدِّد النسخة النهائية، التي صدرت في أبريل ٢٠١٩، بشكلٍ
خاصٍّ أن قابلية التفسير لا تتعلَّق فقط بتفسير العملية التقنية ولكن أيضًا بالقرارات
البشرية ذات الصِّلة بها (European Commission AI HLEG 2019,
18).
في وقتٍ سابق، أصدرت هيئة استشارية أخرى تابعة إلى الاتحاد الأوروبي، وهي المجموعة
الأوروبية المَعنية بالأخلاقيات في العلوم والتقنيات الجديدة بيانًا حول الذكاء
الاصطناعي والروبوتات والأنظمة المُستقلة، مقترحةً مبادئ الكرامة الإنسانية،
والاستقلال، والمسئولية، والعدالة، والمساواة، والتضامُن، والديمقراطية، وسيادة القانون
والمساءلة، والأمان والسلامة، وحماية البيانات والخصوصية، والاستدامة. ويُقال إن مبدأ
الكرامة الإنسانية يقتضي إعلام الأفراد بما إذا كانوا يتفاعلون مَع آلة أم معَ إنسان
آخر (EGE 2018). كذلك عليك ملاحظة أن الاتحاد الأوروبي
لدَيه بالفعل تشريعات قائمة تتعلق بتطوير الذكاء الاصطناعي واستخدامه. وتهدف لائحة
حِماية البيانات العامة، التي اعتُمِدت في مايو ٢٠١٨، إلى حماية جميع مواطني الاتحاد
الأوروبي وتمكينهم فيما يتعلَّق بخصوصية البيانات. وتتضمَّن مبادئ مثل حق الفرد في
نسيان بياناته (يمكن للفرد أن يطلب مسح بياناته الشخصية ووقف معالجة تلك البيانات في
المستقبل) والْخصوصية المُتضمَّنة في التصميم. كما تمنح الأفراد المعنيين حق الوصول إلى
«معلومات ذات معنى حول المنطق المُضمَّن» في اتخاذ القرارات المؤتمتة ومعلومات حول
«العواقب المُتوقَّعة» لِمثل هذه المعالجة (البرلمان الأوروبي ومجلس الاتحاد الأوروبي
٢٠١٦). الاختلاف عن وثائق السياسة هو أن هذه المبادئ المذكورة هنا تُعد مُتطلبات
قانونية. إنها بمثابة تشريع مفروض؛ بمعنى أن المؤسَّسات التي تنتهك لائحة حماية
البيانات العامة يُمكن تغريمها. ومع ذلك، ثمة تساؤل مطروح عما إذا كانت أحكام لائحة
حماية البيانات العامَّة تكافئ الحق الكامل في تفسير القرار (Digital
Europe 2018)، وبشكل عام، إذا كانت توفِّر حماية كافية ضد مخاطر
اتخاذ القرار المؤتمت (Wachter, Mittelstadt, and Floridi
2017). توفر لائحة حماية البيانات العامَّة الحق في الإعلام باتخاذ
القرار المؤتمت ولكن يبدو أنها لا تُطالِب بتفسير الأساس المنطقي لأي قرارٍ بعَينه.
وهذه أيضًا مشكلة فيما يتعلَّق باتخاذ القرار في المجال القانوني. وقد طالبت دراسةٌ
أجراها مجلس أوروبا، استنادًا إلى عمل لجنةٍ من خبراء حقوق الإنسان، بأن يكون للأفراد
الحق في محاكمةٍ عادلة وإجراءات قانونية سليمة بشروط يُمكنهم فهمها
(Yeung 2018).
تُعَد المناقشات القانونية ذات أهميةٍ بالطبع في المناقشات المُتعلقة بأخلاقيات
الذكاء الاصطناعي وسياسة الذكاء الاصطناعي. وقد ناقش تيرنر (٢٠١٩) المقارنات بالحيوانات
(كيف عومِلت وتُعامل في القانون وما إذا كانت تتمتَّع بحقوق) وراجع عددًا من الصكوك
القانونية فيما يتعلق بما يمكن أن تعني للذكاء الاصطناعي. على سبيل المثال، عند وقوع
الضرر، فإن مسألة الإهمال تتعلق بما إذا كان شخصٌ ما مُلتزمًا بواجب الرعاية لتجنُّب
وقوع ضرر، حتى إذا لم يكن الضرَر الواقع مقصودًا. يمكن أن ينطبق ذلك على مُصمم أو مُدرب
الذكاء الاصطناعي. ولكن ما مدى سهولة التنبؤ بعواقب الذكاء الاصطناعي؟ أما القانون
الجنائي، فعلى العكس من ذلك، فهو يتطلَّب نِيَّة إيقاع الضرر. ولكن هذا غالبًا ليس
الحال مع الذكاء الاصطناعي. من ناحيةٍ أخرى، لا تتعلق المسئولية عن المنتَج بخطأ
الأفراد ولكنها تفرِض على الشركة التي أنتجت التكنولوجيا دفع تعويضاتٍ عن الأضرار،
بغضِّ النظر عن الخطأ. ويمكن أن يكون هذا أحد الحلول المُمكنة للمسئولية القانونية عن
الذكاء الاصطناعي. كذلك تتَّصل قوانين الملكية الفكرية بالذكاء الاصطناعي، مثل حقوق
الطبع والنشر وبراءات الاختراع، وقد بدأت مناقشات حول «الشخصية الاعتبارية» للذكاء
الاصطناعي، وهو ما يُعد افتراضًا قانونيًّا ولكنه ذريعة تُطبَّق حاليًّا على الشركات
ومختلف المُنظمات. فهل يجب أن يُطبَّق أيضًا على الذكاء الاصطناعي؟ في قرارٍ مُثير
للجدل في عام ٢٠١٧، اقترح البرلمان الأوروبي أن منح الروبوتات الذاتية التشغيل الأكثر
تطورًا منزلة الأشخاص الإلكترونيين هو حلٌّ قانوني مُمكن لقضية المسئولية القانونية؛
وهذه الفكرة لم يتم الاعتراف بها من قِبل المفوضية الأوروبية في استراتيجيتها للذكاء
الاصطناعي
2 في عام ٢٠١٨. كذلك اعترض آخرون اعتراضًا حازمًا على فكرة إعطاء حقوقٍ
وشخصية للآلات، مُجادِلين، على سبيل المثال، بأنه سيُصبح من الصعب، إن لم يكُن من
المُستحيل، محاسبة أي شخصٍ لأن الناس سيسعَون إلى استغلال هذه الفكرة لأغراضٍ ذاتية
(
Bryson, Diamantis, and Grant 2017). كان هناك
أيضًا الحالة الشهيرة لصوفيا، الروبوت الذي منحته السعودية «الجنسية» في عام ٢٠١٧.
تُثير مثل هذه الحالة مجددًا مسألة المكانة الأخلاقية للروبوتات والذكاء الاصطناعي
(انظر الفصل الرابع).
اقتُرِحَت أيضًا سياسات ذكاء اصطناعي خارج نطاق
أمريكا الشمالية وأوروبا. فالصين، على سبيل المثال، لدَيها استراتيجية وطنية للذكاء
الاصطناعي. وتُقر خُطتها التنموية بأن الذكاء الاصطناعي هو تكنولوجيا هدَّامة يمكن أن
تضرَّ بالاستقرار الاجتماعي، وتؤثر على القانون والأخلاقيات الاجتماعية، وتنتهِك
الخصوصية الشخصية، وتخلق مخاطر أمنية؛ ومِن ثَم تُوصي الخطة بتعزيز الوقاية المُستقبلية
وتقليل المخاطر المحتمَلة (مجلس الدولة الصيني ٢٠١٧). وتروي بعض الجهات الفاعلة في
الغرب سردية منافسة: إنهم يخشَون أن تتجاوزهم الصين أو حتى فكرة أننا نقترِب من اندلاع
حربٍ عالمية جديدة. بينما يُحاول آخرون التعلُّم من استراتيجية الصين. وقد يتساءل
الباحثون أيضًا عن كيفية تعامُل الثقافات المختلفة مع الذكاء الاصطناعي بطرُق مختلفة.
ويمكن أن يُسهم البحث في مجال الذكاء الاصطناعي نفسه في بناء وجهة نظر مقارنة عابرة
للثقافات بشأن أخلاقيات الذكاء الاصطناعي، على سبيل المثال، عندما يُذكرنا بالفروق بين
الثقافات الفردية والجماعية فيما يتعلَّق بالمُعضلات الأخلاقية (Awad et
al. 2018). ويمكن أن يُثير هذا مشكلاتٍ لأخلاقيات الذكاء الاصطناعي
إذا كانت تهدف إلى أن تكون عالمية. ويمكن أيضًا استكشاف كيف تختلف السرديات حول الذكاء
الاصطناعي في الصين أو اليابان، على سبيل المثال، عن السرديات الغربية. ومع ذلك، على
الرغم من الاختلافات الثقافية، يتبيَّن أن سياسات أخلاقيات الذكاء الاصطناعي مُتشابهة
بدرجةٍ كبيرة وملحوظة. فبينما تؤكد خطة الصين أكثر على الاستقرار الاجتماعي والصالح
العام الجماعي، إلا أن المخاطر الأخلاقية المُحددة والمبادئ المذكورة ليست مختلفة
كثيرًا عن تلك المُقترحة من قِبل الدول الغربية.
على الرغم من الاختلافات الثقافية، يتبيَّن أن سياسات أخلاقيات الذكاء الاصطناعي
متشابهة بدرجة كبيرة وملحوظة.
ولكن، كما ذكرنا سابقًا، سياسة أخلاقيات الذكاء الاصطناعي ليست مقصورةً على الحكومات
ولجانها وهيئاتها فقط. فقد أخذ الأكاديميون أيضًا زمام المبادرة. على سبيل المثال،
اقتُرِحَ إعلان مونتريال بشأن الذكاء الاصطناعي المسئول من قِبل جامعة مونتريال وشمل
استشارة المواطنين والخبراء وغيرهم من أصحاب الشأن. ويقول الإعلان إن تطوير الذكاء
الاصطناعي يجب أن يُعزِّز رفاه جميع المخلوقات الحية ويُعزِّز استقلال البشر، ويقضي على
جميع أنواع التمييز، ويحترم الخصوصية الشخصية، ويَحمينا من الدعاية والتلاعُب، ويُعزِّز
النقاش الديمقراطي، ويجعل مختلف الجهات الفاعلة مَسئولين عن مكافحة مخاطر الذكاء
الاصطناعي (
Université de Montréal 2017). وقد اقترح
باحثون آخرون مبادئ الإحسان، وعدم التسبُّب في الأذى، والاستقلال، والعدالة، وقابلية
التفسير (
Floridi et al. 2018). وتعمل الجامعات مثل
كامبريدج وستانفورد على أخلاقيات الذكاء الاصطناعي، غالبًا من وجهة نظر الأخلاق
التطبيقية. وكذلك يؤدي الأشخاص العامِلون في مجال الأخلاق المهنية أيضًا عملًا مُفيدًا.
على سبيل المثال، قدم مركز ماركولا للأخلاق التطبيقية في جامعة سانتا كلارا مجموعةً من
النظريات الأخلاقية كأداةٍ لمُمارسة التكنولوجيا والهندسة، والتي قد تُفيد أيضًا في
إثراء أخلاقيات الذكاء الاصطناعي بالمعلومات.
3 كما أبدى فلاسفة التكنولوجيا اهتمامًا كبيرًا بالذكاء الاصطناعي
مؤخرًا.
نجد أيضًا مُبادرات بشأن أخلاقيات الذكاء الاصطناعي في عالم الشركات. على سبيل
المثال، يدخل في الشراكة بشأن الذكاء الاصطناعي شركات مثل ديب مايند، وآي بي إم، وإنتل،
وأمازون، وأبل، وسوني، وفيسبوك.
4 وتدرك العديد من الشركات الحاجة إلى الذكاء الاصطناعي الأخلاقي. على سبيل
المثال، نشرت جوجل مبادئ أخلاقيات الذكاء الاصطناعي: تقديم فائدة اجتماعية، وتجنُّب
التسبُّب في التحيُّز غير العادل أو تعزيزه، وفرض السلامة، والحفاظ على تحمُّل
المسئولية، والحفاظ على تصميم الخصوصية، وتعزيز التميُّز العلمي، وتقييد التطبيقات التي
يُحتَمل كونها ضارة أو مُسيئة مثل الأسلحة أو التكنولوجيا التي تنتهِك مبادئ القانون
الدولي وحقوق الإنسان.
5 وتتحدَّث شركة مايكروسوفت عن فكرة «الذكاء الاصطناعي من أجل الخير» وتقترح
مبادئ العدالة، والموثوقية والسلامة، والخصوصية والأمان، والتضمين، والشفافية،
والمساءلة.
6 كما اقترحت شركة أكسنتشر مبادئ عالمية لأخلاقيات البيانات، بما في ذلك
احترام الأشخاص الكامنة وراء البيانات، والخصوصية، والتضمين، والشفافية.
7 وعلى الرغم من أن وثائق الشركات تَميل إلى التركيز على الرقابة الذاتية،
فإن بعض الشركات تعترف بضرورة اللوائح التنظيمية الخارجية. وقد قال تيم كوك الرئيس
التنفيذي لشركة أبل إن اللوائح التنظيمية التكنولوجية، على سبيل المثال، لضمان الخصوصية
أمر لا غِنى عنه لأن السوق الحرة التي لا تخضع لرقابة حكومية لا تُفيد في هذه
الحالة.
8 ومع ذلك، هناك جدل حول ما إذا كان هذا يتطلب لوائح تنظيمية جديدة. ويدعم
البعض مسار اللوائح التنظيمية، بما في ذلك القوانين الجديدة. فقد قدمت ولاية كاليفورنيا
بالفعل مشروع قانون يطالب بالكشف عن الروبوتات: فإن استخدام الروبوت بطريقةٍ تُضلِّل
الشَّخص الآخر حول هويته الاصطناعية أمر غير قانوني.
9 وتتخذ شركات أخرى موقفًا أكثر تحفظًا. فقد جادلت شركة ديجيتال يوروب
(٢٠١٨)، التي تمثل الصناعة الرقمية في أوروبا، بأن الإطار القانوني الحالي مُجهَّز
لمعالجة المشكلات المتعلقة بالذكاء الاصطناعي، بما فيها التحيُّز والتمييز، ولكن لبناء
الثقة، فإن الشفافية والقابلية للتفسير أمران غاية في الأهمية: يجب أن يفهم الأفراد
والشركات متى وكيف تُستخدَم الخوارزميات في اتخاذ القرارات، ونحن بحاجةٍ إلى توفير
معلوماتٍ ذات معنى وتيسير عملية تفسير القرارات الخوارزمية.
تلعب الجهات غير الهادفة إلى الربح دورًا
أيضًا. على سبيل المثال، تطرح الحملة الدولية لوقف الروبوتات القاتلة العديد من الأسئلة
الأخلاقية بشأن التطبيقات العسكرية للذكاء الاصطناعي
10 ومن جانب دُعاة تجاوز الإنسانية، تُوجَد مبادئ الذكاء الاصطناعي التي
اتَّفق عليها المشاركون الأكاديميون والصناعيون في مؤتمر أسيلومار، وهو مؤتمر عقده
«معهد مستقبل الحياة» (ماكس تيجمارك وآخرون). وكان الهدف العام هو الحرص على أن يظل
الذكاء الاصطناعي مفيدًا، واحترام المبادئ والقيم الأخلاقية مثل السلامة والشفافية
والمسئولية، وتوجيه القيم، والخصوصية، والتحكم البشري.
11 هناك أيضًا منظمات مهنية تعمل في مجال سياسات الذكاء الاصطناعي. فقد طرح
معهد مهندسي الكهرباء والإلكترونيات، الذي يزعم أنه أكبر منظمة مهنية فنية في العالم،
مبادرةً عالمية حول أخلاقيات الأنظمة الذكية والمُستقلة. وبعد مناقشاتٍ بين الخبراء،
أثمرت المبادرة عن وثيقةٍ تتضمَّن رؤية ﻟ «تصميمٍ موجَّه أخلاقيًّا»، تقترح أن يكون
تصميم هذه التقنيات وتطويرها وتنفيذها موجهًا بواسطة المبادئ العامة لحقوق الإنسان
والرفاه والمساءلة والشفافية والتوعية بشأن سوء الاسْتِخدام. ويمكن أن يكون تضمين
الأخلاق في المعايير التكنولوجية العالمية وسيلة فعَّالة للمساهمة في تطوير الذكاء
الاصطناعي الأخلاقي.
الحلول التكنولوجية ومسألة الأساليب والتنفيذ
تبين المبادرة العالمية التي طرحها معهد مهندسي
الكهرباء والإلكترونيات أنه فيما يتعلق بالتدابير، تُركز بعض وثائق السياسات على الحلول
التكنولوجية. على سبيل المثال، كما ذكرنا في الفصل السابق، دعا بعض الباحِثين إلى
الذكاء الاصطناعي القابل للتفسير، إلى فتح الصندوق الأسود. وهناك أسباب وجيهة للرغبة
في
فِعل ذلك؛ إذ إن تفسير المنطق وراء القرار الذي يُتَّخَذ ليس مطلبًا أخلاقيًّا فقط
ولكنه أيضًا جانب مُهم من الذكاء البشري (Samek, Wiegand, and Müller
2017). إذَن فالفكرة وراء الذكاء الاصطناعي القابل للتفسير أو
الشفَّاف هي أن يكون من السهل فهم أفعال الذكاء الاصطناعي وقراراته. وكما رأينا، فإن
هذه الفكرة من الصعب تنفيذها في حالة تعلُّم الآلة الذي يستخدم الشبكات العصبية
(Goebel et al. 2018). ولكن يمكن للسياسات بالطبع
دعم البحث في هذا الاتجاه.
بشكل عام، فإن فكرة تضمين الأخلاق في تصميم التقنيات الجديدة هي فكرة رائعة. ويمكن
أن
تُساعدنا الأفكار مثل الأخلاقيات المُتضمنة في التصميم أو التصميم الحسَّاس للقيم، التي
لها تاريخها الخاص،
12 في تصميم الذكاء الاصطناعي بطريقةٍ تؤدي إلى مزيدٍ من المساءلة والمسئولية
والشفافية. على سبيل المثال، يمكن أن تنطوي الأخلاقيات المُتضمَّنة في التصميم على ضمان
التتبُّع في جميع المراحل (
Dignum et al. 2018)، مما
يُسهم في إمكانية مساءلة الذكاء الاصطناعي. ويمكن تحقيق فكرة التتبع حرفيًّا، بمعنى
تسجيل بيانات حول سلوك النظام. وقد طالب وينفيلد وجيروتكا (٢٠١٧) بتنفيذ «صندوق أسود
أخلاقي» في الروبوتات والأنظمة المُستقلَّة، ليُسجل ما يفعله الروبوت (البيانات من
الأجهزة الاستشعارية ومِن الوضع «الداخلي» للنظام) بطريقةٍ تُشبه الصندوق الأسود
المُثبَّت في الطائرات. ويمكن تطبيق هذه الفكرة أيضًا في الذكاء الاصطناعي المُستقل:
فعندما يحدث خطأ ما، قد تُساعدنا مثل هذه البيانات في تفسير ما حدث بالضبط. وهذا بدَوره
قد يُساعد في التحليل الأخلاقي والقانوني للحالة. وعلاوةً على ذلك، كما يقول الباحثون،
وهم مُحقُّون في قولهم، يُمكننا أن نتعلَّم شيئًا من صناعة الطائرات، التي تخضع إلى
تنظيمٍ صارم ولدَيها عمليات دقيقة للتحقُّق من السلامة وعمليات مرئية للتحقيق في
الحوادث. فهل يُمكن تثبيت بِنية أساسية مُماثلة تضمن التنظيم والسلامة في حالة الذكاء
الاصطناعي؟ وللمُقارنة بمجال آخَر من مجالات وسائل النقل، قد اقترحت صناعة السيارات
أيضًا شهادةً أو نوعًا من «رخصة القيادة» للمركبات الذاتية التشغيل المدعومة بالذكاء
الاصطناعي.
13 يذهب بعض الباحثين إلى أبعَدَ من ذلك ويهدفون إلى إنشاء آلاتٍ أخلاقية، في
مُحاولةٍ لتحقيق «أخلاقيات الآلة» بمعنى أن تستطيع الآلات نفسها اتخاذ قراراتٍ أخلاقية.
ويُجادل آخرون بأن هذه فكرة خطيرة وأنه يجِب الاحتفاظ بهذه القدرة للبشَر، وأنه من
المُستحيل خلق آلات تتمتَّع بالوكالة الأخلاقية الكاملة، ولا حاجة إلى أن تتمتَّع
الآلات بالوكالة الأخلاقية الكاملة، ويكفي أن تكون الآلات آمنةً وملتزمة بالقانون
(
Yampolskiy 2013)، أو قد تُنشَأ أشكال من «الأخلاق
الوظيفية» (
Wallach and Allen 2009) التي لا تكافئ
الوكالة الأخلاقية الكاملة، ولكنها مع ذلك تجعل الآلة مُراعيةً نسبيًّا لقواعد الأخلاق.
تُعد هذه المناقشة، التي تتعلَّق مجددًا بموضوع المكانة الأخلاقية، ذات صِلة، على سبيل
المثال، في حالة السيارات الذاتية القيادة: وإلى أي مدًى يتعين ويمكن ويُستحسَن تضمين
القواعد الأخلاقية في هذه السيارات، وما نوع هذه القواعد الأخلاقية وكيف يُمكن تنفيذها
تقنيًّا؟
يمكن أن تُساعدنا الأفكار مثل الأخلاقيات المُتضمنة في التصميم أو التصميم
الحسَّاس للقِيَم، في إنشاء الذكاء الاصطناعي بطريقةٍ تؤدي إلى مزيدٍ من المساءلة
والمسئولية والشفافية.
يميل صانعو السياسات إلى دعم العديد من هذه الاتجاهات في البحث والابتكار في مجال
الذكاء الاصطناعي، مثل الذكاء الاصطناعي القابل للتفسير وبشكلٍ عام، تضمين الأخلاق في
التصميم. على سبيل المثال، إلى جانب الأساليب غير التقنية مثل اللوائح التنظيمية، ووضع
المعايير، والتعليم، وحوار الأطراف المَعنية وفِرق التصميم الشاملة، ذكر تقرير فريق
الخبراء الرفيع المستوى عددًا من الأساليب التقنية ومنها تضمين القواعد الأخلاقية
وسيادة القانون في التصميم، وهياكل الذكاء الاصطناعي الجدير بالثقة، والاختبار والتحقق،
والتتبع والتدقيق، والتفسير. على سبيل المثال، يُمكن أن تشتمل الأخلاقيات المُضمنة في
التصميم على الخصوصية المُضمنة في التصميم. ويُشير التقرير أيضًا إلى بعض الطرق التي
يُمكن بها تنفيذ الذكاء الاصطناعي الجدير بالثقة، مثل التتبُّع كطريقةٍ للمساهمة في
الشفافية: وفي حالة الذكاء الاصطناعي المُستند إلى قواعد يجِب توضيح كيفية بناء
النموذج، وفي حالة الذكاء الاصطناعي المُستنِد إلى التعلُّم يجب توضيح وسيلة تدريب
الخوارزمية، بما في ذلك كيفية جمع البيانات واختيارها. ومن المُفترَض أن يضمَن هذا أن
يكون نظام الذكاء الاصطناعي قابلًا للتدقيق، ولا سيَّما في المواقف الخطيرة
(European Commission AI HLEG 2019).
تُعدُّ مَسألة الأساليب والتنفيذ حاسمةَ الأهمية: حيث إن تحديد عددٍ من المبادئ
الأخلاقية شيء، واكتشاف طريقة تنفيذ هذه المبادئ عمليًّا شيءٌ مختلف تمامًا. وحتى
المفاهيم مثل الخصوصية المُضمَّنة في التصميم، التي يُفترض أن تكون أقرب إلى عملية
التطوير والهندسة، فغالبًا ما تُصاغ بطريقةٍ مجردة وعامة؛ ومِن ثَم فإننا ما زلنا لا
ندري بالتحديد ما ينبغي أن نفعله. ويقودنا هذا إلى الفصل التالي لمناقشةٍ موجزة حول بعض
التحديات التي تواجِه سياساتِ أخلاقيات الذكاء الاصطناعي.