الفصل التاسع

التحيز ومعنى الحياة

التحيز

يُعد التحيُّز مشكلةً أخرى من المشكلات ذات الجوانب الأخلاقية والاجتماعية في الوقت نفسه، وهي أيضًا تتعلَّق بالذكاء الاصطناعي القائم على عِلم البيانات بعيدًا عن غيره من تقنيات الأتمتة الأخرى. عندما يتَّخذ الذكاء الاصطناعي — أو على الأحرى، عندما يُوصي باتخاذ — قرارات، قد يُظهر التحيُّز؛ إذ قد تكون القرارات غير منصفةٍ أو غير عادلة تجاه أفرادٍ أو مجموعات بعينها. وعلى الرغم من أن التحيُّز قد يظهر أيضًا عند استخدام الذكاء الاصطناعي التقليدي — على سبيل المثال، نظام خبير يَستخدم شجرة اتخاذ قرارات أو قاعدة بيانات تتسم بالتحيز — فإن قضية التحيز غالبًا ما تكون مرتبطةً بتطبيقات تعلُّم الآلة. وبينما كانت مشكلات التحيز والتمييز موجودة دائمًا في المجتمع، إلا أن القلق يكمُن في أن يؤدي الذكاء الاصطناعي إلى استمرار هذه المشكلات وتفاقُم آثارها.

بينما كانت مشكلات التحيُّز والتمييز موجودةً دائمًا في المجتمع، إلا أن القلق يكمُن في أن يؤدي الذكاء الاصطناعي إلى استمرار هذه المشكلات وتفاقُم آثارها.

غالبًا ما يكون التحيُّز غير مقصود؛ فالمُطوِّرون والمستخدِمون، وغيرهم من أطراف مُعنية مثل إدارة الشركة، لا يتوقعون، في كثيرٍ من الأحيان، آثار التمييز ضدَّ مجموعات أو أفرادٍ مُعينين. ويمكن أن يكون السبب في ذلك هو عدم فهمهم نظام الذكاء الاصطناعي كما ينبغي، أو عدم وعيِهم بشكلٍ كافٍ بمشكلة التحيُّز أو حتى بتحيُّزاتهم الشخصية، أو بشكلٍ عام عدم تصوُّرهم وعدم تفكيرهم بما فيه الكفاية في العواقب المُحتمَلة غير المقصودة للتكنولوجيا وعدم تواصُلهم مع بعض الأطراف ذات الصلة. يُعَد هذا أمرًا إشكاليًّا نظرًا إلى أن القرارات المُتحيِّزة يمكن أن تكون لها عواقب وخيمة، على سبيل المثال، من حيث الوصول إلى الموارد والتمتُّع بالحريات (CDT 2018)؛ إذ قد لا يحصل الأفراد على وظيفة، أو لا يتمكَّنون من الحصول على ائتمان، أو قد ينتهي بهم الحال في السجن، أو حتى يتعرَّضون للعنف. والمُعاناة لا تقتصِر على الأفراد فحسب؛ إذ قد تتأثر مجتمعات بأسرِها بالقرارات المُتحيزة، على سبيل المثال، عندما تُصنَّف منطقة كاملة في المدينة أو جميع الأشخاص ممَّن لهم خلفية عرقية مُعيَّنة بواسطة الذكاء الاصطناعي على أنهم يشكلون خطورةً أمنية عالية.
ولنعُد مرَّة أخرى إلى مثال خوارزمية كومباس الذي تحدَّثنا عنه في الفصل الأول، تلك الخوارزمية التي تتنبَّأ بمدى احتمالية أن يقوم المُدَّعى عليه بإعادة ارتكاب الجريمة وكان القضاة في فلوريدا يستخدمونها في اتخاذ قراراتهم بشأن إمكانية منح السجين إفراجًا مشروطًا. وفقًا لدراسةٍ أجرَتْها «بروبابليكا»، وهي غرفة إخبارية عبر الإنترنت، كانت النتائج الإيجابية الكاذبة للخوارزمية (المُدَّعى عليهم الذين توقعت الخوارزمية أن يُعيدوا ارتكاب الجرائم ولكنهم في الواقع لم يفعلوا) تميل بشكلٍ مُفرِط إلى الأشخاص من ذوي البشرة السمراء، وكانت النتائج السلبية الكاذبة (المُدَّعى عليهم الذين توقعت الخوارزمية ألا يُعيدوا ارتكاب الجرائم ولكنهم في الواقع فعلوا) تميل بشكلٍ مُفرط إلى الأشخاص ذوي البشرة البيضاء (Fry 2018). ومِن ثَم رأى النقَّاد أن هناك تحيُّزًا ضد المُدَّعى عليهم من ذوي البشرة السمراء. مثال آخَر على ذلك هو أداة «بريدبول»، وهي أداة للتنبُّؤ بالجرائم وقد استُخدِمَت في الولايات المتحدة لتوقُّع احتمالية حدوث جريمةٍ في مناطق مُعيَّنة من المدن وللتوصية بتخصيص موارد الشرطة (على سبيل المثال، أين يجب أن يُجري ضباط الشرطة عمليات التفتيش والتجوال) استنادًا إلى هذه التوقُّعات. وتركزت المخاوف في هذا الصدد في أن يكون النظام مُتحيزًا ضد الأحياء الفقيرة وأحياء المُلوَّنين أو أن تؤدي المراقبة الأمنية المُفرطة إلى كسر الثقة بين الناس في تلك المناطق، مما يُحَوِّل توقع حدوث الجريمة إلى نبوءةٍ تتحقَّق ذاتيًّا (Kelleher and Tierney 2018). ولكن التحيُّز لا يقتصِر على العدالة الجنائية أو المُراقبة الأمنية؛ بل يُمكن أن يعني أيضًا، على سبيل المثال، تعرُّض مُستخدمي خدمات الإنترنت لتحيزاتٍ ضدَّهم إذا صنَّفهم الذكاء الاصطناعي تصنيفًا سيئًا.
قد ينشأ التحيُّز بعدَّة طرُقٍ في جميع مراحل التصميم والاختبار والتطبيق. وإذا ما ركَّزنا على مرحلة التصميم، فسنجد أن التَّحيُّز قد يظهر في اختيار مجموعة البيانات التي سيتم التدريب عليها؛ وفي مجموعة البيانات التي سيتم التدريب عليها نفسها، والتي قد تكون غير مُمثلة أو غير كاملة، وفي الخوارزمية، وفي مجموعة البيانات التي يتم إدخالها إلى الخوارزمية بعد تدريبها، وفي القرارات القائمة على الارتباطات الزائفة (انظر الفصل السابق)، وفي المجموعة التي تُنشئ الخوارزمية، وفي المجتمع الأوسَع. على سبيل المثال، قد لا تكون مجموعة البيانات مُمثِّلة للسكان (كأن تكون مَبنية على رجالٍ أمريكيين بيض) ولكنها تُستخدَم للتنبؤ مع السكان ككلٍّ (الرجال والنساء من خلفيات عرقية مُتنوِّعة). يمكن أيضًا أن يكون التحيُّز مُتعلِّقًا بالاختلافات بين البلدان. فكثير من الشبكات العصبية العميقة المُستخدمة في التعرُّف على الصور تُدرَّب على مجموعة البيانات المُحَدَّدة «إيمدجنت» ImageNet، التي تحتوي على كميةٍ غير متكافئة من البيانات من الولايات المتحدة، في حين أن بلدان مثل الصين والهند، اللَّتين تُمثلان جزءًا أكبر بكثيرٍ من سكان العالم، تُسهمان بنسبة صغيرة فقط (Zou and Schiebinger 2018). وهذا قد يؤدي إلى تحيُّز مجموعة البيانات ثقافيًّا. وبشكلٍ عام، يمكن أن تكون مجموعات البيانات غيرَ كاملةٍ أو ذات جودة رديئة، مما قد يؤدي إلى وجود تحيُّز. كذلك قد يكون التنبُّؤ مَبنيًّا على قدْرٍ ضئيل من البيانات، على سبيل المثال في حالة التنبُّؤ بجرائم القتل: حيث لا يُوجَد هذا الكم الكبير من جرائم القتل، مما يجعل التعميم أمرًا إشكاليًّا. كمثالٍ آخر، يشعر بعض الباحِثين بالقلق إزاء نقص التنوُّع في فِرق تطوير الذكاء الاصطناعي وعلم البيانات؛ حيث يكون معظم علماء الكمبيوتر ومهندسي الكمبيوتر رجالًا بِيضًا من البلدان الغربية تتراوَح أعمارهم ما بين ٢٠ عامًا و٤٠ عامًا، وقد تنعكس تجاربهم الشخصية وآراؤهم، وبالتأكيد تحيُّزاتهم في العملية، وهو ما قد يؤثر سلبًا على الأشخاص الذين لا تنطبق عليهم هذه الأوصاف، مثل النساء، والأشخاص ذوي الإعاقة، وكبار السن، والأشخاص المُلونين، والأشخاص من البلدان النامية.
قد تكون البيانات مُتحيزة أيضًا ضد مجموعاتٍ مُعينة؛ لأن هناك تَحيُّزًا في مُمارسةٍ معينة بشكلٍ خاص أو في المجتمع بشكلٍ عام. على سبيل المثال، ثمة ادعاءات بأن مجال الطب يَستخدِم بشكلٍ رئيسي بياناتٍ من المرضى الذكور، وبالتالي فإنه مُتحيِّز، كذلك هناك التحيُّز ضد الأشخاص المُلوَّنين وهو يُعتبر سائدًا في المجتمع بشكلٍ أوسع. إذا كانت الخوارزمية تستخدِم مثل هذه البيانات، فإن النتائج ستكون أيضًا مُتحيزة. وكما ورد في مقال مجلة «نيتشر» الافتتاحي عام ٢٠١٦: التحيُّز في المدخلات يؤدي إلى تحيُّز في المُخرجات. وقد تبين أيضًا أن تعلُّم الآلة يمكن أن يكتسِب سماتِ التحيُّز من خلال استخدام البيانات النصيَّة من شبكة الويب العالمية، حيث تعكس هذه البيانات اللغوية الثقافة الإنسانية اليومية، بما فيها من تحيزات (Caliskan, Bryson, and Narayanan 2017). على سبيل المثال، قد تحتوي متون اللغات نفسها على تحيزات جنسية. والمُثير للقلق في هذه الحالة أن الذكاء الاصطناعي ربما يساعد في استمرار هذه التحيُّزات، مما يضرُّ بشكلٍ أكبر الجماعات التي كانت تُعاني من التهميش دائمًا. يمكن أيضًا أن يظهر التحيز إذا كان هناك ارتباط ولكن لا يوجد سبب. على سبيل المثال، في مجال العدالة الجنائية مرة أخرى: قد تستنتج الخوارزمية أنه إذا كان أحد والدَي المُدَّعى عليه قد أُودِع السجن، فإن هذا المُدَّعى عليه من المُرجَّح أن يُودَع السجن أيضًا. حتى لو كان هذا الارتباط قائمًا وحتى لو كان الاستنتاج تنبؤيًّا، يبدو أنه من غير العدل أن يحصل هذا المُدَّعى عليه على عقوبة أشد؛ نظرًا إلى عدم وجود علاقة سببية (House of Commons 2018). وأخيرًا، يمكن أيضًا أن ينشأ التحيُّز بسبب أن صانعي القرارات من البشر يثقون في دقة توصيات الخوارزميات أكثر مما ينبغي (CDT 2018) ويتجاهلون المعلومات الأخرى أو لا يعتمِدون على حُكمهم الشخصي بما فيه الكفاية. على سبيل المثال، قد يعتمد القاضي اعتمادًا كليًّا على الخوارزمية ولا يأخذ في اعتباره العناصر الأخرى. وكما هو الحال دائمًا مع الذكاء الاصطناعي وغيره من تقنيات الأتمتة، تلعب القرارات والتفسيرات البشرية دورًا مهمًّا، وهناك دائمًا خطر الاعتماد الزائد على التكنولوجيا.
ومع ذلك، ليس مِن الواضح ما إذا كان من المُمكن تجنُّب التحيُّز من الأساس، أو حتى ما إذا كان يجب تجنُّبه، فإذا كان من الواجب تجنُّبه، فما التكلفة التي يمكن تحمُّلها في سبيل ذلك. على سبيل المثال، إذا كان تغيير خوارزمية تعلم الآلة لتقليل احتمالات التحيُّز سيكون على حساب جعل توقعاتها أقل دقَّة، فهل يجب علينا تغييرها؟ قد نُضطر إلى الاختيار ما بين فعالية الخوارزمية من ناحية ومكافحة التحيُّز من ناحيةٍ أخرى. هناك أيضًا مشكلة في أنه إذا تمَّ تجاهل سمات مُعينة أو تجاهلها مثل العرق، فإن أنظمة تعلُّم الآلة قد تُحدد ما يعرف بمؤشرات هذه السمات، مما يؤدي أيضًا إلى التحيُّز. على سبيل المثال، في حالة العِرق، قد يكون من المُمكن أن تختار الخوارزمية مُتغيرات أخرى مرتبطة بالعِرق مثل الرمز البريدي. وهل من الممكن وجود خوارزمية خالية تمامًا من التحيز؟ لا يُوجَد توافق بين الفلاسفة أو حتى في المجتمع بشأن العدالة الكاملة أو الإنصاف الكامل. علاوةً على ذلك، وكما أشرْنا في الفصل السابق، فإن مجموعات البيانات المُستخدمة من قِبل الخوارزميات هي تجريدات عن الواقع وهي نتاج اختيارات بشرية، ومن ثَمَّ فهي لا تكون مُحايدة أبدًا (Kelleher and Tierney 2018). يتوغَّل التحيز في عالَمنا ومُجتمعاتنا؛ وبالتالي، على الرغم من أنه يمكن القيام بالكثير ويجب القيام بالكثير لتقليل التحيز، فإن نماذج الذكاء الاصطناعي لن تخلوَ تمامًا من التحيز (Digital Europe 2018).

علاوةً على ذلك، يبدو بالتأكيد أن الخوارزميات المُستخدمة في اتخاذ القرار دائمًا ما تكون مُتحيزة من منطلق كونها تمييزية؛ إذ إنها مُصممة للتمييز بين مُختلف الاحتمالات. على سبيل المثال، في عملية التوظيف، يُفترَض أن يكون فحص السِّيَر الذاتية ذا طابع مُتحيز وتمييزي تجاه سِمات المرشحين التي تُناسب الوظيفة. ويكمُن السؤال الأخلاقي والسياسي فيما إذا كان هناك تمييز مُعين غير منصف وغير عادل. ولكن مرة أخرى، تختلف وجهات النظر بشأن ما هو منصف وما هو عادل. وهذا يجعل قضية التحيُّز ليست فقط تقنيةً ولكنها أيضًا مرتبطة بالمناقشات السياسية حول الإنصاف والعدالة. على سبيل المثال، هل من العدل مُمارسة التمييز الإيجابي أو التدابير الإيجابية، التي تُحاول محو أثر التحيُّز عن طريق التحيز الإيجابي مع الأفراد أو الجماعات المحرومة؟ هل يجِب أن تكون العدالة عمياء ومحايدة — وبالتالي هل يجب أن تكون الخوارزميات عمياء إزاء العِرق، على سبيل المثال — أم أن العدالة تعني تمييز أولئك المَحرومين بالفعل من أي ميزات، مما يصِل بنا في النهاية إلى نوع من التحيُّز والتمييز (التصحيحي)؟ وهل يجب على السياسة في السياق الديمقراطي أن تُعطي الأولوية لحماية مصالح الأغلبية أم تركز على تعزيز مصالح الأقلية، حتى وإن كانت أقلية محرومة قديمًا أو حاليًّا؟

هل يجِب أن تكون العدالة عمياء ومُحايدة أم أن العدالة تعني تمييز أولئك المحرومين بالفعل من أي ميزات؟

وهذا يقودنا إلى السؤال حول الإجراءات. حتى إذا اتفقنا على وجود تحيُّز، فهناك طرق مختلفة للتعامُل مع المشكلة. وتشمل هذه الطرق التكنولوجية وكذلك الإجراءات المُجتمعية والسياسية والتعليم. وثمة خلاف حول الإجراءات التي يجِب علينا اتخاذها؛ إذ إنها تعتمد مرة أخرى على مفهومنا للعدالة والإنصاف. على سبيل المثال، تُثير قضية التدابير الإيجابية قضيةً أكثر عمومية حول ما إذا كنَّا يجِب أن نقبل العالم كما هو أم أننا يجب أن نُشكِّل عالمنا المُستقبلي على نحوٍ فعَّال بطريقةٍ من شأنها تجنُّب استمرار الظلم الذي كان مُستشريًا في الماضي. بعض الناس يرَون أننا يجِب أن نستخدِم مجموعة بياناتٍ تعكس العالم الواقعي. وقد تُمثل البيانات التحيزات الموجودة في المجتمع وقد تُنشئ الخوارزمية نموذجًا من التحيُّزات الموجودة لدى الناس الآن، ولكن هذه ليست مشكلةً يجب أن يقلق بشأنها المُطورون. بينما يرى آخرون أن مثل هذه المجموعة من البيانات موجودة فقط بسبب قرونٍ من التحيز، وأن هذا التحيُّز والتمييز غير عادل وظالِم، وعليه فإنه يجِب تغيير تلك المجموعة من البيانات أو الخوارزمية من أجل تعزيز التدابير الإيجابية. على سبيل المثال، في استجابةٍ إلى نتائج خوارزمية البحث في جوجل التي تبدو مُتحيزةً ضد أساتذة الرياضيات الإناث، يمكن للمرء أن يقول إن هذا يعكس ببساطةٍ حقيقة العالم (وأن هذا هو بالضبط ما يجب أن تفعله خوارزمية البحث)؛ أو يمكن أن نجعل الخوارزمية تُعطي أولويةً لصور أساتذة الرياضيات الإناث من أجل تغيير التصور وربما تغيير العالَم (Fry 2018). ويمكن أيضًا أن نُحاول إنشاء فِرَق تطوير تكون أكثر تنوعًا من حيث الخلفية والرأي والتجربة، وتُمثل بشكلٍ أفضل الفئات التي مِن المحتمَل أن تتأثر بالخوارزمية (House of Commons 2018).
لن يصح الرأي القائل بأنها تعكس الواقع إذا كانت مجموعة البيانات التي سيتم التدريب عليها لا تعكس العالم الواقعي وتحتوي على بياناتٍ قديمة لا تعكس الوضع الحالي. كما أن القرارات المبنية على هذه البيانات تساعد بالفعل في استمرار التمييز الذي كان موجودًا في الماضي بدلًا من الاستعداد للمستقبل. وعلاوةً على ذلك، ثمَّة اعتراض آخَر على الرأي القائل بأنها تعكس الواقع وهو أنه حتى إذا كان النموذج يعكس العالم الواقعي، فإن هذا يمكن أن يؤدي إلى تدابير تمييزية وأضرارٍ أخرى قد تقع على أفرادٍ أو مجموعات بعينها. على سبيل المثال، قد ترفض شركات الائتمان منحَ قروضٍ إلى المُتقدمين على أساس محلِّ الإقامة، أو قد تفرض المواقع الإلكترونية رسومًا أكبر على بعض العملاء مقارنةً بغيرهم استنادًا إلى ملفات العملاء التعريفية التي أنشأها الذكاء الاصطناعي. كذلك يمكن أن تتبع الملفات التعريفية الأفراد عبر النطاقات المختلفة (Kelleher and Tierney 2018). ويمكن أن تربط وظيفة الإكمال التلقائي البسيطة في ظاهرها بِشكلٍ خطأٍ اسمَك بجريمةٍ ما (الأمر الذي قد يؤدِّي إلى عواقب وخيمة)، حتى إذا كانت خوارزمية البحث الكامنة وراءها تعكس العالَم بشكلٍ صحيح؛ بمعنى أن معظم الناس يُريدون البحث عن اسم المجرم وليس عن اسمك. وثمَّة مثال آخر على التحيُّز، ولكنه ربما ليس واضحًا بالقدْر نفسه: فنظام استرجاع الموسيقى المُستخدَم في خدمات مثل «سبوتيفاي»، الذي يقدِّم توصياتٍ بناءً على السلوك الحالي (المسارات الموسيقية التي ينقر عليها معظم الناس)، قد يتحيَّز ضد الموسيقى والموسيقيين الذين هم أقلُّ شيوعًا. وحتى إذا كان النظام يعكس العالَمَ الواقعي، فإن هذا يؤدي إلى وضعٍ لا يستطيع فيه بعض الموسيقيين العيشَ من موسيقاهم ويجعل بعض المجتمعات تشعُر بعدم التقدير وعدم الاحترام.
مرة أخرى، في حينِ أن هذه حالات واضحة من التمييز الذي ينطوي على مشكلات، إلا أننا يجِب أن نسأل دائمًا: هل يمكن أن يكون التمييز في حالةٍ مُعينة عادلًا أم لا؟ وإذا كان غير عادل، فما الإجراء الذي سيُتَّخَذ حياله ومَن الذي سيتخِذُه؟ على سبيل المثال، ما الذي يُمكن أن يفعله علماء الكمبيوتر حياله؟ هل يجب أن يجعلوا مجموعات البيانات التي يتم التدريب عليها أكثر تنوعًا، وربما يُنشئون بياناتٍ ومجموعات بيانات «مثالية» كما اقترح إريك هورفيتز من شركة مايكروسوفت (Surur 2017)؟ أم يجب أن تعكس مجموعات البيانات العالَم؟ هل يجب على المطوِّرين تضمين التمييز الإيجابي في خوارزمياتهم، أم يجب عليهم إنشاء خوارزميات «عمياء»؟ إن كيفية التعامُل مع التحيز في الذكاء الاصطناعي ليست مسألة تقنية فحسب؛ بل هي مسألة سياسية وفلسفية. إن المسألة تتعلَّق بنوع المجتمع والعالَم الذي نريده، وإذا كان من الواجِب علينا أن نُحاول تغييره، وإذا كان الأمر كذلك، فما هي الطرق المقبولة والعادلة لتغييره. إنها أيضًا مسألة تتعلَّق بالبشر بقدْر ما تتعلق بالآلات: هل نعتقد أن اتخاذ القرارات البشرية عادل ومنصف، وإذا لم يكن الأمر كذلك، فما دور الذكاء الاصطناعي؟ ربما يُمكن أن يُعلِّمنا الذكاء الاصطناعي شيئًا عن البشر ومجتمعاتهم من خلال الكشف عن تَحيُّزاتنا. وقد تكشف مناقشة أخلاقيات الذكاء الاصطناعي الاختلال الكبير في موازين القوى الاجتماعية والمؤسسية.

وهكذا تصِل المناقشات حول أخلاقيات الذكاء الاصطناعي إلى عُمق قضايا مجتمعية وسياسية حسَّاسة ترتبط بأسئلةٍ فلسفية حول العدالة والإنصاف، وأسئلة فلسفية وعِلمية حول البشر ومجتمعاتهم. واحدة من هذه القضايا هي مُستقبل العمل.

مستقبل العمل ومعنى الحياة

مِن المتوقَّع أن تُحوِّل الأتمتة التي تعتمد على الذكاء الاصطناعي اقتصاداتنا ومجتمعاتنا بشكلٍ جذري، مما يُثير تساؤلاتٍ حول مُستقبل العمل ومعناه، فضلًا عن مستقبل الحياة البشرية ومعناها.

أولًا، هناك مَخاوف من أن يؤدي الذكاء الاصطناعي إلى تدمير الوظائف، الأمر الذي قد يؤدي إلى البطالة الشاملة. وهناك أيضًا سؤال حول نوع الوظائف التي يستطيع الذكاء الاصطناعي تولِّيها: وهل ستقتصِر على وظائف ذوي الياقات الزرقاء (العمالة اليدوية)، كما يُطلَق عليها، أم أن هناك وظائف أخرى يمكن أن يتولَّاها؟ يتنبَّأ تقرير شهير لكلٍّ من بنيديكت فري ومايكل أوزبورن (٢٠١٣) بأن ٤٧ في المائة من جميع الوظائف في الولايات المتحدة يُمكن أتمتَتُها. وتحمل تقارير أخرى أرقامًا أقلَّ إثارةً للجدل، ولكن معظمها يتنبأ بأن فقدان الوظائف سيكون كبيرًا. ويتفق العديد من الكتَّاب على أن الاقتصاد قد تأثر وسيظلُّ يتأثر بشكلٍ كبير (Brynjolfsson and McAffee 2014)، بما في ذلك التغيرات الملحوظة التي حدثت في التوظيف الآن والتي ستحدث في المستقبل. ومن المُتوقَّع أن يؤدي فقدان الوظائف بسبب الذكاء الاصطناعي إلى التأثير على جميع أنواع العامِلين، ليس فقط ذوي الياقات الزرقاء، حيث أصبح الذكاء الاصطناعي قادرًا بشكلٍ متزايد على أداء المهام المَعرفية المُعقدة. إذا كان هذا صحيحًا، فكيف يُمكننا أن نُعِدَّ الأجيال الجديدة لهذا المستقبل؟ ماذا يجب أن يتعلَّموا؟ وماذا يجب أن يفعلوا؟ وماذا لو كان الذكاء الاصطناعي يُفيد بعض الأشخاص أكثر من غيرهم؟
بهذا السؤال الأخير، نعود مرةً أخرى إلى قضايا العدالة والإنصاف، التي شغلت تفكير الفلاسفة السياسيين لعصور. على سبيل المثال، إذا كان الذكاء الاصطناعي سيوسِّع الفجوة بين الأثرياء والفقراء، فهل هذا أمر عادل؟ وإذا لم يكن عادلًا، فما الذي يمكن القيام به حيال ذلك؟ يمكن أيضًا صياغة المشكلة من حيث عدم المساواة (هل سيزيد الذكاء الاصطناعي من عدم المساواة في المجتمعات وفي العالم؟) أو من حيث التعرُّض إلى التأثيرات السلبية: هل سيحظى أصحاب الوظائف والأثرياء والمُتعلَّمون في الدول المتقدمة تكنولوجيًّا بفوائد الذكاء الاصطناعي بينما سيكونُ العاطلون عن العمل والفقراء والأقل تعليمًا في الدول النامية أكثر عرضةً لتأثيراته السلبية (Jansen et al. 2018)؟ وللتعامُل مع قضية أخلاقية وسياسية أخرى أكثر حداثة: ماذا عن العدالة البيئية؟ ما هو تأثير الذكاء الاصطناعي على البيئة وعلاقتنا بالبيئة؟ ماذا يعني «الذكاء الاصطناعي المُستدام»؟ هناك أيضًا سؤال حول ما إذا كانت أخلاقيات الذكاء الاصطناعي وسياساته مُرتبطة بقِيَم البشر ومصالحهم فقط أم لا. (انظر الفصل الثاني عشر.)

من المتوقَّع أن تُحوِّل الأتمتة التي تعتمد على الذكاء الاصطناعي اقتصاداتنا ومُجتمعاتنا بشكلٍ جذري، مما يُثير أسئلة حول مُستقبل العمل ومعناه، فضلًا عن مُستقبل الحياة البشرية ومعناها.

ثمة سؤال آخَر ذو طابع وجودي يتعلَّق بمعنى العمل والحياة البشرية. تفترِض المخاوف من فقدان الوظائف أن العمل هو القيمة الوحيدة والمصدر الوحيد للدخل والمعنى. ولكن إذا كانت الوظائف هي الشيء الوحيد ذو القيمة، فربما علينا عندئذٍ خلق المزيد من الأمراض العقلية، ورفع مُعدل التدخين، وزيادة معدلات السمنة؛ لأن هذه المشكلات هي التي تؤدي إلى خلق وظائف.1 ونحن لا نُريد ذلك. إذَن فمن الواضح أننا نؤمن بأن هناك قيمًا أخرى أهم من خلق الوظائف في حدِّ ذاته. ولماذا نعتمد على الوظائف لتحقيق الدخل والمعنى؟ يُمكننا تنظيم مجتمعاتنا واقتصاداتنا بطريقةٍ مختلفة. يُمكننا أن نفصل بين العمل والدخل، أو بالأحرى ما نعتبره «عملًا» ودخلًا. فهناك الكثيرون يقومون بالعمل مجَّانًا، على سبيل المثال في المنزل ورعاية الأطفال والمُسنِّين. فلماذا لا يُعتبر هذا «عملًا»؟ ولماذا يكون القيام بذلك النوع من العمل أقلَّ قيمةً وأهمية من غيره من الأعمال؟ ولماذا لا نجعله مصدرًا للدخل؟ علاوةً على ذلك، يعتقد بعض الأشخاص أن الأتمتة يُمكن أن تُتيح لنا المزيد من الرفاهية والراحة. ربما يُمكننا القيام بأشياء أكثر متعةً وإبداعًا، ليس بالضرورة في شكل وظيفة. يُمكننا، بعبارةٍ أخرى، الاعتراض على فكرة أن الحياة ذات المعنى هي فقط حياة تُقضَى في أداء عملٍ مدفوع الأجر ومُنظم مُسبقًا من قِبل الآخرين أو عمل يتم في إطار ما يُطلَق عليه «التوظيف الذاتي». ربما يُمكننا فرض تدابير مُعيَّنة مثل تحديد «دخل أساسي» لنسمح للجميع بفعل ما يرَونه ذا معنًى وقيمة. وبالتالي، ردًّا على مشكلة مُستقبل العمل، يُمكننا أن نُفكر فيما يجعل العمل ذا معنًى، وفي نوع العمل الذي ينبغي للبشر عملُه (أو بالأحرى يُسمَح لهم بعمله)، وفي كيفية إعادة تنظيم مجتمعاتنا واقتصاداتنا بحيث لا يرتبط الدخل بالوظائف والتوظيف.

على الرغم من كلِّ ما قيل، فإن الأفكار اليوتوبية حول المجتمعات المُرفَّهة وغيرها من الجنان ما بعد الصناعية لم تتحقَّق حتى الآن. لقد شهدنا بالفعل عدة موجاتٍ من الأتمتة بدءًا من القرن التاسع عشر حتى الآن، ولكن إلى أي مدًى حرَّرَتنا الآلات وأعتقت رقابنا؟ ربما تولَّت نيابةً عنا بعضَ الأعمال المُضجرة والخطيرة، ولكنها استُخدِمت أيضًا للاستغلال ولم تُغيِّر بشكلٍ جذري الهيكل الهرَمي للمجتمع. وقد استفاد بعض الناس استفادةً هائلة من الأتمتة، بينما لم يفعل آخرون. وربما تكون الأوهام حول عدم وجود وظائف هي رفاهية محفوظة فقط لأولئك الذين كانوا في جانب المُستفيدين. فضلًا عن ذلك، هل حرَّرَتنا الآلات لنعيش حياةً ذات معنًى أكثر من ذي قبل؟ أم أنها تُهدِّد إمكانية هذه الحياة نفسها؟ هذا نقاش طويل ولا تُوجَد إجابات سهلة عن هذه الأسئلة، ولكن المخاوف التي لدينا تُعد أسبابًا وجيهة لأن نتشكَّك على الأقل في العالم الجديد الجميل الذي رسمَتْه لنا نبوءاتُ الذكاء الاصطناعي.

علاوةً على ذلك، قد لا يكون العمل بالضرورة شقاءً يجب تجنُّبُه أو استغلالًا يجب مقاومته؛ فثمة وجهة نظر أخرى تُشير إلى أن العمل له قيمة في حدِّ ذاته، وأنه يمنح العامل هدفًا ومعنًى، وأن له فوائد مُتنوعة مثل التواصُل الاجتماعي مع الآخرين، والانتماء إلى شيءٍ أكبر، والتمتُّع بالصحة، والحصول على فُرَص لممارسة المسئولية (Boddington 2016). فإذا كان هذا هو الحال، فلربما كان علينا أن نحتفِظ بالعمل للبشر؛ أو على الأقل ببعض أنواع العمل، كالعمل ذي المَغزى الذي يُوفِّر فرصًا لتحقيق هذه الفوائد. أو ربما علينا أن نحتفِظ على الأقل ببعض المهام. وليس على الذكاء الاصطناعي أن يأخُذ على عاتقه وظائف بأكملها، ولكن يُمكن أن يتولَّى بعض المهام ذات القيمة الأقل. ويُمكننا أن نتعاون مع الذكاء الاصطناعي. على سبيل المثال، يُمكننا اختيار عدم تفويض العمل الإبداعي إلى الذكاء الاصطناعي (وهو ما يقترِحه بوستروم) أو يُمكننا اختيار التعاون مع الذكاء الاصطناعي للقيام بأشياء إبداعية. ما يُثير القلق في هذا الصدد هو أنه إذا كانت الآلات ستتولَّى القيام بكلِّ ما نقوم به في حياتنا الآن، فلن يتبقَّى لنا شيء نقوم به، وسنجد حياتنا بلا معنًى. ومع ذلك، فنحن نقول «إذا»؛ ويجب أن نضع في اعتبارنا الشكَّ فيما يمكن أن يقوم به الذكاء الاصطناعي (انظر الفصل الثالث) وحقيقة أن العديد من أنشطتنا ليست «عملًا» ولكنها ذات مغزًى كبير، وبالتالي فإننا سنحتفظ على الأرجح بالكثير لنقوم به. على هذا، يُمكننا أن نقول إن السؤال الآن ليس ماذا سيفعل البشر عندما تتولَّى الآلات القيام بجميع أعمالهم وأنشطتهم، ولكن أي المهام نريد أو نحتاج إلى الاحتفاظ بها للبشر، وما هي الأدوار التي يمكن أن يتولَّاها الذكاء الاصطناعي، إن كان سيتولى أي أدوار، لدعمنا في هذه المهامِّ بطرق أخلاقية ومقبولة اجتماعيًّا.

ختامًا، تدعونا أخلاقيَّات الذكاء الاصطناعي إلى التفكير في ماهية المجتمع الخَيِّر والعادل، وماهية الحياة البشرية ذات المعنى، وماهية الدور الذي تضطلِع به التكنولوجيا والذي يمكن أن تضطلع به فيما يتعلَّق بكلِّ ذلك. ويمكن أن تكون الفلسفة، بما فيها الفلسفة القديمة، مصدر إلهامٍ للتفكير في تقنيات اليوم والمشكلات التي تجلِبها بالفعل والتي يُحتمَل أن تجلبها من الناحية الأخلاقية والمُجتمعية. فإذا كان الذكاء الاصطناعي يُثير هذه الأسئلة القديمة حول الحياة الجيدة ذات المعنى، فلدَينا مصادر في مختلف التقاليد الفلسفية والدينية يمكن أن تُساعدنا في التعامُل مع هذه الأسئلة. على سبيل المثال، كما اقترحت شانون فالور (٢٠١٦)، فإن تقليد أخلاقيات الفضيلة الذي وضعه أرسطو وكونفوشيوس وفلاسفة قدماء آخرون ربما ما زال يستطيع أن يُساعدنا اليوم للتفكير في معنى ازدهار الإنسان وكيف ينبغي أن يكون في عصر التكنولوجيا. وبعبارةٍ أخرى، قد تُوجَد لدينا بالفعل إجابات عن هذه الأسئلة، ولكن علينا القيام ببعض العمل للتفكير في معنى الحياة الجيدة في سياق التكنولوجيا الحديثة، بما في ذلك الذكاء الاصطناعي.

ومع ذلك، تُواجِه فكرة تطوير «أخلاقيات الذكاء الاصطناعي للحياة الجيدة» وأخلاقيات الذكاء الاصطناعي للعالَم الواقعي بشكلٍ عامٍّ عدة مشكلات. تتمثَّل المشكلة الأولى في السرعة. يفترض نموذج أخلاقيات الفضيلة الذي ورثته الفلسفة الغربية من أرسطو مجتمعًا يتغيَّر ببطءٍ ولا تتغيَّر فيه التكنولوجيا بسرعةٍ كبيرة، ويمتلك فيه الناس وقتًا لتعلُّم الحكمة العملية؛ ولذا، فإنه من غير الواضح كيف يمكن استخدامه للتعامُل مع مجتمعٍ سريع التغيُّر (Boddington 2016) ومع التطوُّر السريع للتقنيات مثل الذكاء الاصطناعي. هل ما زال لدَينا الوقت الكافي للاستجابة ولتطوير الحكمة العملية ونقلها فيما يتعلَّق باستخدام تقنيات مثل الذكاء الاصطناعي؟ هل تأتي الأخلاقيات بعد فوات الأوان؟ عندما تنشُر بومة مِينيرفا جناحَيها (التي ترمز للحكمة عند اليونان)، ربما يكون شكل العالم قد تغيَّر تمامًا ولم يعُد بالإمكان التعرف عليه. فما هو دور مثل هذه الأخلاقيات، وماذا ينبغي أن يكون دورها في سياق التطوُّرات التي تحدث في العالم الواقعي؟

أما المشكلة الثانية، فنظرًا إلى تنوع وتعدد وجهات النظر في هذا الأمر داخل المجتمعات، والاختلافات الثقافية بين المجتمعات، فإن الأسئلة الخاصة بماهية الحياة الجيدة ذات المعنى في ظل وجود التكنولوجيا يمكن الإجابة عنها على نحوٍ مختلف في الأماكن والسياقات المُختلفة، وهي تخضع، من الناحية العملية إلى كل أنواع العمليات السياسية التي قد تنتهي أو لا تنتهي بالتوافق. والاعتراف بهذا التنوُّع والتعدُّد قد يؤدي إلى نهج يميل إلى التعدُّدية. كما يمكن أن يأخذ شكل النسبية. وقد أثارت الفلسفة ونظرية المجتمع في القرن العشرين، خاصةً ما يُعرَف بمدرسة ما بعد الحداثة، الكثير من الشكوك حول الإجابات التي يُزعَم كونها عالمية في حين أنها نشأت من سياقٍ جغرافي وتاريخي وثقافي مُعين (من «الغرب»، على سبيل المثال) وأنها مرتبطة بمصالح وعلاقات قوة مُعينة. كما أثيرت شكوك حول ما إذا كانت السياسة يجب أن تهدُف إلى التوافُق من الأساس (انظر أعمال شانتال موف، على سبيل المثال، موف ٢٠١٣)؛ وما إذا كان التوافُق مرغوبًا فيه دائمًا، أم أن الصراع الشرس حول مستقبل الذكاء الاصطناعي يمكن أن يكون له بعض الفوائد؟ وعلاوةً على ذلك، هناك مشكلة أخرى تتعلق بالهيمنة: فالتفكير في الأخلاقيات في العالم الحقيقي يعني التفكير ليس فقط فيما يجب القيام به فيما يتعلق بالذكاء الاصطناعي ولكن أيضًا فيمَن سيقرر، ومَن يجب عليه أن يقرر، مستقبل الذكاء الاصطناعي وبالتالي مستقبل مجتمعنا. ودعونا نفكر معًا مرة أخرى في قضايا الحكم الشمولي وهيمنة الشركات الكبيرة. وإذا رفضنا الحكم الشمولي والبلوتوقراطية (حكم الأثرياء)، فماذا يعني اتخاذ قرار ديموقراطي بشأن الذكاء الاصطناعي؟ ما هو نوع المعرفة المتعلق بالذكاء الاصطناعي الذي يحتاجه السياسيون والمواطنون؟ إذا كان هناك فَهم ضعيف للغاية للذكاء الاصطناعي ومشكلاته المحتمَلة، فإننا نواجه خطر التكنوقراطية أو ببساطة عدم وجود سياسة للذكاء الاصطناعي على الإطلاق.

ومع ذلك، كما يُوضح الفصل التالي، يبدو أن واحدة على الأقل من العمليات السياسية المتعلقة بالذكاء الاصطناعي التي ظهرت مؤخرًا جاءت في الوقت المناسب. وتلك هي صنع سياسات خاصة بالذكاء الاصطناعي، وهي عملية استباقية، وتهدف إلى التوافق، وتُظهِر درجةً متزايدة من التقارب، ويبدو أنها تلتزم بنوع من العالمية بلا خجل، وتعتمد على المعرفة الخبيرة، وتزعم — ولو على الأقل شفهيًّا — احترام مبادئ الديمقراطية، وخدمة الصالح العام والمصلحة العامة، ومشاركة جميع الأطراف المَعنية.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤