الفصل الأول

أيتها المرآة على الحائط

الضجة والمخاوف التي يُثيرها الذكاء الاصطناعي: أيتها المرآة على الحائط: مَن الأذكى في العالَم؟

عندما أُعلنت النتائج، اغرورقت عينا اللاعب لي سيدول بالدموع. حقَّق «ألفا جو»، وهو برنامج ذكاء اصطناعي طوَّرَتْه شركة «ديب مايند» التابعة إلى جوجل، فوزًا ٤-١ في لعبة «جو» (لعبة «جو» هي لعبة استراتيجية قديمة ظهرت في الصين ويُشارك فيها لاعبان اثنان). تاريخ الحدث: مارس ٢٠١٦. قبل عقدَين من الزمان، خسر لاعب الشطرنج جاري كاسباروف الحاصل على لقب «جراند ماستر» (الأستاذ الكبير) أمام الآلة «ديب بلو»، والآن فاز برنامج كمبيوتر على بطل العالم لثماني عشرة مرة؛ لي سيدول، في لعبة مُعقَّدة كان يُنظَر إليها على أنها لعبة لا يمكن أن يلعبها إلا البشر، باستخدام حدسِهم وتفكيرهم الاستراتيجي. الأدهى من ذلك أن الكمبيوتر لم يفُز باتباع القواعد المُعطاة له من قِبَل المُبرمجين، وإنما عن طريق تعلُّم الآلة القائم على الملايين من مباريات «جو» السابقة وعلى اللعب ضدَّ نفسه. في مثل هذه الحالة، يُعِد المبرمجون مجموعات البيانات ويُنشِئون الخوارزميات، ولكن لا يُمكنهم معرفة التحرُّكات التي سيأتي بها البرنامج. فالذكاء الاصطناعي يتعلَّم من تلقاء نفسه. وبعد عددٍ من التحرُّكات غير المعتادة والمفاجئة، اضطُرَّ بطل العالم لي إلى الانسحاب (Borowiec 2016).

إنه إنجاز رائع حقَّقَه الذكاء الاصطناعي. ولكنه، مع ذلك، يُثير المخاوف في قلوبنا. إننا مُعجبون بجمال الحركات، ولكننا أيضًا حزانى، وربما حتى خائفون. نأمُل في أن تساعدنا أنظمة الذكاء الاصطناعي الأكثر ذكاءً في إحداث ثورة في الرعاية الصحية أو في إيجاد حلولٍ لجميع أنواع المشكلات المجتمعية، ولكن يُراودنا القلق من أن تسيطر الآلات على زمام أمورنا. فهل تستطيع الآلات أن تتفوَّق علينا وتتحكَّم فينا؟ هل لا يزال الذكاء الاصطناعي مجرد أداة، أم إنه سيُصبح رويدًا رويدًا سيدنا لا محالة؟ تُذكِّرنا هذه المخاوف بكلمات «هال» كمبيوتر الذكاء الاصطناعي في فيلم الخيال العلمي الذي أخرجه ستانلي كوبريك: «٢٠٠١: ملحمة الفضاء» (٢٠٠١: سبيس أوديسي)، حين قال ردًّا على الأمر البشري «افتح أبواب المركبة الصغيرة»: «أخشى أنني لا أستطيع أن أفعل ذلك يا ديف.» وإذا لم يكُن هناك خوف، فقد يكون هناك شعور بالحزن أو خيبة الأمل. لقد أطاح داروين وفرويد بإيماننا بتميُّزنا، وبإحساسنا بالتفوُّق، وأطاحا بأوهام السيطرة التي يعيش فيها البشر؛ والآن جاء دور الذكاء الاصطناعي ليُوجِّه ضربةً أخرى إلى صورة البشر عن ذواتهم. إذا كانت الآلة تستطيع القيام بذلك، فماذا تبقَّى لنا؟ ماذا نحن؟ هل نحن مجرَّد آلات؟ هل نحن آلات رديئة، بها الكثير من العيوب والأخطاء؟ وماذا سيحدُث لنا؟ هل سنُصبح عبيدًا للآلات؟ أو ما هو أسوأ، مجرد مصدر للطاقة، كما في فيلم «المصفوفة» (ذا ماتريكس)؟

التأثير الحقيقي والواسع النطاق للذكاء الاصطناعي

ولكن إنجازات الذكاء الاصطناعي لا تقتصر على الألعاب أو عالَم الخيال العلمي. فالذكاء الاصطناعي يحدث الآن وهو مُتوغِّل في كل ما حولنا، وغالبًا ما يكون مُضمَّنًا على نحو غير مرئي في أدواتنا اليومية وبكونه جزءًا من الأنظمة التكنولوجية المعقَّدة (Boddington 2017). ونظرًا إلى النمو الهائل لقدرة الكمبيوتر، وإتاحة البيانات (الضخمة) بسبب وسائل التواصل الاجتماعي والاستخدام الهائل لمليارات الهواتف الذكية، وشبكات المحمول السريعة، أحرَزَ الذكاء الاصطناعي، وخاصة تعلُّم الآلة، تقدُّمًا كبيرًا. وقد مكَّنَ هذا الخوارزميات من تولِّي العديد من أنشطتنا، بما في ذلك التخطيط والكلام والتعرُّف على الوجوه واتخاذ القرار. يمتلك الذكاء الاصطناعي تطبيقاتٍ في العديد من المجالات، بما في ذلك النقل والتسويق والرعاية الصحية والتمويل والتأمين والأمن والجيش والعلوم والتعليم والعمل المكتبي والمساعدة الشخصية (مثل جوجل دوبلكس1 والترفيه والفنون (مثل استرجاع الموسيقى وتأليفها) والزراعة، وبالطبع التصنيع.

تتمُّ عمليات إنشاء الذكاء الاصطناعي واستخدامه لدى شركات تكنولوجيا المعلومات والإنترنت. على سبيل المثال، لطالما استخدمت جوجل الذكاءَ الاصطناعي في مُحرِّك البحث الخاص بها. كما يستخدم فيسبوك الذكاء الاصطناعي في الإعلانات المستهدفة وإشارات الصور. كذلك تستخدم مايكروسوفت وأبِل الذكاء الاصطناعي في تشغيل مساعدَيهما الرقميين. لكن الذكاء الاصطناعي لا يقتصر على قطاع تكنولوجيا المعلومات بمعناه الضيِّق. فهناك، على سبيل المثال، الكثير من الخُطط الملموسة، والتجارب في مجال السيارات الذاتية القيادة. فهذه التقنية تعتمد أيضًا على الذكاء الاصطناعي. كما تستخدِم الطائرات دون طيار الذكاءَ الاصطناعي، مثلها مثل الأسلحة الذاتية التشغيل التي يمكن أن تقتُل دون تدخُّلٍ بشري. بل إن الذكاء الاصطناعي قد استُخدِم بالفعل في اتخاذ القرار في المحاكم. ففي الولايات المتحدة، على سبيل المثال، استُخدم نظام «كومباس» للتنبُّؤ بالذين يُحتمَل أن يُعاودوا ارتكاب الجرائم. يدخل الذكاء الاصطناعي أيضًا في المجالات التي نعتبِرها عمومًا أكثر شخصية أو حميمية. على سبيل المثال، يمكن للآلات الآن قراءة وجوهنا، ليس فقط للتعرُّف علينا، ولكن أيضًا لقراءة انفعالاتنا واسترداد جميع المعلومات المرتبطة بنا.

الذكاء الاصطناعي يحدث الآن وهو مُتوغِّل في كلِّ ما حولنا، وغالبًا ما يكون مُضمَّنًا على نحوٍ غير مرئي في أدواتنا اليومية.

الحاجة إلى مناقشة المشكلات الأخلاقية والمجتمعية

يمكن أن يكون للذكاء الاصطناعي العديد من الفوائد. ويمكن استخدامه لتحسين الخدمات العامة والتجارية. على سبيل المثال، يُعد التعرُّف على الصور شيئًا مفيدًا في الطب؛ إذ ربما يساعد في تشخيص أمراضٍ مثل السرطان ومرض ألزهايمر. ولكن مثل هذه التطبيقات اليومية للذكاء الاصطناعي تُظهِر أيضًا كيف تُثير التقنيات الجديدة تخوُّفات أخلاقية. واسمحوا لي أن أُقدِّم بعض الأمثلة على أسئلةٍ حول أخلاقيات الذكاء الاصطناعي.

هل يجب أن تحتوي السيارات الذاتية القيادة على قيودٍ أخلاقية مضمَّنة؟ وإذا كان الأمر كذلك، فما نوع هذه القيود وكيف ينبغي تحديدها؟ على سبيل المثال، إذا واجهت سيارة ذاتية القيادة موقفًا يتعيَّن عليها فيه الاختيار بين أن تصطدم بطفلٍ أو تصطدم بجدارٍ لإنقاذ حياة الطفل، ولكن مع احتمال قتل راكِبها، فماذا تختار؟ وهل ينبغي ترخيص الأسلحة الفتَّاكة الذاتية التشغيل من الأساس؟ كم عدد القرارات التي نُريد تفويضها إلى الذكاء الاصطناعي، وما القَدْر الذي نُفوِّضه منها؟ ومَن سيكون المسئول عندما يحدُث خطأ ما؟ في إحدى القضايا، وضَعَ القضاة ثقتهم في خوارزمية «كومباس» أكثر من ثِقتهم في الاتفاقات التي توصَّل إليها الدفاع والادعاء.2 فهل سنعتمد كثيرًا على الذكاء الاصطناعي؟ تُعد خوارزمية «كومباس» أيضًا مُثيرة للجدل إلى حدٍّ كبير؛ نظرًا إلى أن الأبحاث أظهرت أن الأشخاص الذين تنبَّأَت الخوارزمية بأنهم سيُعيدون ارتكاب الجرائم ولكنهم لم يفعلوا كانت النسبة الكبرى منهم مِن السود (Fry 2018). وبالتالي يمكن للذكاء الاصطناعي أن يُعزِّز التحيُّز والتمييز غير العادل. ويمكن أن تنشأ مشكلات مُماثلة مع الخوارزميات التي تُوصي بقراراتٍ بشأن طلبات الرهن العقاري وطلبات التقدُّم للوظائف. أو فلنُفكر فيما يُسمى بالشرطة التنبُّؤية: تُستخدَم الخوارزميات للتنبؤ بالمكان المُحتمَل لارتكاب الجرائم (على سبيل المثال، أي منطقة في المدينة) ومَن قد يرتكِبها، ولكن قد تكون النتيجة أن تُستهدَف مجموعات اجتماعية واقتصادية أو عِرقية مُعيَّنة للمراقبة الشرطية بدرجةٍ أكبر من غيرهم من المجموعات. وقد جَرَت الاستعانة بالفعل بالشرطة التنبُّؤية في الولايات المتحدة، وكما يُظهر تقرير حديث لمنظمة «ألجوريذم ووتش» (٢٠١٩)، فقد استُعين بها أيضًا في أوروبا.3 وغالبًا ما تُستخدَم تقنية التعرُّف على الوجوه القائمة على الذكاء الاصطناعي لأغراض المُراقبة، ومِن ثَم يمكن أن تُشكِّل انتهاكًا لخصوصية الأفراد. كما يُمكنها بشكلٍ أو بآخَر التنبؤ بالميول الجنسية لدى الأفراد. الأمر لا يتطلَّب أي معلومات من هاتفك أو أي بيانات بيومترية (بيانات المقاييس الحيوية). وتقوم الآلة بعملها عن بُعد. ومِن ثَم فإننا باستخدام الكاميرات الموجودة في الشوارع والأماكن العامة الأخرى، يمكن التعرُّف علينا و«قراءتنا»، بما في ذلك التعرف على حالتنا المزاجية. وعن طريق تحليل بياناتنا، يمكن التنبؤ بصحَّتنا العقلية والجسدية؛ دون عِلمنا بذلك. ويمكن لأصحاب العمل استخدام التكنولوجيا لمُراقبة أدائنا. ويمكن للخوارزميات النشطة على وسائل التواصل الاجتماعي أن تنشر خطاب الكراهية أو المعلومات الخطأ؛ على سبيل المثال، يمكن أن تظهر الروبوتات السياسية في هيئة أشخاصٍ حقيقيِّين وتنشُر محتوًى سياسيًّا. إحدى الحالات المعروفة هي برنامج الدردشة الآلي من مايكروسوفت لعام ٢٠١٦ المُسمى «تاي» المُصمَّم لإجراء محادثات مَرِحة على تويتر، ولكن عندما أصبح أكثر ذكاءً، بدأ في نشر تغريدات تحمِل دلالاتٍ عنصرية. يمكن لبعض خوارزميات الذكاء الاصطناعي إنشاء خطابات فيديو كاذبة، مثل الفيديو الذي جرى إنشاؤه ليُشبه بشكلٍ مُضلِّل خطابًا لباراك أوباما.4
غالبًا ما تكون النوايا طيبة. ولكن هذه المشكلات الأخلاقية عادةً ما تكون نتائج غير مقصودة للتكنولوجيا: فمعظم هذه التأثيرات، مثل التحيُّز أو خطاب الكراهية، لم يقصدها مطورو التكنولوجيا أو مُستخدموها. علاوةً على ذلك، هناك سؤال مهم يجب طرحه دائمًا: من أجل مَن يتم التحسين؟ من أجل الحكومة أم من أجل المواطنين؟ من أجل الشرطة أم من أجل مَن تستهدفهم الشرطة؟ من أجل بائع التجزئة أم من أجل الزبون؟ من أجل القضاة أم من أجل المُتهمين؟ كما تظهر الأسئلة المتعلقة بالسلطة والهيمنة، كالحال على سبيل المثال عندما يقتصر تشكيل التكنولوجيا على عددٍ قليل من الشركات الضخمة (Nemitz 2018). فمَن الذي يُشكل مُستقبل الذكاء الاصطناعي؟
يُلقي هذا السؤال الضوء على الأهمية الاجتماعية والسياسية للذكاء الاصطناعي. تتعلَّق أخلاقيَّات الذكاء الاصطناعي بالتغيُّر التكنولوجي وتأثيره على حياة الأفراد، ولكنها تتعلق أيضًا بالتحولات التي تحدُث في المجتمع وفي الاقتصاد. وتدلُّ قضايا التحيُّز والتمييز بالفعل على أن الذكاء الاصطناعي مُرتبِط بالمجتمع. ولكنه يُغيِّر أيضًا الاقتصاد، وبالتالي ربما يُغيِّر الهيكل الاجتماعي لمجتمعاتنا. ووفقًا لمكافي وبرينجولفسون (٢٠١٤)، فقد دخلنا عصر الآلة الثاني، الذي لا تكون فيه الآلات مُكملة للبشر فحسب، كما في الثورة الصناعية، ولكنها أيضًا بدائل للبشر. ونظرًا إلى أن المِهن والأعمال من جميع الأنواع ستتأثر بالذكاء الاصطناعي، فمن المتوقَّع أن يتغيَّر مجتمعنا تغيُّرًا جذريًّا مع دخول التقنيات التي وَصفت في يومٍ من الأيام في روايات الخيال العلمي حيَّز العالم الحقيقي (McAfee and Brynjolfsson 2017). فما هو مستقبل العمل؟ وما نوع الحياة التي سنعيشها نحن عندما يتولى الذكاء الاصطناعي القيام بالوظائف؟ ومَن «نحن»؟ ومَن الذي سيستفيد من هذا التحوُّل ومن سيخسر؟

هذا الكتاب

استنادًا إلى الإنجازات المُذهلة التي تم تحقيقها، فهناك الكثير من الضجة المُثارة حول الذكاء الاصطناعي. ويُستخدَم الذكاء الاصطناعي بالفعل في مجموعةٍ واسعة من مجالات المعرفة والممارسات البشرية. وقد أثارت الأولى تكهُّناتٍ جامحة حول مستقبل التكنولوجيا، كما أثارت مناقشاتٍ فلسفيةً مهمَّة حول معنى أن تكون إنسانًا. بينما خلقت الثانية إحساسًا بالإلحاح من جانب الأخلاقيين وصانعي السياسات لضمان أن تُفيدنا هذه التكنولوجيا بدلًا من أن تخلق أمام الأفراد والمجتمعات تحديات لا يُمكنهم التغلُّب عليها. وتُعد هذه المخاوف الأخيرة أكثر عمليةً وإلحاحًا.

تتعلق أخلاقيات الذكاء الاصطناعي بالتغيُّر التكنولوجي وتأثيرِه على حياة الأفراد، ولكنها تتعلق أيضًا بالتحوُّلات التي تحدث في المجتمع وفي الاقتصاد.

يتناول هذا الكتاب، الذي كتبَه فيلسوف أكاديمي لدَيه أيضًا خبرة في تقديم المشورة من أجل وضع السياسات، كِلا الجانبَين؛ فهو يتعامل مع الأخلاقيات على هذه المستويات كافة. ويهدف إلى إعطاء القارئ نظرةً عامة جيدة على المشكلات الأخلاقية التي يُثيرها الذكاء الاصطناعي، بدءًا من السرديات المؤثرة حول مستقبل الذكاء الاصطناعي والأسئلة الفلسفية حول طبيعة الإنسان ومُستقبله، وانطلاقًا إلى القضايا الأخلاقية المُتعلقة بالمسئولية والتحيُّز وكيفية التعامُل مع المسائل العملية الواقعية التي أثارتها التكنولوجيا عن طريق وضع السياسات؛ لا سيما إذا كان ذلك قبل فوات الأوان.

لكن ماذا سيحدُث إذا «فات الأوان»؟ بعض السيناريوهات متشائمة ومتفائلة في الوقت نفسه. اسمحوا لي أن أبدأ ببعض الأحلام والكوابيس حول مستقبل التكنولوجيا، والسرديات المؤثرة التي تبدو، ولو للوهلة الأولى على الأقل، ذات صِلةٍ بتقييم الفوائد والمخاطر المُحتمَلة للذكاء الاصطناعي.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤