الفصل السابع

الخصوصية وغيرها من القضايا

إن العديد من المشكلات الأخلاقية المُتعلقة بالذكاء الاصطناعي معروفة من مجال أخلاقيات الروبوتات والأتمتة أو، بشكلٍ أعم، من مجال أخلاقيات التكنولوجيا الرقمية وتكنولوجيا الاتصالات. ولكن هذا في حدِّ ذاته لا يُقلِّل من أهميتها. وعلاوةً على ذلك، فإن هذه القضايا — بسبب التكنولوجيا وطريقة ارتباطها بتقنياتٍ أخرى — تكتسب بُعدًا جديدًا وتُصبح أكثر أهمية وإلحاحًا.

الخصوصية وحماية البيانات

فلنُفكر، على سبيل المثال، في مسألة الخصوصية وحماية البيانات. ينطوي الذكاء الاصطناعي، ولا سيما تطبيقات تعلُّم الآلة التي تتعامَل مع البيانات الضخمة، غالبًا على جمع المعلومات الشخصية واستخدامها. ويُمكن أيضًا استخدام الذكاء الاصطناعي للمُراقبة، في الشارع وأيضًا في مكان العمل وفي كل مكان، وذلك من خلال الهواتف الذكية ووسائل التواصُل الاجتماعي. وفي كثيرٍ من الأحيان، لا يعلم الناس حتى أن البيانات تُجمَع، أو أن البيانات التي قدموها في سياقٍ ما تُستخدَم بواسطة أطراف أخرى في سياقٍ آخر. كما أن البيانات الضخمة غالبًا ما تَعني أن (مجموعات) البيانات التي تحصل عليها المنظمات المختلفة يتم دمجها معًا.

يتطلَّب الاستخدام الأخلاقي للذكاء الاصطناعي جمع البيانات ومعالجتها ومشاركتها بطريقةٍ تحترم خصوصية الأفراد وحقَّهم في معرفة ما يحدث لبياناتهم، والوصول إلى بياناتهم، والاعتراض على جمع بياناتِهم أو على مُعالجتها، ومعرفة أن بياناتهم تُجمع وتُعالج وأنهم بعدئذٍ يخضعون لقراراتٍ يتخذها الذكاء الاصطناعي (في حالة حدوث ذلك بالفعل). وتُثار العديد من هذه القضايا أيضًا في سياقات تكنولوجيا المعلومات وتكنولوجيا الاتصالات الأخرى، وكما سنرى فيما بعدُ في هذا الفصل، تعتبر الشفافية شرطًا مُهمًّا أيضًا في تلك الحالات (انظر لاحقًا في هذا الفصل). كما تُثار قضايا حماية البيانات في أخلاقيات البحث، على سبيل المثال، في أخلاقيات جمع البيانات لأبحاث العلوم الاجتماعية.

ومع ذلك، عند النظر إلى السياقات التي يُستخدَم فيها الذكاء الاصطناعي اليوم، تُصبح قضايا الخصوصية وحماية البيانات أكثر تعقيدًا. فإن احترام هذه القِيَم والحقوق يكون سهلًا إلى حدٍّ ما عند إجراء استبيانٍ كعالِم اجتماع: إذ يمكن للباحث إبلاغ المشاركين في الاستبيان وطلب موافقتهم بشكلٍ صريح، ومِن ثَم سيكون من المعروف نسبيًّا ما سيحدث للبيانات. ولكن البيئة التي يُستخدَم فيها الذكاء الاصطناعي وعلم البيانات اليوم عادةً ما تكون مختلفةً تمامًا. فلنتناول مثلًا وسائل التواصل الاجتماعي: على الرغم من معلومات الخصوصية والتطبيقات التي تطلُب من المُستخدِمين الموافقة، فإن المُستخدِمين لا يعرفون بوضوح ما يحدُث لبياناتهم أو حتى أي بيانات يتم جمعها؛ وإذا كانوا يرغبون في استخدام التطبيق والاستمتاع بفوائده، فعليهم أن يوافقوا. وفي كثيرٍ من الأحيان، لا يعلم المُستخدمون حتى أن الذكاء الاصطناعي يُشغِّل التطبيق الذي يستخدمونه. وغالبًا ما تُنقَل البيانات المُعطاة في سياقٍ ما إلى نطاقٍ آخَر واستخدامها لأغراض مختلفة (إعادة استخدام البيانات في أغراضٍ أخرى)، على سبيل المثال، عندما تبيع الشركات بياناتها إلى شركات أخرى أو تنقل البيانات بين أجزاءٍ مختلفة من نفس الشركة دون عِلم المستخدِمين بهذا.

التلاعُب والاستغلال والمُستخدِمين المُستهدفين

تُشير هذه الظاهرة الأخيرة أيضًا إلى احتمالية التلاعُب بالمُستخدمين واستغلالهم. يُستخدَم الذكاء الاصطناعي للتحكم فيما نشتريه، وفي الأخبار التي نُتابعها، وفي الآراء التي نثِق بها، وغير ذلك. وقد أشار الباحثون في النظرية النقدية إلى السياق الرأسمالي الذي يحدث فيه استخدام وسائل التواصل الاجتماعي. على سبيل المثال، يمكن القول إن مُستخدمي وسائل التواصل الاجتماعي يؤدُّون «عملًا رقميًّا» مجانيًّا (Fuchs 2014) من خلال إنتاج البيانات لصالح الشركات. ويُمكن أن يشمل هذا الشكل من أشكال الاستغلال أيضًا الذكاء الاصطناعي. فبوصفنا مُستخدمين لوسائل التواصل الاجتماعي، نحن نتعرض لخطر أن نصبح القوة العاملة المُستغلَّة غير المأجورة، التي تنتج البيانات لصالح الذكاء الاصطناعي الذي يُحلل بياناتنا بعد ذلك لصالح الشركات التي تستخدم البيانات، والتي عادةً ما تتضمَّن أطرافًا أخرى أيضًا. وهذا يُذكِّرنا أيضًا بتحذير هيربرت ماركوزه في ستينيات القرن العشرين بأنه حتى في المجتمعات المُسمَّاة مجتمعات «حرة»، و«غير شمولية»، هناك أشكال خاصة من السيطرة، وخاصة استغلال المُستهلكين (Marcuse 1991). يكمن الخطر هنا في أن الذكاء الاصطناعي قد يؤدي حتى في الديمقراطيات الحديثة إلى أشكالٍ جديدة من التلاعُب والمراقبة والاستبداد، ليس بالضرورة في شكل سياسات استبدادية ولكن بطريقة أكثر خفاءً وفعالية: من خلال تغيير الاقتصاد بطريقة تُحوِّلنا جميعًا — في استخدامنا للهواتف الذكية والتفاعلات الرقمية الأخرى — إلى ما يُشبه الأبقار التي يتم حلبها للحصول على بياناتها. ولكن يمكن أيضًا استخدام الذكاء الاصطناعي للتلاعُب في السياسة بشكلٍ أكثر مباشرة، على سبيل المثال، من خلال تحليل بيانات وسائل التواصُل الاجتماعي لدعم حملات سياسية مُعينة (كما في الحالة الشهيرة لشركة كامبريدج أناليتيكا، التي استخدمت بيانات مُستخدمي فيسبوك — دون موافقتهم — لأغراض سياسية في انتخابات الرئاسة الأمريكية عام ٢٠١٦)، أو عن طريق استخدام روبوتات لنشر رسائل سياسية على وسائل التواصُل الاجتماعي استنادًا إلى تحليل بيانات الأفراد من حيث تفضيلاتهم السياسية للتأثير على عمليات التصويت. كما أن البعض يُساورهم القلق من أن يُحوِّل الذكاء الاصطناعي، من خلال تولِّيه المهام المعرفية نيابةً عن البشر، قد يُحوِّل مُستخدِميه إلى أطفال على المستوى العقلي عن طريق «تقليل قدرتهم على التفكير بمحض أنفسهم أو اتخاذ قراراتهم الخاصة بما يجب فعله» (Shanahan 2015, 170). علاوةً على ذلك، لا يكمن خطر الاستغلال في جانب المستخدم فحسب: فالذكاء الاصطناعي يعتمد على أجهزة صنعها أشخاص، وقد ينطوي إنشاء هذه الأجهزة على استغلال هؤلاء الأشخاص. وقد يدخل الاستغلال أيضًا في تدريب الخوارزميات وإنتاج البيانات التي تُستخدَم لصالح الذكاء الاصطناعي وعن طريقه. إن الذكاء الاصطناعي ربما يجعل الحياة أيسر بالنسبة إلى مُستخدِميه، ولكن ليس بالضرورة بالنسبة إلى أولئك الذين يُنقِّبون عن المعادن، أو بالنسبة إلى مَن يتعاملون مع المُخلفات الإلكترونية، أو إلى مَن يُدربون الذكاء الاصطناعي. على سبيل المثال، لا يقتصر ما يقوم به تطبيق «أليكسا» الذي طوَّرته أمازون إكو على إنشاء مُستخدِمين يؤدُّون عملًا مجانيًّا ويُصبحون مصادر للبيانات ويُباعون كمنتجات؛ بل هناك عالَم من العمل البشري يكمُن خلف الكواليس: فعُمَّال التنقيب عن المعادن، والعمال على السفن، والعمال الذين يُصنفون مجموعات البيانات، كل هؤلاء في خدمة تجميع رءوس الأموال وتراكُمها لدى عدد قليل جدًّا من الأشخاص (Schwab 2018).

قد يؤدي الذكاء الاصطناعي إلى أشكالٍ جديدة من التلاعُب والمراقبة والاستبداد، ليس بالضرورة في شكل سياساتٍ استبدادية ولكن بطريقةٍ أكثر خفاءً وفعالية.

بعض مُستخدمي الذكاء الاصطناعي أكثر تعرُّضًا للخطر من غيرهم. ونظريات الخصوصية والاستغلال غالبًا ما تفترض أن المستخدِم شخص بالِغ سليم الجسم، صغير السن نسبيًّا، في كامل قواه العقلية. لكنَّ العالَم الحقيقي مليء بالأطفال وكبار السن والأشخاص الذين لا يتمتعون بقوًى عقلية «طبيعية» أو «كاملة»، وغيرهم. مثل هؤلاء المُستخدمين الضعفاء أكثر عُرضةً للخطر. ويمكن انتهاك خصوصيتهم أو التلاعب بهم بسهولة، ويوفِّر الذكاء الاصطناعي فرصًا جديدة لهذه الانتهاكات وعمليات التلاعب. فكِّر مثلًا في الأطفال الصغار الذين يتحدثون مع دميةٍ متصلة بنظام تكنولوجي مدعوم بالذكاء الاصطناعي: على الأرجح، هؤلاء الأطفال لا يعلمون شيئًا عن الذكاء الاصطناعي المُستخدَم أو عن جمع بياناتهم، فما بالك بما يُفعَل بمعلوماتهم الشخصية. إن روبوت الدردشة أو الدمية الذكية المدعومة بالذكاء الاصطناعي لا تستطيع فقط أن تجمع الكثير من المعلومات الشخصية عن الطفل وأبويه بهذه الطريقة، بل يُمكنها أيضًا التلاعُب بالطفل باستخدام واجهة اللغة والصوت. ومع تحوُّل الذكاء الاصطناعي إلى جزءٍ من «إنترنت الألعاب» (Druga and Williams 2017) وإنترنت الأشياء (الأخرى)، تُصبح هذه مشكلة أخلاقية وسياسية. إن شبح الشمولية والاستبداد يُعاود الظهور مجددًا: ليس في قصص الخيال العلمي المُتشائمة أو في كوابيس ما بعد الحروب القديمة، ولكن في التكنولوجيا الاستهلاكية الموجودة بالفعل في الأسواق.

الأخبار الكاذبة، وخطر الشمولية، وتأثيرها على العلاقات الشخصية

يمكن أن يُستخدَم الذكاء الاصطناعي أيضًا في إنتاج خطاب الكراهية والمعلومات الزائفة، أو في إنشاء روبوتات تبدو كأشخاصٍ ولكنها في الواقع مجرد برامج مدعومة بالذكاء الاصطناعي. وقد سبق وأشرت بالفعل إلى روبوت الدردشة «تاي» وخطاب أوباما الزائف. قد يؤدي ذلك إلى عالَمٍ لا يمكن فيه التمييز بوضوح بين ما هو حقيقي وما هو زائف، عالم تتداخَل فيه الحقائق مع الخيال. وسواء كان يجِب تسميتها «ما بعد الحقيقة» أم لا (McIntyre 2018)، تساهم هذه التطبيقات للذكاء الاصطناعي بشكلٍ واضح في المشكلة. بالطبع، كان يُوجَد تلاعب ومعلومات كاذبة قبل ظهور الذكاء الاصطناعي. فالأفلام، على سبيل المثال، كانت دائمًا تخلُق أوهامًا، والصحف كانت تنشر الدعاية الكاذبة. ولكن بعد ظهور الذكاء الاصطناعي، جنبًا إلى جنبٍ مع إمكانيات وبيئة الإنترنت ووسائل التواصل الاجتماعي الرقمية، يبدو أن المشكلة تزداد تعقيدًا وحِدَّة. ويبدو أن هناك المزيد من الفُرَص للتلاعُب، مما يعرض التفكير النقدي للخطر. وكل هذا يُذكرنا مرة أخرى بخطورة الشمولية، التي تستفيد من الْتباس الحقيقة وتنتج أخبارًا زائفة لأغراض أيديولوجية.

ومع ذلك، حتى في اليوتوبيا الليبرالية قد لا تكون الحياة غاية في الإشراق والبهاء. إذ إن المعلومات الكاذبة تنخر في جدار الثقة ومن ثَم تفسد النسيج الاجتماعي. ويُمكن أن يؤدي الاستخدام المُفرط للتكنولوجيا إلى تقليل التواصُل، أو على الأقل التواصل الهادف، بين الأفراد. في عام ٢٠١١، قدمت شيري تيركل ادعاءً يتعلق بالتكنولوجيا مثل أجهزة الكمبيوتر والروبوتات: لقد انتهى بنا الأمر إلى توقُّع المزيد من التكنولوجيا، والقليل من أنفسنا. ويمكن أيضًا استخدام هذه الحجَّة فيما يتعلق بالذكاء الاصطناعي: تكمُن المشكلة في أن الذكاء الاصطناعي، في شكل وسائل التواصل الاجتماعي أو في شكل «الرفاق» الرقميين، يُعطينا وهْم الرفقة ولكنه يُزعزع استقرار العلاقات الحقيقية مع الأصدقاء والأحباء والعائلات. وعلى الرغم من أن هذه المشكلة كانت موجودةً بالفعل قبل الذكاء الاصطناعي وتزداد تفاقمًا مع ظهور كل وسيطٍ جديد من الوسائط (قراءة الصحف أو مشاهدة التلفيزيون بدلًا من التحدُّث وإدارة حوار)، فإنه يمكن القول إن التكنولوجيا الآن، في وجود الذكاء الاصطناعي وتطبيقه، قد أصبحت أفضل بكثيرٍ في خلق وهْم الرفقة، وأن هذا يزيد من خطر الوحدة أو تدهور العلاقات الشخصية.

السلامة والأمان

هناك أيضًا مخاطر أوضح. فالذكاء الاصطناعي، لا سيَّما في حال تضمينه في أنظمة الأجهزة التي تعمل في العالَم الفعلي، يحتاج أيضًا إلى أن يكون آمنًا. ولنضرب مثلًا على ذلك بالروبوتات الصناعية: يفترض ألا تُلحِق هذه الروبوتات الأذى بالعمال. ومع ذلك، تحدث أحيانًا حوادث في المصانع. ويمكن للروبوتات أن تقتُل، حتى لو كان ذلك نادرًا نسبيًّا. ومع ذلك، في الروبوتات التي تعتمِد على الذكاء الاصطناعي، تُصبح مشكلة السلامة أكثر تحدِّيًا: فهذه الروبوتات قد تتمكَّن من العمل جنبًا إلى جنبٍ مع البشر، وقد تتمكَّن من تجنُّب إلحاق الأذى بالبشر «على نحوٍ ذكي». ولكن ماذا يعني ذلك بالضبط؟ هل يجب أن تتحرك ببطءٍ أكبر عندما تكون قريبةً من البشر، مما يُبطئ العملية، أم أنه من المقبول التحرك بسرعةٍ عالية من أجل إنجاز العمل بكفاءة وسرعة؟ هناك دائمًا احتمالات لحدوث خطأ من نوع ما. فهل يجب أن تنطوي أخلاقيات السلامة على الوصول إلى حلول وسط؟ تُثير الروبوتات المدعومة بالذكاء الاصطناعي في بيئة المنزل أو في الأماكن العامة أيضًا قضايا تتعلَّق بالسلامة. على سبيل المثال، هل يجب على الروبوت دائمًا تجنُّب الاصطدام بالبشر أم أنه من المقبول أحيانًا أن يُعرقل الروبوت شخصًا من أجل الوصول إلى هدفه؟ هذه ليست مسائل تقنية بحتة ولكن لها جانب أخلاقي: إنها مسألة حياة بشرية وقِيَم مثل الحرية والكفاءة. كما أنها تُثير مشكلاتٍ تتعلَّق بالمسئولية (سنتحدث عن هذا بتفصيل أكثر لاحقًا).

ثمَّة مشكلة أخرى كانت موجودة بالفعل قبل ظهور الذكاء الاصطناعي في المشهد، ولكنها تستحقُّ تجديد اهتمامنا بها؛ ألا وهي مشكلة الأمان. في عالم مُتصل بالشبكات، يمكن اختراق أي جهاز إلكتروني أو برنامج واختراقه والتلاعُب به من قبل أشخاص لديهم نوايا خبيثة. فكلُّنا نعلم بشأن فيروسات الكمبيوتر، على سبيل المثال، التي يمكن أن تُخرِّب جهاز الكمبيوتر الخاص بك. ولكن عند تزويد أجهزتنا وبرامجنا بالذكاء الاصطناعي، يمكن أن تزيد إمكانياتها وقدراتها، وعندما تحظى بوكالةٍ أخلاقية أكبر ويكون لهذا عواقب مادية في العالم الفعلي، تُصبح مشكلة الأمان أكبر بكثير. على سبيل المثال، إذا اختُرقَت سيارتك الذاتية القيادة التي تعمل بالذكاء الاصطناعي، فسوف تُعاني مما هو أكثر من مجرد «مشكلة في الكمبيوتر» أو «مشكلة في البرنامج»؛ قد تلقى حتفك. وإذا اختُرِق برنامج إحدى البَنى التحتية المهمة (مثل الإنترنت، أو المياه، أو الطاقة … إلخ) أو جهاز عسكري ذي قدراتٍ مدمرة، فمن المرجَّح أن يتعرض المجتمع بأكمله إلى اضطرابٍ كبير وسوف يتعرض الكثير من الأشخاص للضرر. في التطبيقات العسكرية، يشكِّل استخدام الأسلحة الفتاكة الذاتية التشغيل خطورة أمنية واضحة، لا سيَّما على المُستهدَفين بالطبع بهذه الأسلحة (وعادة ما لا يكونون من الغرب) ولكنه يشكِّل خطورة أيضًا على أولئك الذين ينشرونها: إذ يمكن دائمًا اختراقها وتحويلها ضدهم. علاوةً على ذلك، قد يؤدي سباق التسلُّح الذي يشمل هذه الأسلحة إلى حربٍ عالمية جديدة. ولا يلزمنا أن ننظر بعيدًا في المُستقبل: فإذا كانت الطائرات دون طيار (غير المُزودة بالذكاء الاصطناعي) يُمكنها بالفعل حاليًّا السيطرة على مطارٍ كبير في لندن، فإنه ليس من الصعب تخيُّل مدى هشاشة منشآت بِنيتنا الأساسية اليومية وكيف يمكن للاستخدام المؤذي أو لاختراق الذكاء الاصطناعي أن يُسبب اضطراباتٍ جسيمة وعملياتٍ تدميريةً هائلة. لاحظ أيضًا أنه، على عكس التكنولوجيا النووية على سبيل المثال، فإن استخدام تكنولوجيا الذكاء الاصطناعي الحالية لا يتطلَّب معدَّات باهظة الثمن أو تدريبًا طويلًا؛ ومِن ثَم فالعائق أمام استخدام الذكاء الاصطناعي لأغراضٍ خبيثة مُنخفض نسبيًّا.

تُذكرنا أيضًا المشكلات العادية المتعلقة بالأمان مع السيارات ومنشآت البنية التحتية مثل المطارات بأنه على الرغم من أن بعض الأشخاص أكثر عرضةً للخطر من غيرهم، فإننا «جميعًا» مُعرَّضون للخطر في ظلِّ تقنياتٍ مثل الذكاء الاصطناعي لأننا، مع زيادة تمتُّع هذه التقنيات بالوكالة وزيادة تفويضنا لها لتأدية المزيد من المهام، نُصبح جميعًا أكثر اعتمادًا عليهم. وهناك احتمالٌ دائم أن تسير الأمور على غير ما نروم. ومن ثَم، يُمكننا القول إن المخاطر التكنولوجية الجديدة ليست مجرد مخاطر تكنولوجية، وإنما تتجاوز ذلك لتُصبح مخاطر تهدِّد وجودنا بصفتنا بشرًا (Coeckelbergh 2013). يمكن رؤية المشكلات الأخلاقية المطروحة هنا على أنها مخاطر إنسانية: فالمخاطر التكنولوجية تُهدد وجودنا كبشرٍ في نهاية المطاف. وبقدْر ما نعتمد على الذكاء الاصطناعي، وبقدْر ما يكون الذكاء الاصطناعي أكثر من مجرد أداةٍ نستخدمها؛ فإنه يُصبح جزءًا من هويتنا ومن المخاطر التي تحيق بنا في العالم.

في عالمٍ مُتصل بالشبكات، يمكن اختراق أي جهاز إلكتروني أو برنامج واختراقه والتلاعُب به من قبل أشخاص لديهم نوايا خبيثة.

كذلك يُثير تمتُّع الذكاء الاصطناعي بالوكالة الأخلاقية، لا سيما إذا كانت تحلُّ محلَّ الوكالة الأخلاقية البشرية، مشكلة أخلاقية أخرى تزداد أهميةً مع مرور الوقت: ألا وهي المسئولية. وهذا هو موضوع الفصل القادم.

جميع الحقوق محفوظة لمؤسسة هنداوي © ٢٠٢٤