الخصوصية وغيرها من القضايا
إن العديد من المشكلات الأخلاقية المُتعلقة بالذكاء الاصطناعي معروفة من مجال أخلاقيات الروبوتات والأتمتة أو، بشكلٍ أعم، من مجال أخلاقيات التكنولوجيا الرقمية وتكنولوجيا الاتصالات. ولكن هذا في حدِّ ذاته لا يُقلِّل من أهميتها. وعلاوةً على ذلك، فإن هذه القضايا — بسبب التكنولوجيا وطريقة ارتباطها بتقنياتٍ أخرى — تكتسب بُعدًا جديدًا وتُصبح أكثر أهمية وإلحاحًا.
الخصوصية وحماية البيانات
فلنُفكر، على سبيل المثال، في مسألة الخصوصية وحماية البيانات. ينطوي الذكاء الاصطناعي، ولا سيما تطبيقات تعلُّم الآلة التي تتعامَل مع البيانات الضخمة، غالبًا على جمع المعلومات الشخصية واستخدامها. ويُمكن أيضًا استخدام الذكاء الاصطناعي للمُراقبة، في الشارع وأيضًا في مكان العمل وفي كل مكان، وذلك من خلال الهواتف الذكية ووسائل التواصُل الاجتماعي. وفي كثيرٍ من الأحيان، لا يعلم الناس حتى أن البيانات تُجمَع، أو أن البيانات التي قدموها في سياقٍ ما تُستخدَم بواسطة أطراف أخرى في سياقٍ آخر. كما أن البيانات الضخمة غالبًا ما تَعني أن (مجموعات) البيانات التي تحصل عليها المنظمات المختلفة يتم دمجها معًا.
يتطلَّب الاستخدام الأخلاقي للذكاء الاصطناعي جمع البيانات ومعالجتها ومشاركتها بطريقةٍ تحترم خصوصية الأفراد وحقَّهم في معرفة ما يحدث لبياناتهم، والوصول إلى بياناتهم، والاعتراض على جمع بياناتِهم أو على مُعالجتها، ومعرفة أن بياناتهم تُجمع وتُعالج وأنهم بعدئذٍ يخضعون لقراراتٍ يتخذها الذكاء الاصطناعي (في حالة حدوث ذلك بالفعل). وتُثار العديد من هذه القضايا أيضًا في سياقات تكنولوجيا المعلومات وتكنولوجيا الاتصالات الأخرى، وكما سنرى فيما بعدُ في هذا الفصل، تعتبر الشفافية شرطًا مُهمًّا أيضًا في تلك الحالات (انظر لاحقًا في هذا الفصل). كما تُثار قضايا حماية البيانات في أخلاقيات البحث، على سبيل المثال، في أخلاقيات جمع البيانات لأبحاث العلوم الاجتماعية.
ومع ذلك، عند النظر إلى السياقات التي يُستخدَم فيها الذكاء الاصطناعي اليوم، تُصبح قضايا الخصوصية وحماية البيانات أكثر تعقيدًا. فإن احترام هذه القِيَم والحقوق يكون سهلًا إلى حدٍّ ما عند إجراء استبيانٍ كعالِم اجتماع: إذ يمكن للباحث إبلاغ المشاركين في الاستبيان وطلب موافقتهم بشكلٍ صريح، ومِن ثَم سيكون من المعروف نسبيًّا ما سيحدث للبيانات. ولكن البيئة التي يُستخدَم فيها الذكاء الاصطناعي وعلم البيانات اليوم عادةً ما تكون مختلفةً تمامًا. فلنتناول مثلًا وسائل التواصل الاجتماعي: على الرغم من معلومات الخصوصية والتطبيقات التي تطلُب من المُستخدِمين الموافقة، فإن المُستخدِمين لا يعرفون بوضوح ما يحدُث لبياناتهم أو حتى أي بيانات يتم جمعها؛ وإذا كانوا يرغبون في استخدام التطبيق والاستمتاع بفوائده، فعليهم أن يوافقوا. وفي كثيرٍ من الأحيان، لا يعلم المُستخدمون حتى أن الذكاء الاصطناعي يُشغِّل التطبيق الذي يستخدمونه. وغالبًا ما تُنقَل البيانات المُعطاة في سياقٍ ما إلى نطاقٍ آخَر واستخدامها لأغراض مختلفة (إعادة استخدام البيانات في أغراضٍ أخرى)، على سبيل المثال، عندما تبيع الشركات بياناتها إلى شركات أخرى أو تنقل البيانات بين أجزاءٍ مختلفة من نفس الشركة دون عِلم المستخدِمين بهذا.
التلاعُب والاستغلال والمُستخدِمين المُستهدفين
قد يؤدي الذكاء الاصطناعي إلى أشكالٍ جديدة من التلاعُب والمراقبة والاستبداد، ليس بالضرورة في شكل سياساتٍ استبدادية ولكن بطريقةٍ أكثر خفاءً وفعالية.
الأخبار الكاذبة، وخطر الشمولية، وتأثيرها على العلاقات الشخصية
ومع ذلك، حتى في اليوتوبيا الليبرالية قد لا تكون الحياة غاية في الإشراق والبهاء. إذ إن المعلومات الكاذبة تنخر في جدار الثقة ومن ثَم تفسد النسيج الاجتماعي. ويُمكن أن يؤدي الاستخدام المُفرط للتكنولوجيا إلى تقليل التواصُل، أو على الأقل التواصل الهادف، بين الأفراد. في عام ٢٠١١، قدمت شيري تيركل ادعاءً يتعلق بالتكنولوجيا مثل أجهزة الكمبيوتر والروبوتات: لقد انتهى بنا الأمر إلى توقُّع المزيد من التكنولوجيا، والقليل من أنفسنا. ويمكن أيضًا استخدام هذه الحجَّة فيما يتعلق بالذكاء الاصطناعي: تكمُن المشكلة في أن الذكاء الاصطناعي، في شكل وسائل التواصل الاجتماعي أو في شكل «الرفاق» الرقميين، يُعطينا وهْم الرفقة ولكنه يُزعزع استقرار العلاقات الحقيقية مع الأصدقاء والأحباء والعائلات. وعلى الرغم من أن هذه المشكلة كانت موجودةً بالفعل قبل الذكاء الاصطناعي وتزداد تفاقمًا مع ظهور كل وسيطٍ جديد من الوسائط (قراءة الصحف أو مشاهدة التلفيزيون بدلًا من التحدُّث وإدارة حوار)، فإنه يمكن القول إن التكنولوجيا الآن، في وجود الذكاء الاصطناعي وتطبيقه، قد أصبحت أفضل بكثيرٍ في خلق وهْم الرفقة، وأن هذا يزيد من خطر الوحدة أو تدهور العلاقات الشخصية.
السلامة والأمان
هناك أيضًا مخاطر أوضح. فالذكاء الاصطناعي، لا سيَّما في حال تضمينه في أنظمة الأجهزة التي تعمل في العالَم الفعلي، يحتاج أيضًا إلى أن يكون آمنًا. ولنضرب مثلًا على ذلك بالروبوتات الصناعية: يفترض ألا تُلحِق هذه الروبوتات الأذى بالعمال. ومع ذلك، تحدث أحيانًا حوادث في المصانع. ويمكن للروبوتات أن تقتُل، حتى لو كان ذلك نادرًا نسبيًّا. ومع ذلك، في الروبوتات التي تعتمِد على الذكاء الاصطناعي، تُصبح مشكلة السلامة أكثر تحدِّيًا: فهذه الروبوتات قد تتمكَّن من العمل جنبًا إلى جنبٍ مع البشر، وقد تتمكَّن من تجنُّب إلحاق الأذى بالبشر «على نحوٍ ذكي». ولكن ماذا يعني ذلك بالضبط؟ هل يجب أن تتحرك ببطءٍ أكبر عندما تكون قريبةً من البشر، مما يُبطئ العملية، أم أنه من المقبول التحرك بسرعةٍ عالية من أجل إنجاز العمل بكفاءة وسرعة؟ هناك دائمًا احتمالات لحدوث خطأ من نوع ما. فهل يجب أن تنطوي أخلاقيات السلامة على الوصول إلى حلول وسط؟ تُثير الروبوتات المدعومة بالذكاء الاصطناعي في بيئة المنزل أو في الأماكن العامة أيضًا قضايا تتعلَّق بالسلامة. على سبيل المثال، هل يجب على الروبوت دائمًا تجنُّب الاصطدام بالبشر أم أنه من المقبول أحيانًا أن يُعرقل الروبوت شخصًا من أجل الوصول إلى هدفه؟ هذه ليست مسائل تقنية بحتة ولكن لها جانب أخلاقي: إنها مسألة حياة بشرية وقِيَم مثل الحرية والكفاءة. كما أنها تُثير مشكلاتٍ تتعلَّق بالمسئولية (سنتحدث عن هذا بتفصيل أكثر لاحقًا).
ثمَّة مشكلة أخرى كانت موجودة بالفعل قبل ظهور الذكاء الاصطناعي في المشهد، ولكنها تستحقُّ تجديد اهتمامنا بها؛ ألا وهي مشكلة الأمان. في عالم مُتصل بالشبكات، يمكن اختراق أي جهاز إلكتروني أو برنامج واختراقه والتلاعُب به من قبل أشخاص لديهم نوايا خبيثة. فكلُّنا نعلم بشأن فيروسات الكمبيوتر، على سبيل المثال، التي يمكن أن تُخرِّب جهاز الكمبيوتر الخاص بك. ولكن عند تزويد أجهزتنا وبرامجنا بالذكاء الاصطناعي، يمكن أن تزيد إمكانياتها وقدراتها، وعندما تحظى بوكالةٍ أخلاقية أكبر ويكون لهذا عواقب مادية في العالم الفعلي، تُصبح مشكلة الأمان أكبر بكثير. على سبيل المثال، إذا اختُرقَت سيارتك الذاتية القيادة التي تعمل بالذكاء الاصطناعي، فسوف تُعاني مما هو أكثر من مجرد «مشكلة في الكمبيوتر» أو «مشكلة في البرنامج»؛ قد تلقى حتفك. وإذا اختُرِق برنامج إحدى البَنى التحتية المهمة (مثل الإنترنت، أو المياه، أو الطاقة … إلخ) أو جهاز عسكري ذي قدراتٍ مدمرة، فمن المرجَّح أن يتعرض المجتمع بأكمله إلى اضطرابٍ كبير وسوف يتعرض الكثير من الأشخاص للضرر. في التطبيقات العسكرية، يشكِّل استخدام الأسلحة الفتاكة الذاتية التشغيل خطورة أمنية واضحة، لا سيَّما على المُستهدَفين بالطبع بهذه الأسلحة (وعادة ما لا يكونون من الغرب) ولكنه يشكِّل خطورة أيضًا على أولئك الذين ينشرونها: إذ يمكن دائمًا اختراقها وتحويلها ضدهم. علاوةً على ذلك، قد يؤدي سباق التسلُّح الذي يشمل هذه الأسلحة إلى حربٍ عالمية جديدة. ولا يلزمنا أن ننظر بعيدًا في المُستقبل: فإذا كانت الطائرات دون طيار (غير المُزودة بالذكاء الاصطناعي) يُمكنها بالفعل حاليًّا السيطرة على مطارٍ كبير في لندن، فإنه ليس من الصعب تخيُّل مدى هشاشة منشآت بِنيتنا الأساسية اليومية وكيف يمكن للاستخدام المؤذي أو لاختراق الذكاء الاصطناعي أن يُسبب اضطراباتٍ جسيمة وعملياتٍ تدميريةً هائلة. لاحظ أيضًا أنه، على عكس التكنولوجيا النووية على سبيل المثال، فإن استخدام تكنولوجيا الذكاء الاصطناعي الحالية لا يتطلَّب معدَّات باهظة الثمن أو تدريبًا طويلًا؛ ومِن ثَم فالعائق أمام استخدام الذكاء الاصطناعي لأغراضٍ خبيثة مُنخفض نسبيًّا.
في عالمٍ مُتصل بالشبكات، يمكن اختراق أي جهاز إلكتروني أو برنامج واختراقه والتلاعُب به من قبل أشخاص لديهم نوايا خبيثة.
كذلك يُثير تمتُّع الذكاء الاصطناعي بالوكالة الأخلاقية، لا سيما إذا كانت تحلُّ محلَّ الوكالة الأخلاقية البشرية، مشكلة أخلاقية أخرى تزداد أهميةً مع مرور الوقت: ألا وهي المسئولية. وهذا هو موضوع الفصل القادم.