الفصل السادس
الخصوصية والأخلاقيات
اليوم يُعَد أكبر مجهول يواجِه علم البيانات هو كيف
ستختار المجتمعات الإجابة عن نسخة جديدة من السؤال
القديم المتعلق بكيفية تحقيق التوازن الأمثل بين
حريَّات وخصوصية الأفراد والأقليات من ناحية والحفاظ
على أمن المجتمع ومصالِحه من ناحية أخرى. وفي سياق
مُتصل بعلم البيانات، تعاد صياغة هذا السؤال القديم على
النحو التالي: ما الذي نعتبره، كمجتمع، طرقًا معقولة
لجمع واستخدام البيانات الخاصة بالأفراد في سياقاتٍ
متنوعة مثل مكافحة الإرهاب، وتحسين العلاج الدوائي،
ودعم أبحاث السياسات العامة، ومكافحة الجريمة، واكتشاف
الاحتيال، وتقييم مخاطر الائتمان، وتقييم المخاطر
التأمينية، وتوجيه الإعلانات للمجموعات
المستهدفة؟
ويَعِد علم البيانات بأن يقدم طريقةً لفهم العالم من
خلال البيانات. وفي عصر البيانات الضخمة الحالي، هذا
الوعد مُغرٍ للغاية، وبالطبع، يمكن الاستعانة بعددٍ من
الحجج لدعم تطوير التقنيات والبنية التحتية القائمة على
البيانات واستخدامها. وترتبط إحدى الحجج الشائعة بتحسين
الكفاءة والفعالية والتنافُسية؛ وهي حجة يدعمها بعض
الأبحاث الأكاديمية في سياق العمل التجاري على الأقل.
على سبيل المثال، أظهرت دراسة شملت ١٧٩ شركة كبيرة
مطروحةً للتداول العام في عام ٢٠١١ أنه كلما كان اتخاذ
قرارات الشركة معتمدًا على البيانات، أصبحت الشركة أكثر
إنتاجية؛ إذ جاء فيها: «وجدنا أن الشركات التي تبنَّت
اتخاذ القرارات بناءً على البيانات تزيد مخرجاتها
وإنتاجيتها بنسبة ٥–٦ بالمائة عما هو متوقَّع في ضوء
استثماراتها الأخرى واستخدام تكنولوجيا المعلومات»
(Brynjolfsson, Hitt, and Kim 2011,
1).
وثمة حجة أخرى للاعتماد المتزايد على تقنيات وممارسات
علم البيانات وتتعلق بإضفاء الطابع الأمني على كل شيء.
لفترة طويلة، استعانت الحكومات بحجة أن المراقبة تُحسن
مستوى الأمن. ومنذ الهجمات الإرهابية التي وقعت في
الحادي عشر من سبتمبر ٢٠٠١ بالولايات المتحدة، ومع كل
هجمةٍ إرهابية تالية في مختلف أنحاء العالم، لاقت الحجة
رواجًا شعبيًّا أكثر. بالطبع، كثيرًا ما استخدمت في
النقاش العام الذي أُثير بسبب اعترافات إدوارد سنودن عن
برنامج المراقبة «بريسم» التابع لوكالة الأمن القومي
الأمريكية والبيانات التي تُجمع بصفةٍ دورية عن
المواطنين الأمريكيِّين. ومثال صارخ على قوة هذه الحجة
هو إنفاق الوكالة ١٫٧ مليار دولار على مركز بيانات في
مدينة بلوفديل بولاية يوتا يتمتع بقدرةٍ على تخزين
كمياتٍ هائلة من المكالمات الخاضعة للمراقبة
(Carroll
2013).
غير أنه في الوقت نفسه، تجاهد المجتمعات والحكومات
والشركات من أجل فهم الآثار الطويلة الأمد لعلم
البيانات في عالم البيانات الضخمة. وفي ضوء التطور
السريع لتقنيات جمع البيانات وتخزينها وتحليلها، ليس من
المستغرَب أن تحدث تغيرات سريعة أيضًا في الأطر
القانونية المعمول بها وفي النقاشات الأخلاقية الأوسع
نطاقًا حول البيانات، لا سيما مسألة خصوصية الأفراد.
وعلى الرغم من ذلك، فإن من المهم فهم المبادئ القانونية
الأساسية التي تحكُم جمع البيانات واستخدامها. بالإضافة
إلى ذلك، سلَّط النقاش الأخلاقي حول استخدام البيانات
والخصوصية الضوءَ على التوجهات المهمة التي ينبغي لنا
أن نعيها كأفرادٍ ومواطنين.
المصالح التجارية في مقابل خصوصية
الأفراد
يمكن النظر إلى علم البيانات في إطار أنه يجعل
العالم مكانًا أكثر ثراءً وأمنًا للعيش فيه. إلا
أنه يمكن استخدام هذه الحجج نفسها من جانب المنظمات
المختلفة التي لدَيها أجندات مختلفة. على سبيل
المثال، قارن دعوات الجماعات المؤيدة للحريات
المدنية المنادية بأن تكون الحكومة أكثر انفتاحًا
وشفافية في جمع البيانات واستخدامها وإتاحتها على
أمَل تمكين المواطنين من محاسبة هذه الحكومات،
بالدعوات المماثلة من جانب أوساط الشركات التجارية
التي تأمُل في استخدام هذه البيانات لزيادة أرباحها
(Kitchin
2014a). في الواقع، يُعَد علم
البيانات سلاحًا ذا حدَّين. يمكن استخدامه لتحسين
جودة حياتنا من خلال جعل الحكومة أكثر كفاءة
والأدوية أكثر فعاليةً والرعاية الطبية أكثر جودة،
والتأمين أقل تكلفة والمدن أكثر ذكاء من خلال تقليل
معدلات الجريمة وما إلى ذلك. وفي الوقت نفسه، يمكن
استخدامه أيضًا للتجسُّس على حياتنا الشخصية
ولاستهدافنا بإعلاناتٍ غير مرغوبة والتحكم في
سلوكياتنا سرًّا وعلانية على حدٍّ سواء (إذ يمكن
للخوف من المراقبة أن يؤثر علينا بقدْر ما تؤثر
علينا المراقبة نفسها).
كثيرًا ما تظهر الجوانب المتناقضة الخاصة بعلم
البيانات في التطبيقات نفسها. على سبيل المثال،
ترتكز الاستعانة بعلم البيانات في تعهُّد تغطية
التأمين الصحي على مجموعات البيانات التسويقية
الخاصة بأطرافٍ خارجية والتي تحتوي على معلوماتٍ
مثل العادات الشرائية وسجلِّ البحث عبر الإنترنت،
بالإضافة إلى مئات السمات الأخرى المتعلقة بنمط
حياة الأفراد (Batty, Tripathi,
Kroll, et al. 2010). واستغلال
بيانات الأطراف الخارجية هو أمر مُزعج لأنه ربما
يقيد حرية الناس؛ حيث يتجنَّب الناس أنشطةً معينة
مثل زيارة مواقع الرياضات الخطيرة، خوفًا من تكبُّد
أقساط تأمينية أعلى من جراء تعقب نشاط تصفُّح الفرد
للمواقع الإلكترونية
(Mayer-Schönberger and Cukier
2014). ومع ذلك، فإنَّ مُبرر
استخدام هذه البيانات هو أنها تقوم بديلًا لمصادر
المعلومات الأكثر شمولًا وتكلفة مثل فحوصات الدم،
وعلى المدى الطويل ستُقلل التكاليف والأقساط
وبالتالي تزيد من عدد الأشخاص المشتركين في خدمات
التأمين الصحي (Batty, Tripathi,
Kroll, et al. 2010).
يُعَد استخدام البيانات الشخصية في التسويق
الموجَّه مثالًا واضحًا على الصدام ما بين المصالح
التجارية والاعتبارات الأخلاقية في علم البيانات.
فمن منظور الإعلانات التجارية، الحافز وراء استخدام
البيانات الشخصية هو وجود علاقة بين التسويق
والخدمات والمنتجات المصمَّمة خصوصًا من جانب،
وفعالية التسويق من جانب آخر. ولقد تبيَّن أن
استغلال البيانات الشخصية المتاحة على شبكات
التواصل الاجتماعي — مثل تحديد العملاء الذين على
صلةٍ بعملاء سابقين — يزيد كفاءة حملة التسويق عبر
رسائل البريد الإلكتروني المباشرة لخدمات التواصل
عن بُعد من ثلاث إلى خمس مراتٍ مقارنة بالمناهج
التسويقية التقليدية (
Hill,
Provost, and Volinsky 2006).
وثمة ادِّعاءات مُماثلة حول فعالية تخصيص التسويق
عبر الإنترنت بالاستعانة بالبيانات الشخصية للعميل.
على سبيل المثال، قارنَت دراسة حول تكلفة وفعالية
الإعلانات الموجهة في الولايات المتحدة في عام ٢٠١٠
بين التسويق العشوائي عبر الإنترنت (عند إطلاق حملة
إعلانات عبر مجموعة من المواقع الإلكترونية دون
استهداف عملاء مُعينين أو مواقع مُعينة)
و«الاستهداف السلوكي»
1 (
Beales
2010). وجدت الدراسة أن
التسويق السلوكي كان أكثر تكلفة (ﺑ ٢٫٦٨ مرة) ولكنه
أكفأ، مقرونًا بزيادة معدل التحويل (يقيس معدل
التحويل مدى تحوُّل التصفُّح السلبي إلى إجراءات
يتخذها العملاء على المواقع الإلكترونية) بأكثر من
الضعف مقارنةً بالتسويق العشوائي عبر الإنترنت.
أجرى باحثون من جامعة تورونتو ومعهد ماساتشوستس
للتكنولوجيا دراسةً شهيرة أخرى عن فعالية الإعلانات
عبر الإنترنت المَبنية على البيانات
(
Goldfarb and Tucker
2011). واستعانوا بسنِّ مشروع
قانون حماية الخصوصية في الاتحاد الأوروبي
2 الذي حدَّ من قدرة شركات الإعلانات على
تعقُّب سلوك المستخدِمين عبر الإنترنت في المقارنة
بين فعالية الإعلانات عبر الإنترنت في ظل القيود
الجديدة (داخل الاتحاد الأوروبي) وفعالية الإعلانات
عبر الإنترنت في ظلِّ غياب القيود الجديدة (في
الولايات المتحدة وغيرها من الدول غير الأعضاء
بالاتحاد الأوروبي). ووجدت الدراسة أن الإعلانات
عبر الإنترنت كانت أقلَّ كفاءة بدرجةٍ كبيرة في ظل
القيود الجديدة، مع تسجيل انخفاضٍ بنسبة ٦٥ بالمائة
في نية شراء المشاركين في الدراسة. كانت نتائج هذه
الدراسة محلَّ جدال (انظر، على سبيل المثال،
Mayer and Mitchell
2012)، إلا أن الدراسة
استُخدِمت لدعم الحجة القائلة بأنه كلما زادت كمية
البيانات المتاحة عن الشخص، زادت فعالية الإعلانات
الموجهة إلى ذلك الشخص. ويرى مؤيدو التسويق
الموجَّه المبني على البيانات أن هذا النوع من
التسويق مُربح لشركات الدعاية والإعلان وللعملاء
على حدٍّ سواء، زعمًا بأن شركات الدعاية والإعلان
تُقلل تكاليف التسويق من خلال الحدِّ من الإعلانات
المهدرة وتُحقق معدلاتِ تحويلٍ أعلى، وأن العملاء
يتلقَّون المزيد من الإعلانات ذاتِ الصِّلة
باهتماماتهم.
في أحسن الأحوال، يستند هذا المنظور المثالي
لاستخدام البيانات الشخصية من أجل التسويق الموجَّه
على فَهم انتقائي للمشكلة. وربما واحدةٌ من أكثر
القصص المقلقة المتعلقة بالإعلانات الموجهة جاءت في
صحيفة «نيويورك تايمز» في عام ٢٠١٢ وتضمَّنت متجر
تارجت للبيع بالتجزئة بأسعارٍ مخفَّضة
(
Duhigg 2012).
من المعروف جيدًا في مجال التسويق أن الحمْل
والإنجاب يُمثلان إحدى الفترات في حياة المرء التي
تتغير فيها عادات التسوق لدَيه تغييرًا جذريًّا.
ونظرًا إلى هذا التغيير الجذري، يرى المسوِّقون أن
الحمْل فرصة لتغيير عادات التسوق لدى شخصٍ وتغيير
ولائه للعلامات التجارية، والكثير من متاجر البيع
بالتجزئة تستعين بسجلات المواليد المتاحة للجماهير
لتشجيع التسويق المصمَّم خصوصًا للآباء الجدد، من
خلال إرسال عروض متعلقة بمنتجات الأطفال الرُّضَّع.
ومن أجل الحصول على ميزة تنافسية، أراد متجر تارجت
تحديد العميلات اللاتي في مرحلةٍ مبكرة من الحمل
(مِثاليٌّ أثناء الثلث الثاني من الحمل) حتى لو لم
تقُل العميلة إنها حامل.
3 وهذه الفكرة مكَّنت متجر تارجت من أن
يبدأ في التسويق المخصص للعميلات قبل أن تعرف متاجر
البيع بالتجزئة الأخرى أن هذه العميلة تنتظِر طفلًا
عما قريب. ومن أجل تحقيق هذا الهدف، أطلق متجر
تارجت مشروعًا قائمًا على علم البيانات بهدف التنبؤ
بما إذا كانت العميلة حاملًا بناءً على تحليل عادات
التسوق لدَيها. وكانت نقطة الانطلاق للمشروع هو
تحليل عادات التسوق لدى النساء اللاتي سجلنَ في
دفتر «هدايا المولود الجديد» على موقع متجر تارجت.
وكشفَ التحليل أن الأمَّهات الحوامل يمِلنَ إلى
شراء كمياتٍ أكبر من كريم الجلد عديم الرائحة في
بداية الثلث الثاني من الحمل وكذلك مُكملات غذائية
مُعينة خلال أول ٢٠ أسبوعًا من الحمل. وبناءً على
هذا التحليل، أنشأ متجر تارجت نموذجًا مَبنيًّا على
البيانات استعان ﺑ ٢٥ منتجًا ومؤشرًا وأعطى درجةً
لكلِّ عميلة تتعلق «بالتنبؤ بالحمل». وكان «نجاح»
هذا النموذج جليًّا جدًّا عندما ذهب رجل إلى متجر
تارجت ليشتكي من حقيقة أن ابنته المراهقة الطالبة
في مرحلة التعليم الثانوي استقبلت كوبونات ملابس
أطفال وأسِرَّة لحديثي الولادة على بريدها
الإلكتروني. واتَّهم الرجل متجر تارجت بمحاولة
تشجيع ابنته على الحمل. ومع ذلك، وعلى مدار الأيام
التالية، تبيَّن أن ابنة الرجل في الواقع كانت
حامِلًا؛ ولكنها لم تُخبر أحدًا. هكذا، كان نموذج
التنبؤ بالحمل الخاص بمتجر تارجت قادرًا على تحديد
طالبةٍ في المرحلة الثانوية حامل والتصرُّف بناء
على هذه المعلومة قبل أن تُخبر هي حتى
أُسرتها.
التداعيات الأخلاقية لعلم البيانات: الملف
التعريفي والتمييز
تُلقي قصة اكتشاف متجر تارجت حمل طالبةٍ في
المرحلة الثانوية، دون رضاها عن الإعلان عن حملِها،
الضوءَ على كيف يمكن استخدام علم البيانات في إنشاء
ملفِّ تعريفٍ اجتماعي، ليس فقط للأفراد وإنما أيضًا
للأقليَّات في المجتمع. وفي كتاب بعنوان «شخصيتك
اليومية: كيف تُحدد صناعة الإعلانات الجديدة هويتك
وجدارتك» (٢٠١٣)، يناقش جوزيف تورو كيف يستعين
المسوقون بملفِّ التعريف الرقمي لتصنيف الأشخاص إما
ﮐ «أهداف» أو «عناصر غير مُجدية» ثم يستعينون بهذه
الفئات لإضفاء الطابع الشخصي على العروض والإعلانات
الدعائية الموجهة إلى العملاء الأفراد: «أولئك
المصنَّفون كعناصر غير مُجدية تُتجاهَل أو تُوجَّه
إلى منتجاتٍ أخرى يرى المسوقون أنها ذات صِلة أكثر
بأذواقهم أو دخلهم» (١١). قد يسفر إضفاء الطابع
الشخصي هذا عن معاملةٍ تفضيلية لبعض العملاء وعن
تهميش آخرين. ومن الأمثلة الواضحة على هذا التمييز
التسعير التفاضُلي على المواقع الإلكترونية، حيث
تُفرَض تكلفةٌ على بعض العملاء أكثر منها على عملاء
آخرين لنفس المنتج بناءً على ملفات التعريف الشخصية
الخاصة بالعملاء (Clifford
2012).
قد يسفر إضفاء الطابع الشخصي هذا عن معاملة
تفضيلية لبعض العملاء وعن تهميش آخرين.
يُنشأ هذه الملفات التعريفية بواسطة البيانات
المجمَّعة من عددٍ من مصادر البيانات المشوَّشة
والمتحيزة المختلفة، وبالتالي قد تكون هذه الملفات
التعريفية عادةً مُضللة عن فردٍ ما. والأسوأ من ذلك
هو أن هذه الملفات التعريفية التسويقية تُعامَل
معاملة المنتجات وكثيرًا ما تُباع إلى الشركات
الأخرى، مما يسفر عن أنَّ التقييم التسويقي السلبي
للفرد يلاحِق ذلك الفرد عبر العديد من المجالات.
لقد ناقشنا بالفعل استغلال مجموعة البيانات
التسويقية في تعهُّد تغطية التأمين الصحي
(Batty, Tripathi, Kroll, et
al. 2010)، ولكن هذه الملفات
التعريفية قد تشقُّ طريقها أيضًا نحو تقييمِ مَخاطر
الائتمان والكثير من عمليات اتخاذ القرار الأخرى
التي تؤثر على حياة الأشخاص. وثمة جانبان لهذه
الملفَّات التعريفية التسويقية يجعلانها إشكاليةً
على نحوٍ خاص. أولًا: إنها صندوق أسود في حدِّ
ذاتها، وثانيًا إنها لا تتغيَّر. تتَّضح طبيعة
الملفات التعريفية الغامضة كالصندوق الأسود عندما
يفكر المرء كم أنه من الصعب على الفرد أن يعرف
ماهية البيانات المسجلَّة عنه وأين ومتى سُجِّلت،
وآلية عمل عمليات اتخاذ القرار التي تستخدِمها.
ونتيجة لذلك، إذا انتهى المطاف بالفرد ليُصبح على
قائمة الممنوعين من السفر أو على القائمة السوداء
للائتمان، ﻓ «من الصعب تحديد أسباب التمييز
والتصدِّي لها» (Kitchin 2014a,
177). علاوة على ذلك، في
العالم الحديث عادةً ما تُخزَّن البيانات لوقت
طويل. ومن ثم، فإن البيانات المسجلة عن حدثٍ ما في
حياة الفرد تدوم فترة طويلة بعد الحدث. وكما حذَّر
تورو: «إن تحويل ملفات التعريف الفردية إلى
تقييماتٍ فردية هو ما يحدث عندما يصير الملف
التعريفي أشبه بسمعةٍ للفرد» (٢٠١٣، ٦).
علاوة على ذلك، قد يؤدي علم البيانات في الواقع
إلى استدامة التحيُّز وتعزيزه، ما لم يُستخدم بحرصٍ
شديد. وأحيانًا يُقال إن علم البيانات موضوعي؛ أي
أنه يستند إلى الأرقام، وبالتالي فإنه لا يُشفَّر
أو يملك آراء متحيزة تؤثر على قرارات البشر.
والحقيقة أن خوارزميات علم البيانات تعمل بطريقةٍ
لا أخلاقية أكثر من كونها طريقة موضوعية. يستخرج
علم البيانات أنماطًا في البيانات؛ ومع ذلك، إذا
قامت البيانات بتشفير علاقة مُتحيزة في المجتمع،
فمن المرجَّح أن تُحدِّد الخوارزمية هذا النمط
وتستنِد مخرجاتها إلى النمط نفسه. وبالتأكيد، كلما
كان التحيُّز أكثر ثباتًا في مجتمعٍ ما، ظهر ذلك
النمط التحيُّزي في البيانات عن ذلك المجتمع، وزادت
احتمالية أن تستخرج خوارزمية علم البيانات ذلك
النمط الخاص بالتحيُّز وتُكرره. على سبيل المثال،
وجدَت دراسة أجراها باحثون أكاديميون على نظام
الإعلانات عبر الإنترنت من جوجل أن النظام يُظهر
الإعلانات المتعلقة بالوظائف ذات الأجور المرتفعة
على نحوٍ أكثر تواترًا للمشاركين الذين يُبين
الملفُّ التعريفي الخاص بهم على جوجل أنهم ذكور
مقارنةً بأولئك الذين يُظهر ملفُّهم التعريفي أنهم
إناث (Datta, Tschantz, and Datta
2015).
وحقيقة أن خوارزميات علم البيانات يمكن أن تُعزز
التحيز هو أمر مُزعج على نحو خاص عند تطبيق علم
البيانات في مجال حفظ الأمن والنظام العام. تُعَد
برامج «التنبؤ بالجرائم»، أو ما يُعرف ﺑ
PredPol،
4 أداة خاصة بعلم البيانات مُصمَّمة
للتنبؤ بالموعد والمكان المرجَّح لحدوث جريمة. وعند
نشر تطبيق هذه البرامج على مدينةٍ ما، تُولِّد
تقريرًا يوميًّا يسرد قائمةً بعددٍ من البؤر
الإجرامية على خريطة (مناطق صغيرة ٥٠٠ قدم في ٥٠٠
قدم) حيث يعتقد النظام أن من المرجح حدوث جرائم في
هذه البؤر ويوزع دوريات شرطة عليها في الأوقات التي
يعتقد النظام أن الجريمة ستقع فيها. استعانت أقسام
الشرطة في كلٍّ من الولايات المتحدة والمملكة
المتحدة بهذه الأداة. الفكرة وراء هذا النوع من
نظام المراقبة الذكية هو أنه يمكن استغلال موارد
الشرطة بفعالية. من الناحية الظاهرية، يبدو هذا
تطبيقًا مهمًّا لعلم البيانات، فهو يسفر عن
استهدافٍ فعَّال للجريمة وتقليل تكاليف حفظ الأمن
والنظام. ومع ذلك، أُثيرت شكوك حول دقَّة برنامج
«التنبؤ بالجرائم» وفعالية مبادرات حفظ النظام
بواسطة برامج التنبؤ المماثلة (هانت، وسوندرز،
وهوليوود ٢٠١٤؛ فريق عمل أوكلاند برايفيسي ٢٠١٥؛
هاركنيس ٢٠١٦). ولقد لوحظ أيضًا إمكانية استخدام
هذه الأنواع من الأنظمة لتشفير ملفَّات تعريفٍ
تنطوي على تمييزٍ عرقي أو طبقي في أعمال المراقبة
وحفظ النظام (
Baldridge
2015). قد يؤدي نشر عناصر
الشرطة بناءً على البيانات القديمة إلى حضور أعلى
للشرطة في مناطق مُعينة — عادة المناطق الأقل حظًّا
من الناحية الاقتصادية — مما يؤدي بدوره إلى ارتفاع
مستويات الجريمة المسجَّلة في هذه المناطق. بعبارة
أخرى، يُصبح التنبؤ بالجرائم نبوءةً ذاتية التحقق.
ونتيجة هذه الحلقة المفرغة أن بعض الأماكن ستكون
مستهدفةً على نحوٍ غير متكافئ لمراقبة الشرطة مما
يتسبَّب في انهيار الثقة بين الأشخاص الذين يعيشون
في تلك المجتمعات المحلية وبين المؤسسات الأمنية
(
Harkness
2016).
في الواقع، قد يؤدي علم البيانات إلى استدامة
التحيُّز وتعزيزه، ما لم يُستخدم بحرصٍ
شديد.
مثال آخر على حفظ الأمن القائم على البيانات هو
برنامج «قائمة الخاضعين للمراقبة الاستراتيجية»
الذي تستعين به إدارة شرطة شيكاغو في محاولة منها
للحدِّ من جرائم السلاح. أنشئت القائمة لأول مرة في
عام ٢٠١٣، وفي تلك الفترة ضمت القائمة ٤٢٦ شخصًا
قُدِّر أنهم مُعرضون بشدة لارتكاب أو الوقوع ضحية
للعنف المسلح. وفي محاولة للتصدي للجرائم المسلحة
على نحوٍ استباقي، تواصلت إدارة شرطة شيكاغو مع
جميع الأشخاص الوارد ذكرهم في القائمة لتحذيرهم من
أنهم خاضعون للمراقبة. فوجئ بعض الأشخاص بشدَّةٍ من
وجودهم في القائمة لأنه على الرغم من أن لديهم
صحيفة جنائية لارتكابهم جُنحًا؛ فإنه لم تُسجَّل في
صحيفتهم الجنائية أية جرائم عُنف مسلَّح
(Gorner 2013).
أحد الأسئلة التي يجب طرحُها حول هذا النوع من جمع
البيانات للتصدي للجرائم هو: إلى أي مدى تكون
التكنولوجيا دقيقة؟ وجدت دراسة حديثة أن الأشخاص
المذكورين في قائمة الخاضعين للمراقبة الاستراتيجية
لعام ٢٠١٣ «لم يكن من المرجَّح وقوعهم ضحية لجريمة
القتل أو تعرضهم لإطلاق نار على نحوٍ أكثر أو أقل
من مجموعة الضبط» (Saunders, Hunt,
and Hollywood 2016). ومع ذلك،
وجدت هذه الدراسة أيضًا أن الأفراد المذكورين في
القائمة كانوا أكثر عرضةً للاعتقال بتهمة ارتكاب
حوادث إطلاق النار، رغم أنها أشارت إلى أن هذه
الاحتمالية الأكبر قد تعود إلى حقيقة أن هؤلاء
الأفراد موجودون في القائمة، الأمر الذي أدَّى إلى
زيادة وعي ضبَّاط الشرطة بهؤلاء الأفراد
(Saunders, Hunt, and Hollywood
2016). واستجابة إلى هذه
الدراسة، صرَّحت إدارة شرطة شيكاغو أنها تحدِّث
الخوارزمية المستخدَمة لإعداد قائمة الخاضعين
للمراقبة الاستراتيجية بانتظامٍ وأن فعالية القائمة
قد زادت منذ عام ٢٠١٣ (Rhee
2016). وثمة سؤال آخر عن قوائم
مكافحة الجريمة المَبنية على البيانات وهو: كيف
ينتهي الأمر بوجود الفرد على هذه القائمة؟ ويبدو أن
نسخة ٢٠١٣ من قائمة الخاضعين للمراقبة الاستراتيجية
قد جُمِعت باستخدام تحليل الشبكة الاجتماعية الخاصة
بالفرد، بما في ذلك تاريخ حوادث اعتقال أحد معارف
هذا الفرد وحوادث إطلاق النار التي تورَّطوا بها،
وهذا من بين سماتٍ أخرى للفرد
(Dokoupil 2013; Gorner
2013). ومن ناحية أخرى، يبدو
من المنطقي استخدام تحليل الشبكة الاجتماعية، إلا
أنها تفتح الباب أمام مشكلةٍ واقعية جدًّا وهي مبدأ
الإدانة بالتلازُم. وإحدى المشاكل المقترنة بهذا
المبدأ هي أنه قد يكون من الصعب تحديد ما يَعنيه
التلازم المقصود هنا. هل العيش في الشارع نفسه مع
مجرم كافٍ ليكون هناك تلازُم؟ علاوة على ذلك، في
الولايات المتحدة، حيث تكون الغالبية العظمى من
السجناء ذكورًا أمريكيين من أصلٍ إفريقي أو لاتيني،
من المرجَّح أن يسفر السماح لخوارزميات التنبُّؤ
بالجرائم بالاستعانة بمفهوم الإدانة بالتلازُم عن
تنبؤات تستهدف بالأساس الشباب ذوي البشرة الملوَّنة
(Baldridge
2015).
تعني الطبيعة التنبؤية لبرامج التنبؤ بالجرائم
أنه مِن المحتمَل أن تختلف معاملة الأفراد ليس بسبب
ما اقترفوه وإنما بسبب الاستدلالات المَبنية على
البيانات بخصوص ما قد يفعلونه. ونتيجة لذلك، ربما
تعمل هذه الأنواع من الأنظمة على تعزيز الممارسات
القائمة على التمييز العنصري من خلال تكرار الأنماط
في البيانات القديمة وربما يؤدي هذا إلى نبوءات
تتحقَّق ذاتيًّا.
التداعيات الأخلاقية لعلم البيانات: إنشاء سجن
«بانوبتيكون» آخر
إذا قضيتَ وقتًا كافيًا في التعرض للترويج
التجاري لعلم البيانات، فسوف ينتابُك شعور بأن أية
مشكلة يمكن حلها باستخدام تكنولوجيا علم البيانات،
ما دام لدَينا قدر كافٍ من المعلومات الصحيحة. وهذا
التسويق لعلم البيانات يُغذي وجهة نظرٍ مفادها أن
المنهج القائم على استخدام البيانات في الحوكمة هو
أفضل طريقة للتعامل مع المشكلات الاجتماعية المعقدة
مثل الجريمة والفقر وتدنِّي مستوى التعليم وتدنِّي
مستوى الصحة العامة: وكل ما نحتاجه لحلِّ هذه
المشكلات هو وضع أجهزة استشعار في مجتمعاتنا
لمراقبة كل شيء، ودمج جميع البيانات وتشغيل
الخوارزميات لتوليد رؤًى رئيسية تُقدم الحل.
عند قبول وجهة النظر هذه، عادة ما يُشدَّد على
عمليتَين. الأولى هي أن المجتمع يصير ذا طبيعة
تكنوقراطية أكثر، وتبدأ جوانب الحياة في التنظيم
بواسطة أنظمةٍ قائمة على البيانات. وتوجد بالفعل
أمثلة على هذا النوع من التنظيم التكنولوجي؛ على
سبيل المثال، في بعض الولايات القضائية يُستخدم علم
البيانات حاليًّا في جلسات الاستماع للإفراج
المشروط (Berk and Bleich
2013) وجلسات إصدار الأحكام
(Barry-Jester, Casselman, and
Goldstein 2015). وبالنظر إلى
مثالٍ من خارج النظام القضائي، تأمل كيف تُنظم
تقنيات المدن الذكية حركة تدفق المرور عبر المدن
بخوارزميات تُحدد بفعاليةٍ أي تدفق مرور يحصل على
الأولوية عند تقاطعٍ مُعين في أوقات مختلفة من
اليوم (Kitchin
2014b). ومن بين النواتج
الثانوية لهذا التنظيم التكنوقراطي انتشار أجهزة
الاستشعار التي تدعم أنظمة التنظيم الآلية.
والعملية الثانية هي «الزحف الرقابي»، حيث يُعاد
استخدام البيانات التي جُمِعت لغرضٍ مُعين لأداء
غرضٍ آخر وتُستخَدم في التنظيم بطريقةٍ أخرى
(Innes 2001).
على سبيل المثال، كاميرات الشوارع التي رُكِّبت في
لندن بغرض تنظيم الازدحام وتحصيل رسوم الازدحام
(رسوم الازدحام المروري في لندن هي رسوم يومية
لقيادة المركبات داخل لندن أثناء أوقات الذروة) قد
استخدمت بغرَض أداء مهامَّ أمنية
(Dodge and Kitchin
2007). تشمل أمثلةً أخرى على
«الزحف الرقابي» تقنية تُسمَّى «شوتسبوتر» وهي
تتألف من شبكة ميكرفونات مركَّبة على نطاق المدينة
ومصمَّمة للتعرُّف على أصوات الطلقات النارية
والإبلاغ عن أماكنها غير أنها تسجل أيضًا
المحادثات، وقد استُخدِم بعض هذه المحادثات في
الإدانات الجنائية (Weissman
2015)، وأيضًا استخدام أنظمة
الملاحة داخل السيارة لفرض المراقبة ورصد غراماتٍ
على سائقي السيارات المستأجَرة الذين يقودون
السيارات خارج الولاية (Elliott
2004; Kitchin 2014a).
ويتمثل أحد جوانب «الزحف الرقابي» في الرغبة في
دمج البيانات الواردة من مختلف المصادر بهدف تقديم
صورةٍ أكثرَ اكتمالًا للمجتمع وبالتالي ربما الكشف
عن رؤًى أعمق للمشكلات الموجودة في النظام. غالبًا
ما توجد أسباب وجيهة وراء إعادة استخدام البيانات
لأغراضٍ مختلفة. وفي الواقع تُوجَّه نداءاتٌ كثيرة
لدمج البيانات التي تحتفظ بها مختلف الهيئات
الحكومية لأغراضٍ مشروعة، مثل دعم البحوث الصحيَّة
ومن أجل مصلحة الدولة ومواطنيها. غير أنه من منطلق
الحريات المدنية، هذه الاتجاهات مُثيرة للقلق
جدًّا. إن تشديد المراقبة، ودمج البيانات من مصادر
مُتعددة، والزحف الرقابي، والحوكمة الاستباقية (مثل
برامج التنبُّؤ بالجرائم) قد تسفر عن مجتمع قد
يُعامل فيه الفرد بارتيابٍ فقط لأنه قام بسلسلةٍ من
التصرُّفات أو المقابلات الحسنة النية غير ذات
الصِّلة والتي تتوافق مع نمَطٍ يَعُدُّه النظام
الرقابي المبني على البيانات مُريبًا. والعيش في
هذا النوع من المجتمعات من شأنه أن يُحيلنا من
مواطنين أحرار إلى سجناء في سجن الفيلسوف الإنجليزي
بنثام، أي سجن «بانوبتيكون»،
5 مما يجعلنا نُمارس ضبط النفس باستمرار
على سلوكياتنا تخوفًا من الاستنتاجات التي قد
تُستدَلُّ منها. والفارق بين الأفراد الذين يعتقدون
أنهم غير خاضعين للمراقبة ويتصرفون وفقًا لذلك
والأشخاص الذين يمارسون ضبط النفس خوفًا، حيث إنهم
نزلاء في سجن «بانوبتيكون»، أشبهُ بالفارق بين
مجتمعٍ حُرٍّ ودولةٍ استبدادية.
رحلة البحث عن الخصوصية المفقودة
عندما يتفاعل الأفراد مع مجتمعاتٍ حديثة من
الناحية التقنية ويتنقَّلون عبرها، لا يكون أمامهم
خيار سوى أن يتركوا وراءهم أثرًا للبيانات يمكن
تعقُّبهم من خلاله. ففي العالم الحقيقي، يعني
انتشار كاميرات المراقبة أنه يمكن جمع بياناتٍ
مكانية عن الأفراد في كل مرةٍ يظهرون في الشارع أو
عند متجرٍ أو عند ساحة انتظار سيارات، وانتشار
الهواتف المحمولة يعني أنه يمكن تعقُّب أشخاصٍ
كثيرين بواسطة هواتفهم. وتشمل الأمثلة الأخرى عن
جمع بيانات العالَم الحقيقي تسجيل مُشتريات بطاقات
الائتمان، واستخدام برامج بطاقات الولاء في
السوبرماركت، وتتبُّع عمليات السحب من ماكينات
السحب الآلي، وتتبُّع إجراء المكالمات الهاتفية.
وفي عالم الإنترنت، تُجمَع البيانات عن الأفراد
عندما يزورون أو يُسجلون الدخول على المواقع
الإلكترونية، أو يرسِلون رسائل بريد إلكتروني، أو
يُشاركون في التسوق الإلكتروني، أو يُقيمون مطعمًا
أو متجرًا، أو يستخدِمون تطبيقًا لقراءة الكتب
الإلكترونية، أو يُشاهدون محاضرةً في دورةٍ تدريبية
مجَّانية عبر الإنترنت أو يُسجلون إعجابهم بمنشورٍ
على أحد مواقع التواصل الاجتماعي أو ينشرونه. ولكي
نضع كمية البيانات التي تُجمَع عن الفرد العادي في
مجتمعٍ حديث من الناحية التقنية في نِصابها الصحيح،
قدَّر تقرير صادر عن «هيئة حماية البيانات
الهولندية» في عام ٢٠٠٩ أن المواطن الهولندي العادي
يُدرَج في عددٍ من قواعد البيانات يتراوح من ٢٥٠
إلى ٥٠٠ قاعدة بيانات، مع تزايد هذا العدد وصولًا
إلى ألف قاعدة بيانات بالنسبة للأشخاص الأكثر
نشاطًا اجتماعيًّا (Koops
2011). تُحدِّد نقاط البيانات
المتعلقة بشخصٍ ما، عند جمعها معًا، «البصمةَ
الرقمية» لذلك الشخص.
ويمكن جمع البيانات الموجودة في البصمة الرقمية
في سياقَين يُمثلان إشكاليةً من منظور الخصوصية.
أولًا: يمكن جمع البيانات عن شخصٍ ما دون علمه أو
معرفته. ثانيًا: في بعض السياقات، ربما يختار شخصٌ
ما مشاركة بياناتٍ عن نفسه وآرائه؛ ولكن ربما يكون
لدَيه قليل من العلم أو لا يكون لديه علم أو سيطرة
على كيفية استخدام هذه البيانات أو كيفية مشاركتها
مع أطرافٍ أخرى وإعادة استخدامها لأغراضٍ أخرى.
ويُستخدم مصطلحا «الظل الرقمي» و«البصمة
الرقمية»
6 للتفرقة بين هذين السياقَين لجمع
البيانات: فالظلُّ الرقمي يشمل جمع البيانات عن
الفرد دون علمِه أو رضاه أو معرفته، أما البصمة
الرقمية فهي عبارة عن أجزاءٍ من البيانات التي
يُتيحها الفرد علنًا وعن قصد (
Koops
2011).
وبالطبع، جمع بيانات عن شخصٍ بدون معرفته أو رضاه
هو أمر مُثير للقلق. غير أن قوة تقنيات علم
البيانات الحديثة المستخدَمة للكشف عن الأنماط
الخفية في البيانات بالإضافة إلى عملية دمج
البيانات من عدة مصادر وإعادة استخدامها لأغراضٍ
أخرى تعني أنه حتى البيانات التي جُمِعت بمعرفة
الفرد ورضاه، في سياقٍ قد يجعلها ذات آثارٍ سلبية
على ذلك الفرد، يستحيل حتى توقُّعها. اليوم، مع
الاستعانة بتقنيات علم البيانات الحديثة، حتى
المعلومات الشخصية جدًّا التي ربما لا نرغب في
الإعلان عنها واخترْنا عدم مشاركتها لا يزال من
الممكن الاستدلال عليها على نحوٍ موثوق من البيانات
غير ذات الصِّلة التي ننشُرها بمحض اختيارنا على
مواقع التواصل الاجتماعي. على سبيل المثال، يُعجَب
الكثيرون، بمحض اختيارهم، بشيءٍ على موقع فيسبوك
لأنهم يرغبون في إبداء الدعم لصديق. ومع ذلك، ومن
خلال الاستعانة بكل بساطة بالأشياء التي يُعجَب بها
الأفراد على موقع فيسبوك تستطيع النماذج المَبنية
على البيانات أن تتوقَّع بدقة التوجُّه الجنسي
الخاص بالشخص وآراءه السياسية والدينية ومستوى
ذكائه وسِماته الشخصية واستخدامه للمواد المسببة
للإدمان مثل المشروبات الكحولية والمخدرات
والسجائر؛ بل ويمكنها أن تُحدِّد ما إذا كان والدا
ذلك الشخص ظلَّا معًا حتى بلغ الشخص السنَّ
القانونية (Kosinski, Stillwell,
and Graepel 2013). وتُثبَت
روابط غير بديهية بهذه النماذج من خلال التنبؤ
بالمثلية الجنسية لفردٍ نتيجة إعجاب الفرد بحملةٍ
للدفاع عن حقوق الإنسان (لكلٍّ من الذكور والإناث)
والتنبؤ بعدم مَيلِه للتدخين نتيجة إعجابه بسيارات
هوندا (Kosinski, Stillwell, and
Graepel 2013).
المناهج الحوسبية للحفاظ على الخصوصية
في السنوات الأخيرة، كان هناك اهتمام متزايد
بالمناهج الحوسبية للحفاظ على خصوصية الأفراد طوال
عملية تحليل البيانات. وهناك اثنان من المناهج
المعروفة هما: «الخصوصية التفاضلية» (ويُطلق عليها
أيضًا الخصوصية التبايُنية) و«التعلُّم التشاركي»
(ويُطلق عليه أيضًا «التعلُّم المتحد»).
الخصوصية التفاضلية هي منهج رياضي لحلِّ مشكلة
معرفة معلومات مفيدة عن مجموعة سكانية، وفي الوقت
نفسه عدم معرفة أي شيءٍ عن الأفراد داخل المجموعة.
وتستخدِم الخصوصية التفاضلية تعريفًا خاصًّا
للخصوصية: خصوصية الفرد لا يتم المساس بها من خلال
تضمين بياناته في عملية تحليل البيانات إذا كانت
الاستنتاجات التي تم التوصُّل إليها من خلال
التحليل لن تتأثر إذا لم تُضمَّن بيانات الفرد.
ويمكن الاستعانة بعددٍ من العمليات لتطبيق الخصوصية
التفاضلية. وتأتي في صلب هذه العمليات فكرة ضخ
التشويش إما في عملية جمع البيانات أو في
الاستجابات إلى الاستعلامات الخاصة بقاعدة
البيانات. ويحمي التشويش خصوصية الأفراد ولكن يمكن
إزالته من البيانات على مستوى التجميع بحيث يمكن
حساب إحصائيات مفيدة على مستوى المجموعة السكانية
ككل. وتُعد تقنية الاستجابة المعشَّاة مثالًا
مفيدًا على إجراء ضخ التشويش في البيانات وتقدم
تفسيرًا بديهيًّا لآلية عمل الخصوصية التفاضلية.
وتتمثل حالة استخدام هذه التقنية في استطلاع رأيٍ
يتضمن سؤالًا حساسًا إجابته بنعم أو لا (أي سؤال
متعلق بانتهاك القانون، أو بالإصابة بمرض ما، وما
إلى ذلك). يُوجَّه المشاركون في الاستطلاع إلى
الإجابة عن السؤال الحسَّاس باستخدام الإجراء
التالي:
- (١)
اقذف عملة معدنية في الهواء
والْتقطها وأبقِ النتيجة سرًّا (هل
كانت على الصورة أم الكتابة؟).
- (٢)
إذا كانت النتيجة كتابة، فأجب ﺑ
«نعم».
- (٣)
إذا كانت النتيجة صورة، فأجب
بصدق.
سيحصل نصف المشاركين في هذا الاستطلاع على
«كتابة» ويجيبون ﺑ «نعم»؛ وسيجيب النصف الآخر بصدق.
وهكذا، فإن العدد الحقيقي للمشاركين الذين كان
يُفترَض أن يُجيبوا ﺑ «لا» في المجموعة بأكملها ضعف
عدد الذين أجابوا فعليًّا ﺑ «لا» (تقريبًا)
(فالعملة المعدنية أداة منصفة وتختار عشوائيًّا،
وبالتالي ينبغي أن يعكس توزيع إجابات نعم/لا بين
المشاركين الذين حصلوا على نتيجة «كتابة» عدد
المشاركين الذين أجابوا بالحقيقة). وبالوضع في
الاعتبار العدد الحقيقي للإجابة ﺑ «لا»، يُمكننا أن
نحسب العدد الحقيقي للإجابة ﺑ «نعم». ومع ذلك، على
الرغم من أننا الآن لدينا عدد دقيق لمن أجابوا على
السؤال الحساس ﺑ «نعم» في المجموعة، فإننا لا
نستطيع تحديد أي من المشاركين الذين أجابوا بنعم
ينطبق عليهم بالفعل الظرف الحساس. ثمة موازنة بين
كمية التشويش الذي يُضخُّ في البيانات وفائدة
البيانات في تحليل البيانات. تتعامل الخصوصية
التفاضلية مع هذه الموازنة من خلال تقديم تقديرات
لحجم التشويش المطلوب بأن تُوضَع في الاعتبار عوامل
مثل توزيع البيانات داخل قاعدة البيانات، ونوع
استعلام قاعدة البيانات الذي تتم معالجته وعدد
الاستعلامات التي نرغب من خلالها في ضمان خصوصية
الفرد. قدَّمت سينثيا دوورك وآرون روث (٢٠١٤)
مقدمةً إلى الخصوصية التفاضلية ونظرة عامة على عدة
مناهج لتطبيق الخصوصية التفاضلية. والآن، تُطبَّق
تقنيات هذه الخصوصية في عددٍ من المنتجات
الاستهلاكية. على سبيل المثال، تستخدم شركة أبل
الخصوصية التفاضلية في نظام التشغيل «آي أو إس ١٠»
(iOS 10)
لحماية خصوصية المستخدِمين الأفراد وفي الوقت نفسه
تتعلَّم أنماط الاستخدام لتحسين النصوص التنبُّؤية
في تطبيقات الرسائل ولتحسين وظيفة البحث.
في بعض السيناريوهات، تأتي البيانات المستخدَمة
في مشروع علم البيانات من مصادر متعدِّدة
ومتبايِنة. على سبيل المثال، ربما تساهم مستشفيات
عديدة في مشروعٍ بحثي واحد، أو تجمع إحدى الشركات
بياناتٍ من عددٍ مهول من مستخدمي أحد تطبيقات
الهاتف المحمول. وبدلًا من إضفاء طابع المركزية على
هذه البيانات في مستودع بيانات واحد وإجراء التحليل
على البيانات المجمعة، يتمثل المنهج البديل في
تدريب نماذج مختلفة على مجموعات البيانات الفرعية
في مصادر البيانات المختلفة (أي في المستشفيات كلٍّ
على حدة أو على هواتف المستخدِمين كلٍّ على حدة) ثم
دمج هذه النماذج المدرَّبة معًا. تستعين شركة جوجل
بهذا المنهج «للتعلُّم التشاركي» لتحسين المقترحات
الخاصة بالاستعلام التي تُقدمها لوحة مفاتيح جوجل
المستخدَمة على نظام الأندرويد
(McMahan and Ramage
2017). وفي إطار عمل التعلُّم
التشاركي الخاص بجوجل، يحتوي جهاز المحمول مبدئيًّا
على نسخةٍ مُحملة من التطبيق الحالي. وعندما
يستخدِم المستخدِم التطبيق، تُجمَع بيانات التطبيق
الخاصة بذلك المستخدِم على هاتفه وتُستخدَم بواسطة
خوارزمية تعلُّم محلية موجودة على هذا الهاتف
لتحديث النسخة المحلية من النموذج. ثم يُرفَع هذا
التحديث المحلي للنموذج على السحابة مع باقي
التحديثات المحلية للنماذج الخاصة بالمستخدِمين
الآخرين، ويُنشأ نموذج بمتوسط التحديثات التي تمَّت
على كل هذه النماذج. يحدَّث النموذج الأساسي بعد
ذلك باستخدام هذا المتوسط. وباستخدام هذه العملية،
يمكن تحسين النموذج الأساسي، ويمكن في الوقت نفسه
حماية خصوصية المستخدِمين الفرديِّين إلى الحدِّ
الذي لا تُشارك فيه سوى تحديثات النموذج فقط؛ لا
بيانات استخدام من جانب المستخدِمين.
الحقيقة أن خوارزميات علم البيانات تعمل
بطريقة لا أخلاقية أكثر من كونها طريقة
موضوعية.
الأطر القانونية لتنظيم استخدام البيانات وحماية
الخصوصية
ثمة تنوُّع عبر الولايات القضائية المختلفة في
القوانين المتعلقة بحماية الخصوصية والاستخدام
المسموح به للبيانات. ومع ذلك، ثمة ركنان أساسيَّان
موجودان عبر معظم الولايات القضائية الديمقراطية في
التشريعات المناهضة للتمييز وتشريعات حماية
البيانات الشخصية.
ففي معظم الولايات القضائية، تحظُر التشريعات
المناهضة للتمييز التمييزَ على أساسِ أيٍّ من
الأسباب التالية: الإعاقة، والعمر، والجنس، والعرق،
والانتماء العرقي، والجنسية، والتوجُّه الجنسي،
والآراء الدينية أو السياسية. وفي الولايات
المتحدة، يحظُر قانون الحقوق المدنية لعام
١٩٦٤
7 التمييز على أساس اللون، أو العرق، أو
الجنس، أو الدين، أو الجنسية. ولقد وسَّعت
التشريعات اللاحقة نطاق هذه القائمة؛ على سبيل
المثال، وسع قانون الأمريكيين ذوي الإعاقة لعام
١٩٩٠
8 نطاق حماية الأفراد من التمييز ليشمل
الحماية من التمييز القائم على الإعاقة. وثمة
تشريعات مُشابهة معمول بها في العديد من الولايات
القضائية الأخرى. على سبيل المثال، يحظر ميثاق
الحقوق الأساسية للاتحاد الأوروبي التمييز على أساس
أية أسباب بما فيها العرق، واللون، والأصل العرقي
أو الاجتماعي، والسمات الجينية، والجنس، والعمر،
والميلاد، والإعاقة، والتوجه الجنسي، والدين أو
المعتقد، والممتلكات، والعضوية في أقليةٍ وطنية،
والرأي السياسي أو أيِّ رأيٍ آخر (ميثاق
٢٠٠٠).
ويُوجَد حالة مُماثلة من التبايُن والتداخل فيما
يخص تشريعات الخصوصية في مختلف الولايات القضائية.
ففي الولايات المتحدة الأمريكية، وفَّرت مبادئ
الممارسات العادلة للمعلومات (عام ١٩٧٣)
9 الأساس للكثير من التشريعات التالية
لحماية الخصوصية في تلك الولايات القضائية. وفي
الاتحاد الأوروبي، تُعد توجيهات حماية البيانات
(مجلس الاتحاد الأوروبي والبرلمان الأوروبي عام
١٩٩٥) هي الأساس للكثير من تشريعات حماية الخصوصية
الخاصة بتلك الولايات القضائية. تتوسَّع اللائحة
العامة لحماية البيانات (مجلس الاتحاد الأوروبي
والبرلمان الأوروبي عام ٢٠١٦) في نطاق مبادئ حماية
البيانات المنبثقة من توجيهات حماية البيانات وتوفر
لوائح حماية بيانات مُتسقة وقابلة للتنفيذ
قانونيًّا في جميع الدول الأعضاء في الاتحاد
الأوروبي. غير أن المبادئ الأكثر قبولًا على نطاقٍ
واسع فيما يتعلق بالخصوصية الشخصية والبيانات هي
المبادئ التوجيهية لحماية الخصوصية وتدفُّقات
البيانات الشخصية عبر الحدود التي نشرتها منظمة
التعاون الاقتصادي والتنمية (١٩٨٠). وضمن هذه
المبادئ التوجيهية، تُعرَف البيانات الشخصية على
أنها سجلَّات متعلقة بفردٍ يمكن التعرف عليه، يُعرف
باسم «صاحب البيانات». تُحدد المبادئ التوجيهية
ثمانية مبادئ (متداخلة) مُصممة لحماية خصوصية صاحب
البيانات:
- (١)
مبدأ تقييد جمع البيانات: لا ينبغي
الحصول على البيانات الشخصية إلا على
نحوٍ قانوني وبمعرفة صاحب البيانات
وبموجب موافقته.
- (٢)
مبدأ جودة البيانات: أي بيانات شخصية
تُجمَع ينبغي أن تكون ذات صلةٍ بالغرض
الذي تُستخدَم من أجله؛ وينبغي أن تكون
دقيقة وكاملة ومُحدَّثة.
- (٣)
مبدأ تحديد الغرض: في توقيت جمع تلك
البيانات الشخصية أو قبلها، ينبغي أن
يُخطَر صاحب البيانات بالغرض الذي
ستُستخدَم من أجله. علاوة على ذلك، على
الرغم من أن التغييرات الطارئة على
الغرض جائزة، لا ينبغي إقحامها بصورة
اعتباطية (يجب أن تكون الأغراض الجديدة
متوافقة مع الغرض الأصلي) وينبغي أن
يتمَّ تحديدها لصاحب البيانات.
- (٤)
مبدأ تقييد الاستخدام: استخدام
البيانات الشخصية مُقيد بالغرض الذي
أُبلغ به صاحب البيانات، وينبغي ألا
تُفشى البيانات إلى أطرافٍ أخرى دون
موافقة صاحب البيانات أو بموجب سلطة
القانون.
- (٥)
مبدأ الضمانات الأمنية: ينبغي أن
تكون البيانات الشخصية محميةً بضماناتٍ
أمنية ضد الحذف، أو السرقة، أو
الإفشاء، أو التعديل، أو الاستخدام غير
المصرَّح به.
- (٦)
مبدأ الشفافية: يجب أن يكون لدى صاحب
البيانات القدرة على الحصول على
معلومات بسهولة معقولة بشأن جمع
بياناته الشخصية وتخزينها
واستخدامها.
- (٧)
مبدأ مشاركة الفرد: يحقُّ لصاحب
البيانات الوصول إلى بياناته الشخصية
والاعتراض عليها.
- (٨)
مبدأ المساءلة: يتحمل معالج البيانات
مسئولية الالتزام بهذه المبادئ.
تقر الكثير من الدول، بما فيها دول الاتحاد
الأوروبي والولايات المتحدة، بالمبادئ التوجيهية
لمنظمة التعاون الاقتصادي والتنمية. في الواقع،
يمكن إرجاع مبادئ حماية البيانات المذكورة في
اللائحة العامة لحماية البيانات الخاصة بالاتحاد
الأوروبي إلى حدٍّ كبير إلى المبادئ التوجيهية
لمنظمة التعاون الاقتصادي والتنمية. تنطبق هذه
اللوائح على جمع وتخزين ونقل ومعالجة البيانات
الشخصية المتعلقة بمواطني الاتحاد الأوروبي داخل
الاتحاد الأوروبي ولها تداعِيات على تدفُّقات هذه
البيانات خارج الاتحاد الأوروبي. وحاليًّا، تعمل
العديد من البلدان على تطوير قوانين مُماثلة لحماية
البيانات مُتَّسقة مع لوائح الاتحاد
الأوروبي.
نحو علم بياناتٍ أخلاقي
من المعروف جيدًا أنه على الرغم من الأطر
القانونية المعمول بها، كثيرًا ما تجمع الدول
القومية البيانات الشخصية عن مواطنيها والأجانب
بدون علم هؤلاء الأشخاص، وعادةً ما يكون هذا تحت
مُسمَّى الأمن والاستخبارات. وتشمل الأمثلة برنامج
المراقبة «بريسم» التابع لوكالة الأمن القومي
الأمريكية، وبرنامج «تمبورا» التابع لمكاتب
الاتصالات الحكومية البريطانية
(Shubber
2013)؛ ونظام الأنشطة التحقيقية
التشغيلية التابع للحكومة الروسية
(Soldatov and Borogan
2012). تؤثر هذه البرامج على
تصوُّر العامة للحكومات واستخدام تقنيات الاتصال
الحديثة. ففي عام ٢٠١٥، أشارت نتائج استطلاع رأي
بعنوان «استراتيجيات الخصوصية الأمريكية بعد فضيحة
سنودن» إلى أن ٨٧ بالمائة من المشاركين كانوا على
درايةٍ بمراقبة الاتصالات الهاتفية والإلكترونية،
وصرح ٦١ بالمائة ممن كانوا على دراية بهذه البرامج
بأنهم فقدوا الثقة بأن هذه البرامج كانت تخدم
المصلحة العامة، وقال ٢٥ بالمائة إنهم غيروا طريقة
استخدامهم للتقنيات كردِّ فعلٍ على معرفتهم بهذه
البرامج (Rainie and Madden
2015). لقد سُجلت نتائج مشابهة
في استطلاعات رأي أوروبية، فكان أكثر من نصف
الأوروبيين على دراية بجمع بيانات على نطاقٍ كبير
من قبل وكالات حكومية وصرح معظم المشاركين بأن هذا
النوع من المراقبة كان له أثر سلبي على ثقتهم فيما
يخصُّ كيفية استخدام بياناتهم الشخصية المتاحة عبر
الإنترنت (استطلاعات يوروباروميتر ٢٠١٥).
في الوقت نفسه، يتجنَّب الكثير من الشركات الخاصة
اللوائح المتعلقة بالبيانات الشخصية والخصوصية من
خلال ادعاء استخدام البيانات المشتقة أو المجمعة أو
المجهولة المصدر. وبهذه الطريقة، تدَّعي الشركات أن
البيانات لم تُعد بياناتٍ شخصية، وهو ما يسمح لها —
على حدِّ قولها — بجمع البيانات دون معرفة الفرد أو
موافقته ودون غرَض واضح ومباشر للبيانات؛ وبحفظ
البيانات لفتراتٍ زمنية طويلة، وبإعادة استخدام
البيانات لغرَض آخر أو بيعها حينما تسنح فرصة
تجارية لذلك. ويزعم الكثير من أنصار الفُرَص
التجارية لعلم البيانات والبيانات الضخمة أن القيمة
التجارية الحقيقية لعلم البيانات تأتي من إعادة
استخدام البيانات أو «قيمتها الاختيارية»
(Mayer-Schönberger and Cukier
2014). ويلقي أنصار إعادة
استخدام البيانات الضوء على ابتكارين من الابتكارات
التكنولوجية تجعل من جمع البيانات وتخزينها
استراتيجيةً تجارية مناسبة: أولًا: اليوم يمكن جمع
البيانات على نحوٍ سلبي بقليل من الجهد أو حتى دون
بذل أي جهدٍ أو دون وعي من جانب الأفراد الذين
يُتعقَّبون؛ وثانيًا أصبح تخزين البيانات غير مكلفٍ
نسبيًّا. ومن هذا المنطلَق يكون من المنطقي على
الصعيد التجاري تسجيل البيانات وتخزينها في حال
وجود فرصة تجارية مستقبلية (ربما لا يمكن التنبؤ
بها) تجعلها ذات قيمة.
وتتعارض الممارسات التجارية الحديثة الخاصة
باحتكار البيانات وإعادة استخدامها لأغراضٍ أخرى
وبيعها تمامًا مع مبدأي «تحديد الغرض» و«تقييد
الاستخدام» في المبادئ التوجيهية لمنظمة التعاون
الاقتصادي والتنمية. علاوة على ذلك، تُغفَل أهمية
مبدأ «تقييد جمع البيانات» إذا قدمت إحدى الشركات
اتفاقية خصوصية إلى العميل مُعدة بحيث تكون غير
صالحة للقراءة أو بحيث تحتفظ الشركة بحق تعديل
الاتفاقية دون الرجوع إلى العميل أو إخطاره بذلك أو
أي من الأمرَين. وكلما حدث ذلك، تحولت عملية إخطار
العميل والحصول على موافقته إلى مجرد ممارسة لا
معنى لها مُتمثلةً في وضع علامة صح داخل مربع فحسب.
وعلى غرار الرأي العام تجاه المراقبة الحكومية تحت
مُسمى الحفاظ على الأمن، فإن الرأي العام سلبي
تمامًا تجاه جمع المواقع الإلكترونية التجارية
للبيانات الشخصية وإعادة استخدامها لأغراضٍ أخرى.
مرة أخرى باستخدام استطلاعات الرأي الأمريكية
والأوروبية كاختبارٍ حاسم للرأي العام الأوسع
نطاقًا، وجدنا استطلاع رأيٍ أُجري في عام ٢٠١٢
لمستخدمي الإنترنت بأمريكا ووصل إلى أن ٦٢ بالمائة
من البالغين الذين شاركوا في الاستطلاع لم يكونوا
على دراية بكيفية تقييد استخدام المعلومات التي
تجمعها المواقع الإلكترونية عنهم، وصرح ٦٨ بالمائة
بأنهم غير راضِين عن ممارسة توجيه الإعلانات
المستهدفة لأنهم غير راضين عن تتبُّع سلوكهم عبر
الإنترنت وتحليله (Purcell,
Brenner, and Rainie 2012).
ووجد استطلاع رأي حديث للمواطنين الأوروبيين نتائج
مشابهة؛ حيث شعر ٦٩ بالمائة من المشاركين بأن جمع
بياناتهم ينبغي أن يستلزِم موافقتهم الصريحة على
ذلك؛ وأن ١٨ بالمائة فقط من المشاركين يقرءون بنود
الخصوصية بالكامل حقًّا. علاوة على ذلك، صرح ٦٧
بالمائة من المشاركين أنهم لا يقرءون بنود الخصوصية
لأنهم يجدونها طويلة على نحوٍ مبالَغ فيه، وصرح ٣٨
بالمائة أنهم وجدوها غير واضحة أو من الصعب جدًّا
فهمها. ووجد استطلاع الرأي أيضًا أن ٦٩ بالمائة من
المشاركين كانوا قلقِين بشأن استخدام معلوماتهم
لأغراضٍ تختلف عن الأغراض التي جُمعت من أجلها،
وشعر ٥٣ بالمائة من المشاركين بالانزعاج من شركات
الإنترنت التي تستخدِم معلوماتهم الشخصية لتصميم
الإعلانات الموجهة لأفرادٍ بعينِهم (استطلاعات
يوروباروميتر ٢٠١٥).
إذن الرأي العام، في الوقت الراهن، سلبي بوجهٍ
عام نحو كلٍّ من المراقبة الحكومية وجمع البيانات
الشخصية وتخزينها وتحليلها من جانب شركات الإنترنت.
واليوم، يتفق معظم المعلِّقين على أننا بحاجةٍ إلى
تحديث تشريعاتِ خصوصية البيانات وأن التغييرات
تحدث. ففي عام ٢٠١٢، نشر الاتحاد الأوروبي
والولايات المتحدة مراجعات وتحديثات فيما يخصُّ
حماية البيانات وسياسات الخصوصية
(
European Commission 2012;
Federal Trade Commission 2012; Kitchin 2014a,
173). وفي عام ٢٠١٣، وُسِّع
نطاق المبادئ التوجيهية لمنظمة التعاون الاقتصادي
والتنمية لتشمل مزيدًا من التفاصيل فيما يخص تنفيذ
مبدأ المساءلة. وعلى وجه الخصوص، تحدد المبادئ
التوجيهية الجديدة مسئولياتِ معالج البيانات فيما
يتعلق بوضع برنامج لإدارة الخصوصية ولتحديد ما
يستلزِمه هذا البرنامج بوضوحٍ وكيف يجب تصميمه فيما
يخصُّ إدارة المخاطر المتعلقة بالبيانات الشخصية
(
OECD 2013).
وفي عام ٢٠١٤، كسب مواطن إسباني، يُدعى ماريو
كوستيجا جونزاليس، قضيةً رفعها أمام محكمة العدل
الأوروبية ضد شركة جوجل (
C-131/12
[2014]) مؤكدًا حقه في أن
تُنسى بياناته. وحكمت المحكمة بأنه بإمكان المرء،
تحت شروطٍ معينة، أن يطلُب من محرك البحث عبر
الإنترنت إزالة روابط صفحات الويب الناتجة عن
عمليات البحث باسم هذا الشخص. وتضمَّنت أسباب هذا
الطلب أن البيانات غير دقيقة أو قديمة أو أنها
احتُفِظ بها لوقتٍ أطول مما هو ضروري لأغراضٍ
تاريخية أو إحصائية أو علمية. ولهذا الحكم آثار
كبرى على جميع مُحركات البحث عبر الإنترنت، بل إنه
ربما يكون له أيضًا آثار على محتكري البيانات
الضخمة. على سبيل المثال، ليس من الواضح في الوقت
الحاضر ماهية آثاره على مواقع التواصل الاجتماعي
مثل فيسبوك وتويتر (
Marr
2015). وقد تأكَّد مفهوم الحق
في أن تُنسى بيانات المرء عبر ولايات قضائية أخرى.
على سبيل المثال، يؤكد قانون «المسح» بكاليفورنيا
على حق الشخص القاصر في إزالة مواد نشرها عبر
الإنترنت أو من خلال خدمات الهاتف المحمول بناءً
على طلبه. ويحظر القانون أيضًا على شركات خدمات
الإنترنت أو عبر الإنترنت أو خدمات الهاتف المحمول
جمع بياناتٍ شخصية متعلقة بشخص قاصر لأغراض
الإعلانات الموجهة أو السماح لطرف آخر بالقيام
بذلك.
10 وكمثالٍ أخير على التغيرات التي تحدث،
في عام ٢٠١٦ وُقِّع على اتفاقية «حماية الخصوصية
بالاتحاد الأوروبي والولايات المتحدة» واعتمادها
(
European Commission
2016). وينصبُّ تركيز هذه
الاتفاقية على توحيد التزامات حماية خصوصية
البيانات عبر الولايتَين القضائيتَين. والغرَض منها
هو تعزيز حقوق حماية بيانات مواطني الاتحاد
الأوروبي في السياق الذي تُنقل فيه البيانات خارج
حدود دول الاتحاد الأوروبي. هكذا، فرضت هذه
الاتفاقية التزاماتٍ أقوى على الشركات التجارية
فيما يخصُّ شفافية استخدام البيانات، وآليات رقابة
قوية وعقوبات مُحتملة وكذلك قيود وآليات رقابة
للهيئات العامة في تسجيل البيانات الشخصية أو
الوصول إليها. ومع ذلك، وفي وقت تأليف هذا الكتاب،
خضعت قوة تلك الاتفاقية وفعاليتها للاختبار في
قضيةٍ نُظِرت أمام المحاكم الأيرلندية. والسبب الذي
جعل النظام القضائي الأيرلندي في قلب هذا النقاش هو
أن الكثير من شركات الإنترنت الأمريكية متعددة
الجنسيات (مثل جوجل وفيسبوك وتويتر … إلخ) توجَد
مقراتها الرئيسية لحسابات أوروبا والشرق الأوسط
وأفريقيا في أيرلندا. ونتيجة لذلك، يكون المفوض
المعني بحماية البيانات في أيرلندا مسئولًا عن
تنفيذ لوائح الاتحاد الأوروبي فيما يخصُّ عمليات
نقل البيانات عبر الحدود الوطنية التي تقوم بها هذه
الشركات. ويوضح التاريخ الحديث أنه من الممكن
للقضايا القانونية أن تُسفر عن تغيراتٍ كبرى وسريعة
في اللوائح المعنية بكيفية التعامل مع بيانات
الأشخاص. في الواقع، تُعَد اتفاقية «درع الخصوصية
بين الاتحاد الأوروبي والولايات المتحدة» نتيجة
مباشرة لقضية رفعها ماكس شريمز، وهو محامٍ نمساوي
وناشط في مجال حماية الخصوصية، ضد فيسبوك. وكانت
المحصلة النهائية لقضية شريمز في عام ٢٠١٥ إبطال
اتفاقية «الملاذ الآمن» القائمة بين الاتحاد
الأوروبي والولايات المتحدة بأثر فوري، ووضعت
اتفاقية درع الخصوصية كاستجابةٍ طارئة لهذه
النتيجة. ومقارنة باتفاقية «الملاذ الآمن» الأصلية،
عزَّزت اتفاقية درع الخصوصية حقوق مواطني الاتحاد
الأوروبي في حماية بياناتهم
(
O’Rourke and Kerr
2017)، وربما يؤدي أي إطار
عملٍ جديد إلى تعزيز هذه الحقوق. على سبيل المثال،
ستُتيح اللائحة العامة لحماية البيانات لمواطني
الاتحاد الأوروبي حماية بياناتهم بموجب القانون
اعتبارًا من مايو ٢٠١٨.
ومن منظور علم البيانات، توضح هذه الأمثلة أن
اللوائح المتعلقة بخصوصية البيانات وحمايتها في
حالة تغيُّر مُستمر. ومن المؤكد أن الأمثلة
المذكورة هنا مأخوذة من سياقاتٍ خاصة بالولايات
المتحدة والاتحاد الأوروبي؛ ولكنها تُشير إلى
اتجاهات أوسع نطاقًا فيما يتعلق بالخصوصية وتنظيم
البيانات. ومن الصعب جدًّا التنبؤ بكيفية تطوُّر
هذه التغييرات على المدى الطويل. ويوجَد مجموعة من
أصحاب المصالح على هذا الصعيد: تأمَّل الأجندات
المختلفة لكبرى شركات الإنترنت، وشركات الإعلان
وشركات التأمينات، ووكالات الاستخبارات، والهيئات
الأمنية، والحكومات، ومؤسسات البحث العلمي الطبي
والاجتماعي وجماعات الحريات المدنية. ولكلٍّ من هذه
القطاعات المختلفة في المجتمع أهداف واحتياجات
مختلفة فيما يخصُّ استخدام البيانات، وبالتالي فإن
لدَيها وجهات نظر مختلفة بشأن كيفية صياغة لوائح
حماية خصوصية البيانات. علاوة على ذلك، من المحتمَل
أن تكون لدينا كأفرادٍ وِجهاتُ نظر مُتغيرة
اعتمادًا على المنظور الذي نتبنَّاه. على سبيل
المثال، ربما نرحب جدًّا بمشاركة بياناتنا الشخصية
وإعادة استخدامها في سياق الأبحاث الطبية. ومع ذلك،
كما سجلت استطلاعات الرأي العام في أوروبا
والولايات المتحدة، الكثيرون منَّا لديهم تحفُّظات
بخصوص جمع البيانات وإعادة استخدامها ومشاركتها في
سياق الإعلانات الموجهة. وبشكلٍ عام، ثمة وجهتا نظر
في سياق الحديث حول مستقبل خصوصية البيانات. هناك
وجهة نظر تُنادي بتعزيز اللوائح المتعلقة بجمع
البيانات الشخصية وتذهب في بعض الحالات إلى حدِّ
تمكين الأفراد من التحكُّم في كيفية جمع بياناتهم
ومشاركتها واستخدامها. أما وجهة النظر الأخرى
فتنادي بإلغاء فرض القيود التنظيمية على جمع
البيانات؛ ولكنها تؤيد أيضًا سَنَّ قوانين أشد
لمعالجة إساءة استخدام البيانات الشخصية. ومع وجود
العديد من أصحاب المصالح ووجهات النظر المختلفة، لا
توجد إجابات سهلة أو واضحة للأسئلة المطروحة عن
الخصوصية والبيانات. من المرجح أن تتحدد الحلول
النهائية التي يُجرى تطويرها بناءً على كل قطاع على
حدة وتشمل حلولًا وسطًا يتفاوض عليها أصحاب المصالح
المعنيين.
وفي مثل هذا السياق المائع، من الأفضل التصرف
بصورةٍ متحفظة وأخلاقية. وبينما نعمل على تطوير
حلول جديدة لمشاكل العمل من وجهة نظر علم البيانات،
ينبغي أن نضع في اعتبارنا المسائل الأخلاقية
المتعلقة بالبيانات الشخصية. وثمة أسباب عملية
وجيهة للقيام بهذا. أولًا: سيضمن التصرف على نحوٍ
أخلاقي وبشفافية مع البيانات الشخصية أن تحظى
الشركة بعلاقات طيبة مع عملائها. فيمكن أن تتسبَّب
الممارسات غير اللائقة المتعلقة بالبيانات الشخصية
في إلحاق أضرارٍ جسيمة بسمعة الشركة وتدفع عملاءها
إلى الانتقال إلى الشركات المنافسة
(Buytendijk and Heiser
2013). ثانيًا: ثمة خطورة
تتمثل في أن تكثيف عمليات دمج البيانات وإعادة
استخدامها وتكثيف عمليات إنشاء ملفاتٍ شخصية
واستهداف المستخدِمين، سيؤدي إلى إثارة الرأي العام
بشأن خصوصية البيانات في السنوات القادمة، مما
سيسفر عنه لوائح أكثر تشددًا. إن التصرف الواعي
بشفافية وعلى نحو أخلاقي هو أفضل طريقة لضمان عدم
تعارُض حلول علم البيانات التي نطوِّرها مع اللوائح
الحالية أو اللوائح التي قد تدخل في حيِّز التنفيذ
في السنوات القادمة.
تذكر أفرا كير (٢٠١٧) قضيةً تعود لعام ٢٠١٥ توضح
كيف أن عدم مراعاة الاعتبارات الأخلاقية قد يؤدي
إلى عواقب وخيمة بالنسبة إلى مُطوري التكنولوجيا
والموردين لخدماتها. وقد ترتب على هذه القضية قيام
لجنة التجارة الفيدرالية الأمريكية بفرض غراماتٍ
على مطوري وناشري ألعاب التطبيقات بموجب قانون
حماية خصوصية الأطفال عبر الإنترنت. لقد دمج مطورو
الألعاب إعلاناتٍ خاصةً بجهاتٍ خارجية في ألعابهم
المجانية. ويُعَد دمج إعلانات جهاتٍ خارجية هي
ممارسة معتادة في نموذج عمل الألعاب المجانية؛ إلا
أن المشكلة نشأت من أن الألعاب كانت مُصمَّمة
للأطفال دون سنِّ الثالثة عشرة. ونتيجة لذلك، من
خلال مشاركة بيانات المستخدِم مع شبكات الدعاية
والإعلان، كان المطوِّرون يشاركون أيضًا في الحقيقة
بيانات الأطفال، وبالتالي ينتهكون قانون حماية
خصوصية الأطفال عبر الإنترنت. وفي إحدى المرات،
تقاعس المطورون عن إبلاغ شبكات الدعاية والإعلان أن
التطبيقات كانت مُخصَّصة للأطفال. وبالتالي كان من
الممكن أن يظهر للأطفال إعلانات غير لائقة، وفي هذه
الحالة حكمت لجنة التجارة الفيدرالية بأن يتحمَّل
ناشرو اللعبة مسئولية ضمان توفير محتوى وإعلانات
مناسبة لأعمار الأطفال الذين يلعبون هذه الألعاب.
لقد كان هناك عدد متزايد من هذه النوعية من الحالات
في السنوات الأخيرة، ولقد دعت عددٌ من المنظمات، من
بينها لجنة التجارة الفيدرالية (٢٠١٢) الشركات إلى
اعتماد مبدأ «تضمين الخصوصية في التصميم»
(Cavoukian
2013). طُوِّرت هذه المبادئ في
التسعينيات من القرن العشرين وصار مُعترفًا بها
عالميًا من أجل حماية الخصوصية. فهي تنادي بأنه
ينبغي أن تكون الخصوصية هي الوضع الافتراضي لعملية
تصميم التكنولوجيا وأنظمة المعلومات. ويتطلب
اتِّباع هذه المبادئ من المصمم أن يُبادر بالسعي،
وعن وعيٍ، إلى تضمين اعتبارات الخصوصية في تصميم
التقنيات والممارسات التنظيمية وهياكل نظم
الشبكات.
وعلى الرغم من أن الحجج الداعمة للجانب الأخلاقي
من علم البيانات واضحة، فليس من السهل دومًا التصرف
على نحوٍ أخلاقي. وإحدى الطرق لجعل التحدي المتمثل
في الجانب الأخلاقي من علم البيانات ملموسًا أكثر
هو أن تتخيل نفسك تعمل في شركةٍ ما كعالِم بيانات
على مشروعٍ مُهم تجاريًّا. وفي خضم تحليل البيانات،
حددت عددًا من السمات المتفاعلة التي تدلُّ معًا
على عِرق مُعين (أو سمة شخصية أخرى مثل الدين
والنوع الاجتماعي وما إلى ذلك). أنت تعرف أنه لا
يمكنك من الناحية القانونية أن تستخدِم سمة العرق
في النموذج الذي تُصمِّمه، ولكنك تؤمِن بأن هذه
السمات البديلة ستُمكنك من الالتفاف حول تشريعات
مناهضة التمييز. أنت تعتقد أيضًا أن تضمين هذه
السِّمات في النموذج سيجعل نموذجك يؤتي ثماره، على
الرغم من أنك تشعر بالقلق بطبيعة الحال من أن هذه
النتيجة الناجحة قد تتحقق لأن النموذج سيتعلم تعزيز
التمييز الموجود بالفعل في النظام. سلْ نفسك: «ماذا
سأفعل؟»