تحدِّي تغيُّر المناخ: حول الأولويات وحقبة التأثير البشري
هل يجِب أن تكون أخلاقيات الذكاء الاصطناعي محورها الإنسان؟
غالبًا ما يتم تعريف هذا التمحوُر حول الإنسان فيما يتعلق بالتكنولوجيا بإعطاء الأولوية لخير الإنسان وكرامته على حساب ما قد تتطلَّبه أو تفعله التكنولوجيا. فالتكنولوجيا يجب أن تعود بالفائدة على البشر وأن تخدمهم وليس العكس. ومع ذلك، وكما رأينا في الفصول الأولى، فإن مدى مناسبة هذا التركيز على الإنسان في أخلاقيات الذكاء الاصطناعي ليس واضحًا كما قد يبدو للوهلة الأولى، ولا سيَّما إذا أخذنا في الاعتبار المناهج المؤيدة لتجاوز الإنسانية أو سرديات المنافسة (ما بين الإنسان والتكنولوجيا). وتبين فلسفة التكنولوجيا أن هناك المزيد من الطرق — الأكثر دقةً وتعقيدًا — لتحديد العلاقة بين البشر والتكنولوجيا. علاوةً على ذلك، يُعد النهج المُتمحور حول الإنسان غير واضح على أقل تقدير، إن لم يكُن مُثيرًا للمشكلات، في ضوء المناقشات الفلسفية حول البيئة والكائنات الحية الأخرى. في فلسفة البيئة وأخلاقياتها، هناك نقاش طويل حول قيمة غير البشر، خاصة الكائنات الحية، وحول كيفية احترام تلك القيمة وهذه الكائنات، وحول المشكلات المُحتملة التي قد تنشأ نتيجة احترام قيمة البشر. وفيما يخصُّ أخلاقيات الذكاء الاصطناعي، فإن هذا يعني أن علينا على الأقل طرح السؤال بشأن تأثير الذكاء الاصطناعي على الكائنات الحية الأخرى والنظر في احتمالية وجود تعارُض بين قِيَم ومصالح البشر وغير البشر.
تحديد الأولويات على النحو الصحيح
يمكن أيضًا القول بوجود مشكلات أخرى أكثر خطورة من تلك التي يُسببها الذكاء الاصطناعي، وأنه من المُهم تحديد أولوياتنا بشكلٍ صحيح. وقد ينشأ هذا الاعتراض من النظر إلى المشكلات العالمية مثل تغيُّر المناخ، التي تُعد وفقًا للبعض المشكلة الأهم التي تحتاج البشرية إلى التصدِّي لها وإيلائها الأولوية نظرًا إلى خطورتها وتأثيرها المُحتمَل على الكوكب كلًّا.
يُعَد النهج المُتمحور حول الإنسان غير واضحٍ على أقل تقدير، إن لم يكُن مُثيرًا للمشكلات، في ضوء المناقشات الفلسفية حول البيئة والكائنات الحية الأخرى.
من جهة، يبدو أن التركيز على الذكاء الاصطناعي وغيره من المشكلات التكنولوجية في غير محلِّه عندما يُعاني عدد هائل من البشر ويُعاني العالم بأسره من مشكلاتٍ أخرى كثيرة للغاية. ففي حين أن الناس في أحد أنحاء العالم يُكافحون من أجل الوصول إلى المياه العذبة أو من أجل البقاء على قيد الحياة في بيئاتٍ عنيفة، يقلق آخرون في جزءٍ آخر من العالَم بشأن خصوصيتهم على الإنترنت ويتخيَّلون مُستقبلًا يُحقق فيه الذكاءُ الاصطناعي الذكاءَ الفائق. من الناحية الأخلاقية، يبدو أن شيئًا مُريبًا يحدث، شيئًا يتعلق بالتفاوُت الاجتماعي والظلم العالَميَّين. يجب ألا تغضَّ الأخلاق والسياسات الطرفَ عن مثل هذه المشكلات، التي لا تتعلَّق بالضرورة بالذكاء الاصطناعي على الإطلاق. على سبيل المثال، في البلدان النامية، يُمكن أحيانًا للتكنولوجيا المُنخفضة التكلفة — وليس التكنولوجيا المُتقدمة — المساعدة في حلِّ مُشكلات الناس؛ لأنهم يستطيعون أن يتحمَّلوا تكاليفها ويستطيعون تركيبها وصيانتها.
من جهة أخرى، يمكن أن يُسبب الذكاء الاصطناعي مشكلاتٍ جديدة وأيضًا يعمل على تفاقُم المشكلات القائمة بالفعل في المُجتمعات وفي البيئة. على سبيل المثال، يخشى البعض أن الذكاء الاصطناعي سيوسع الفجوة بين الأغنياء والفقراء، وأنه، مثل العديد من التقنيات الرقمية، سيزيد من استهلاك الطاقة، ويخلق مزيدًا من النفايات. من هذا المنظور، فإن مناقشة أخلاقيات الذكاء الاصطناعي والتعامُل معها ليس تشتيتًا للانتباه ولكنه إحدى الطرق التي يُمكننا من خلالها المساهمة في معالجة مشكلات العالم، بما فيها المشكلات البيئية. ومن ثَم، يُمكننا أن نستخلص أننا بحاجةٍ أيضًا إلى إيلاء الاهتمام للذكاء الاصطناعي: نعم، الفقر والحروب وما إلى ذلك هي مشكلات خطيرة، ولكن الذكاء الاصطناعي يُمكن أيضًا أن يؤدِّي إلى — أو يُساعد على — تفاقم مشكلات خطيرة الآن وفي المُستقبل، ويجب أن يكون في قائمة المشكلات التي تحتاج منا إلى إيجاد الحلول. ومع ذلك، فهذا لا يُجيبنا عن السؤال المتعلق بالأولويات؛ وهو سؤال مُهم على مستوى الأخلاقيات والسياسة على حدٍّ سواء. إن القضية لا تتمثل في وجود إجابات سهلة عن ذلك السؤال؛ بل القضية هي أن هذا السؤال لا يُطرَح حتى في معظم المؤلَّفات الأكاديمية ووثائق السياسات حول الذكاء الاصطناعي.
ففي حين أن الناس في أحد أنحاء العالم يُكافحون من أجل الوصول إلى المياه العذبة أو من أجل البقاء على قيد الحياة في بيئاتٍ عنيفة، يقلق آخرون في جزء آخَر من العالم بشأن خصوصيتهم على الإنترنت.
الذكاء الاصطناعي وتغيُّر المناخ وحقبة التأثير البشري
إحدى أصعب الطرق لطرح السؤال المُتعلق بالأولويات هو التعرُّض لمناقشة مسألة تغيُّر المناخ والموضوعات ذات الصلة مثل حقبة التأثير البشري: «لماذا نقلق بشأن الذكاء الاصطناعي إذا كانت المشكلة الملحَّة هي تغيُّر المناخ وكون مُستقبل الكوكب في خطر؟» أو دعونا نستعير عبارةً من الثقافة السياسية الأمريكية: «إنه المناخ، أيها الغبي!» وسوف أوضِّح هنا هذا التحدِّي وأناقش تداعِياته على التفكير في أخلاقيات الذكاء الاصطناعي.
في حين يرفض بعض المتطرِّفين النتائج العلمية، يُقر العلماء وصانعو السياسات على نطاقٍ واسع بأن تغيُّر المناخ ليس فقط مشكلةً عالمية خطيرة ولكنه أيضًا «أحد أكبر التحدِّيات في عصرنا»، كما هو مذكور في نصِّ أهداف التنمية المُستدامة للأمم المتحدة. وهو ليس مشكلةً مُستقبلية: فدرجة الحرارة العالمية ومستويات البحر ترتفع بالفعل، مما يؤثر على البلدان والمناطق الساحلية المُنخفضة. وقريبًا جدًّا سوف يُضطر المزيد من الناس إلى التعامُل مع عواقب تغيُّر المناخ. ويستنتج الكثيرون من هذا أنه يجب علينا التصرُّف الآن بشكلٍ عاجل للتخفيف من مخاطر تغير المناخ؛ وأنا أقول «التخفيف» لأن العملية ربما قد تجاوزت بالفعل نقطة التوقُّف. إن الفكرة هي أن هذا ليس فقط الوقت المناسب للقيام بشيءٍ ولكن ربما فات الأوان بالفعل لتجنُّب جميع العواقب. وبالمقارنة مع مخاوف مؤيدي تجاوز الإنسانية بشأن الذكاء الفائق، فإن هذه المخاوف مدعومة بشكلٍ أفضل بالأدلة العلمية وحازت دعمًا كبيرًا بين النُّخب المُثقفة في الغرب — التي ضجرت من النزعة الشكية ما بعد الحداثية وسياسات الهوية البيروقراطية — التي ترى الآن سببًا للتركيز على مشكلة يبدو أنها حقيقية للغاية وواقعية للغاية وعالمية للغاية: تغيُّر المناخ يحدث حقًّا ويؤثر على كلِّ شخص وكل شيء في هذا الكوكب. وتدعو حملة جريتا ثونبرج والاعتصامات المناخية، على سبيل المثال، إلى توجيه الاهتمام إلى أزمة المناخ.
«لماذا نقلق بشأن الذكاء الاصطناعي إذا كانت المشكلة الملحَّة هي تغيُّر المناخ وكون مُستقبل الكوكب في خطر؟»
لا يتبنَّى الجميع هذا المصطلح؛ فهو مصطلح مُثير للجدل حتى بين الجيولوجيين، وقد شكك البعض في تركيزه على أهمية البشر. على سبيل المثال، قد جادلت هاراواي (٢٠١٥) من منظور ما بعد الإنسانية بأن الأنواع الأخرى والعوامل «اللاحيوية» تلعب أيضًا دورًا في البيئة المتحولة. ولكن حتى من دون مفهوم مُثير للجدل مثل حقبة التأثير البشري، فإن تغيُّر المناخ والمشكلات البيئية (الأخرى) ستظلُّ باقية، ويجِب على السياسة التعامُل معها، والأفضل أن يكون ذلك في أقرب وقتٍ ممكن. فماذا يعني هذا بالنسبة إلى سياسة الذكاء الاصطناعي؟
يعتقد العديد من الباحثين أن الذكاء الاصطناعي والبيانات الضخمة يُمكن أن تُساعدنا أيضًا في علاج العديد من مشكلات العالم، بما في ذلك تغيُّر المناخ. وعلى غرار المعلومات الرقمية وتقنيات الاتصالات بشكلٍ عام، يمكن أن يُسهم الذكاء الاصطناعي في التنمية المستدامة وفي التعامُل مع العديد من المشكلات البيئية. ومن المُرجَّح أن يُصبح الذكاء الاصطناعي المُستدام اتجاهًا ناجحًا في البحث والتطوير. ومع ذلك، يمكن أن يجعل الذكاء الاصطناعي الأمور أسوأ فيما يخصُّ البيئة؛ وبالتالي فيما يخصُّنا نحن جميعًا. ولنتذكَّر مجددًا زيادة استهلاك الطاقة والنفايات. ومن منظور مشكلة حقبة التأثير البشري، فإن المخاطرة تكمُن في أن البشر يمكن أن يستخدموا الذكاء الاصطناعي لإحكام قبضتهم على الأرض، مما سيزيد من حدة المشكلة بدلًا من حلِّها.
ومع ذلك، فإن هذه السيناريوهات لن تكون فقط مستبدة وتتعدَّى على استقلالية البشر، بل ستساهم أيضًا بشكلٍ أساسي في مشكلة حقبة التأثير البشري نفسها: فالوكالة البشرية المُفرطة، هذه المرة يتم تفويضها من قِبل البشر إلى الآلات، ستُحول الكوكب بأكمله إلى مجرد مَورِد وآلة للبشر. يتم «حل» مشكلة حقبة التأثير البشري من خلال الوصول بها إلى النقيض التكنوقراطي، مما يؤدي إلى عالَمٍ من الآلات يُعامَل فيه البشر أولًا كأطفال يجب رعايتهم وربما في وقتٍ لاحق يتم تجاهلهم تمامًا. وفي هذا النوع من التأثير البشري المُتعلق بالبيانات الضخمة والسيناريو المألوف جدًّا الذي يتم فيه إحلال الآلات محلَّ البشر، نعود مرَّة أخرى إلى سيناريوهات الأحلام والكوابيس.
جنون الفضاء الجديد والإغراء الأفلاطوني
ثمَّة إجابة أخرى على تغيُّر المناخ وحقبة التأثير البشري، والتي هي أيضًا رؤية مُولعة بالتكنولوجيا وربما ترتبط أحيانًا بسرديات تجاوز البشرية، وهي: قد نُدمر هذا الكوكب، ولكن يُمكننا الهرب من الأرض والذهاب إلى الفضاء.
لا يمثل الذهاب إلى الفضاء مشكلةً في حدِّ ذاته. بل إن له فوائد مُحتملة. على سبيل المثال، يمكن أن تساعد الأبحاث في كيفية البقاء على قيد الحياة في بيئاتٍ أكثر تطرفًا في التعامُل مع المشكلات على الأرض، وفي اختبار التقنيات المُستدامة، واتخاذ منظور كوكبي. ضع في اعتبارك أيضًا أن مشكلة حقبة التأثير البشري يُمكن أن تكون ناجمةً عن أن تكنولوجيا الفضاء منذ سنوات طويلة أتاحت لنا رؤية الأرض من بُعد. وبالنظر إلى صورة سيارة ماسك مرةً أخرى: يعتقد بعض الناس أن السيارة الكهربائية حلٌّ من حلول المشكلات البيئية، دون التشكيك في افتراض أن السيارات هي أفضل وسيلة للنقل ودون التفكير في كيفية إنتاج الكهرباء. على أي حال، هناك أفكار مثيرة للاهتمام.
ولكن أحلام الفضاء تُعد إشكاليةً إذا كانت نتيجتها هي إهمال المشكلات الأرضية، وإذا كانت عرضًا من أعراض الحالة التي شخَّصتها حنة أرنت (١٩٥٨) بالفعل عندما كتبت عن البشر: الكثير من التجريد والاغتراب. أشارت حنة إلى أن العِلم يدعم رغبة دفينة في مغادرة الأرض: حرفيًّا، من خلال تكنولوجيا الفضاء (في عصرها، سبوتنيك) وأيضًا من خلال طُرق رياضية تُجردنا وتَعزلنا مما أصِفه بحياتنا الأرضية الفوضوية المُتجسِّدة والسياسية. ومن هذا المنظور، يمكن تفسير أحلام مؤيدي تجاوز البشرية بالذكاء الفائق وبمُغادرة الأرض على أنها تداعِيات لنوع إشكالي من الاغتراب والهروب. إنها الفكر الأفلاطوني وفكر تجاوز الإنسانية في أوضح صوره؛ إن الفكرة هي التغلُّب ليس فقط على قيود الجسد البشري، ولكن أيضًا على قيود ذلك «النظام الداعم للحياة»: أي الأرض نفسها. فالجسد ليس هو السجن الوحيد، بل الأرض نفسها، ومن ثَم علينا أن نهرُب منها.
بالتالي، فإحدى مخاطر الذكاء الاصطناعي هي أنه يُمكِّن هذا النوع من التفكير ويُصبح آلة للاغتراب: أداة لمغادرة الأرض وإنكار حالتنا الوجودية الاعتمادية الضعيفة والجسدية والأرضية. بعبارةٍ أخرى: صاروخ. مرة أخرى، لا تُمثل الصواريخ مشكلة في حدِّ ذاتها. إنما المشكلة هي مزج تقنيات مُعينة مع سرديات مُعينة. فعلى الرغم من أن الذكاء الاصطناعي يمكن أن يكون قوة إيجابية بالنسبة إلى حياتنا الشخصية، والمجتمع، والبشرية، فإن مزيجًا من تعزيز الاتجاهات التجريدية والاغترابية في العلوم والتكنولوجيا مع خيالات تجاوز الإنسانية و«تجاوز الأرض» قد يؤدي إلى مستقبلٍ تكنولوجي مؤذٍ للبشر وللكائنات الحية الأخرى على الأرض. إذا هربنا من مشكلاتنا بدلًا من التعامُل معها — كما في مشكلة تغيُّر المناخ، على سبيل المثال — فقد نفوز بالمريخ (حتى الآن) ولكننا سوف نخسر الأرض.
عودة إلى الأرض: نحو ذكاء اصطناعي مستدام
دعوني أعود إلى المشكلة العملية جدًّا للأولويات والمخاطر الحالية والحقيقية المُتعلقة بتغيُّر المناخ. ماذا يجب أن تفعل أخلاقيات الذكاء الاصطناعي وسياساته في ضوء هذه التحديات؟ وعندما تكون هناك خلافات بشأن قيمة حياة الكائنات غير البشرية، فكيف يُمكن حلها؟ سيتفق معظم الناس على أن تسليم السيطرة إلى الذكاء الاصطناعي أو الهروب من الأرض ليست حلولًا جيدة. لكن ما هو الحل الجيد؟ وهل يُوجَد حل؟ إذا ما أجبنا إجابةً نافعة على هذه الأسئلة، فستقودنا بالضرورة إلى الأسئلة الفلسفية المتعلقة بكيفية تعامُلنا بوصفنا بشرًا مع التكنولوجيا ومع بيئتنا. كما تقودنا أيضًا إلى الفصل المتعلق بالتكنولوجيا: ماذا يمكن أن يفعل الذكاء الاصطناعي وعلم البيانات من أجلنا، وماذا يُمكننا أن نتوقَّع من الذكاء الاصطناعي منطقيًّا؟
ومع ذلك، لا يعني هذا بالضرورة «إنقاذ الكوكب». يمكن للذكاء الاصطناعي أيضًا أن يُسبب مشكلات ويجعل الأمور أسوأ. ولنفكر مرةً أخرى في التأثير البيئي السلبي الذي يمكن أن يُخلفه الذكاء الاصطناعي نظرًا إلى الطاقة والبِنى التحتية والمواد التي يعتمِد عليها. ولنفكر ليس فقط في استخدام الذكاء الاصطناعي ولكن أيضًا في إنتاجه: قد تكون الكهرباء مُنتجَة بطرق غير مستدامة، كما أن إنتاج الأجهزة المدعومة بالذكاء الاصطناعي يستهلك الطاقة والمواد الخام وينتج نفايات. أو فلنفكر في «الدفع الذاتي» الذي اقترحه فلوريدي وآخرون؛ إذ يقترحون أن الذكاء الاصطناعي قد يُساعدنا في التصرف بطرقٍ بيئية جيدة عن طريق مساعدتنا في الالتزام بخيارنا المفروض ذاتيًّا. ولكن هذا الأمر ينطوي على مَخاطره الأخلاقية الخاصة: فليس من الواضح أنه يحترم استقلال البشر وكرامتهم، كما يدعي الكُتَّاب، وقد يسير في اتجاه الذكاء الاصطناعي الحميد الذي يعتني بالبشر لكنه يُدمر حريتهم ويُساهم في مشكلة حقبة التأثير البشري. وهناك على الأقل خطورة فرض أشكالٍ جديدة من السلطة الأبوية والاستبداد. علاوةً على ذلك، قد يتماشى استخدام الذكاء الاصطناعي لمواجهة تغيُّر المناخ مع النظرة العالمية التي تُحوِّل العالم إلى مجرد مُستودع بيانات ومع الرؤية التي تختزل ذكاء الإنسان إلى معالجة البيانات؛ بل ربما نوع أدنى من معالجة البيانات يتطلَّب التحسين بواسطة الآلات. ومن غير المُرجَّح أن تعيد مثل هذه الرؤى تشكيل علاقتنا بالبيئة بطريقة تُخفِّف التحديات مثل تغيُّر المناخ والمشكلات المشار إليها بمصطلح التأثير البشري.
نواجه أيضًا خطر النزعة للحلول التكنولوجية بمعنى أن الاقتراحات لاستخدام الذكاء الاصطناعي لمعالجة المشكلات البيئية يُمكن أن تفترض أن هناك حلًّا نهائيًّا لجميع المشكلات، وأن التكنولوجيا وحدَها يمكن أن تُجيب عن أصعب أسئلتنا، وأننا يمكن أن نحل المشكلات بالكامل عن طريق استخدام الذكاء البشري أو الاصطناعي. ولكن المشكلات البيئية لا يمكن حلُّها عن طريق الذكاء التكنولوجي والعلمي؛ فهي مرتبطة أيضًا بالمشكلات السياسية والاجتماعية التي لا يمكن التصدي لها بالكامل عن طريق التكنولوجيا وحدَها. كما أن المشكلات البيئية دائمًا ما تكون مشكلاتٍ بشرية. والرياضيات وذُريتها التكنولوجية هي أدوات مُفيدة جدًّا، ولكنها محدودة فيما يتعلق بفهم المشكلات البشرية والتعامُل معها. على سبيل المثال، قد تتعارَض القِيَم. ولن يستطيع الذكاء الاصطناعي بالضرورة أن يُساعدنا في الإجابة عن السؤال حول الأولويات، وهو سؤال أخلاقي وسياسي مُهم يجب أن نترك للبشر الإجابة عنه. وتُعلِّمنا العلوم الإنسانية والاجتماعية أن نكون حذِرين جدًّا بشأن الحلول «النهائية».
علاوةً على ذلك، البشر ليسوا الوحيدِين الذين تُواجههم مشكلات؛ فالكائنات غير البشرية أيضًا تواجهها صعوبات، والتي غالبًا ما تُهمَل في المناقشات الخاصة بمستقبل الذكاء الاصطناعي. وأخيرًا، الرأي القائل بأننا يجِب أن نهرب من الأرض، أو الرؤية العالمية التي تقول إن كل شيءٍ عبارة عن بيانات نستطيع نحن البشر التلاعُب بها بمساعدة الآلات، يمكن أن يؤدِّيا في النهاية إلى توسيع الفجوة بين الأغنياء والفقراء وإلى أشكالٍ أوسع نطاقًا من الاستغلال والانتهاكات للكرامة الإنسانية، بالإضافة إلى تهديد حياة الأجيال القادمة عن طريق المخاطرة بتدمير ظروف الحياة على كوكبنا. إننا نحتاج إلى التفكير العميق في كيفية بناء مجتمعات وبيئات مُستدامة؛ إننا نحتاج إلى التفكير البشري.
الذكاء والحكمة
ومع ذلك، فطريقة تفكير البشر لها جوانب مُتعددة أيضًا. والذكاء الاصطناعي مرتبط بنوعٍ واحد من أنواع التفكير البشري والذكاء البشري: النوع المعرفي الأكثر تجريدًا. هذا النوع من التفكير قد أثبت نجاحًا كبيرًا، ولكنه له قيوده وهو ليس النوع الوحيد من التفكير الذي يُمكن أو يجب علينا مُمارسته. والإجابة عن الأسئلة الأخلاقية والسياسية المُتعلقة بكيفية العيش، وكيفية التعامُل مع بيئتنا، وكيفية التعامُل بشكلٍ أفضل مع الكائنات الحية غير البشرية تتطلَّب ما هو أكثر من الذكاء البشري التجريدي (على سبيل المثال، الحُجج، والنظريات، والنماذج) أو التعرُّف على الأنماط بواسطة الذكاء الاصطناعي. نحتاج إلى أشخاصٍ أذكياء وآلات ذكية، ولكننا أيضًا بحاجةٍ إلى الحدس والخبرة التي لا يمكن وصفُها بوضوح كامل، ونحتاج إلى التحلِّي بالحكمة العملية والفضيلة استجابةً إلى المشكلات والمواقف المادية ومن أجل تحديد أولوياتنا. قد تستنير هذه الحكمة بالعمليات المعرفية التجريدية وبتحليل البيانات، ولكنها تستند أيضًا إلى التجارب المُتجسِّدة الخاصة بالعلاقات والمواقف التي نمرُّ بها في العالم، وإلى التعامُل مع أشخاص آخرين، ومع المادية، ومع بيئتنا الطبيعية. ومن المُحتمل أن يعتمد نجاحنا في التصدي للمشكلات الكبيرة التي تُواجهنا في عصرنا على مزيج من الذكاء التجريدي — البشري والاصطناعي — والحكمة العملية الملموسة التي تم تطويرها على أساس التجارب والمُمارسات البشرية الملموسة والخاصة بالمواقف، بما في ذلك تجاربنا مع التكنولوجيا. وأيًّا كان الاتجاه الذي سيسير فيه تطوير الذكاء الاصطناعي، فإن البشر وحدَهم هم مَن يُواجِهون تحدِّي تطوير هذا النوع الأخير من المعرفة والتعلم. وعلى البشر أن يتصدَّوا له. فالذكاء الاصطناعي قادر على التعرُّف على الأنماط، ولكن الحكمة لا يمكن تفويضها إلى الآلات.