موقع أبونا abouna.org - إعلام من أجل الإنسان | يصدر عن المركز الكاثوليكي للدراسات والإعلام في الأردن - رئيس التحرير: الأب د.رفعت بدر

الرئيسية /
روح وحياة
نشر الأحد، ٢٢ يونيو / حزيران ٢٠٢٥
الذكاء الاصطناعي بين رؤية الفاتيكان وأخلاقيات التقنية: قراءة في مواقف البابا

د. لبنى حنا عماري :

 

في خضم السباق العالمي نحو تطوير أنظمة الذكاء الاصطناعي، ومع تصاعد النقاشات حول دور هذه التقنية في إعادة تشكيل الاقتصاد، والتعليم، والصحة، وحتى السياسة، برزت مواقف لافتة من الفاتيكان تعبّر عن رؤية أخلاقية وروحية متعمقة تجاه هذا التحوّل التكنولوجي الجذري. فبينما تركّز أغلب الحكومات والشركات الكبرى على الاستثمار في قدرات الذكاء الاصطناعي وتسويق فوائده، اختار الفاتيكان زاوية أخرى للنقاش: زاوية الإنسان، وكرامته، ومستقبل البشرية في ظلّ خوارزميات قد تتحكّم بأبسط تفاصيل حياتنا اليومية.

 

في خطابٍ حديث، عبّر البابا لاون الرابع عشر عن قلقه العميق إزاء التطور السريع للذكاء الاصطناعي وتأثيره المحتمل على البشرية. وأكد أن التكنولوجيا، رغم فوائدها الكبيرة، تحمل في طياتها مخاطر جسيمة إذا أُسيء استخدامها أو خرجت عن السيطرة. حذّر البابا من أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تآكل القيم الإنسانية والأخلاقية، مشيرًا إلى أن الآلات لا تمتلك ضميرًا أو إحساسًا بالمسؤولية الأخلاقية. كما أشار إلى مخاطر البطالة بسبب أتمتة الوظائف، مما قد يزيد من الفجوة الاجتماعية بين الأغنياء والفقراء. وشدّد على أن الذكاء الاصطناعي يجب أن يُستخدم لخدمة الصالح العام، وليس لتعزيز مصالح فئة قليلة على حساب الآخرين. ودعا العلماء والقادة السياسيين إلى وضع ضوابط أخلاقية صارمة لضمان أن تظل التكنولوجيا أداة لتعزيز العدالة والكرامة الإنسانية، وليس تهديدًا لها.

 

وفي ختام كلمته، دعا البابا لاون الرابع عشر إلى حوار عالمي شامل حول مستقبل الذكاء الاصطناعي، مؤكدًا أن الإنسانية يجب أن تبقى في قلب أي تطور تكنولوجي، لأن التقدّم الحقيقي هو الذي يحفظ كرامة الإنسان ولا يهدّد وجوده.

 

وكان الراحل البابا فرنسيس، قد عبّر في أكثر من مناسبة عن قلقه من الانزلاق نحو "ديكتاتورية البيانات"، حيث تتحوّل التقنيات الذكية إلى أدوات تسلّط لا إلى وسائل خدمة. وفي رسالته لعام 2024 بمناسبة اليوم العالمي للسلام، اختار عنوانًا دالًا: "الذكاء الاصطناعي والسلام". ولم يكن ذلك اختيارًا اعتباطيًا، بل رسالة مفادها أن التكنولوجيا، وإن بدت محايدة في جوهرها، فإن استخدامها دون إطار أخلاقي وإنساني قد يؤدي إلى تهديد أسس العدالة والسلام الاجتماعي.

 

تقوم مواقف الفاتيكان على رؤية فلسفيّة وروحيّة تؤكد أن الإنسان ليس مجرد 'مدخلات ومخرجات' تُرمّز لخوارزميات، بل كائن له حرية وكرامة لا تُختزل. ولذلك، يجب أن يصمّم الذكاء الاصطناعي ويوجّه ليخدم الإنسان ويحفظ كرامته، لا ليحلّ محلّه أو يقلّص دوره. إذ من المهم بناء خوارزميات ترتكز إلى قيم العدالة والشفافية والشمول، وتحترم الاختلاف الثقافي والديني.

 

الفاتيكان، لم يكتفِ بالتنظير بل دخل حيز العمل المؤسسي. ففي 28 شاط 2020، أُطلقت وثيقة "نداء روما لأخلاقيات الذكاء الاصطناعي" (Rome Call for AI Ethics) بتنظيم من أكاديمية الفاتيكان للحياة. شارك في التوقيع كل منMicrosoft (Brad Smith)  وIBM (John Kelly III)، إلى جانبFAO  والحكومة الإيطالية، قبل انضمام شركات مثلCisco  لاحقًا. تهدف الوثيقة إلى وضع إطار أخلاقي عالمي يُوجّه تطوير الذكاء الاصطناعي لخدمة الصالح العام، مبنيًّا على ستّة مبادئ أساسيّة: الشفافية، والشمول، والمساءلة، والحياد، والموثوقية، والأمان والخصوصية.

 

لكن، ما يميّز موقف الفاتيكان هو إدراكه العميق للتعقيدات التي يطرحها الذكاء الاصطناعي. فالبابا لا يتحدث عن التكنولوجيا بوصفها "شرًا" بحد ذاته، بل يحذر من استخدامها كوسيلة للهيمنة، أو تهميش الفئات الضعيفة، أو نشر المعلومات المضللة. وهذا التحذير يكتسب أهمية خاصة في زمن تولد فيه النصوص والصور والفيديوهات الزائفة بسهولة تفوق قدرة العقل البشري على تمييز الحقيقة من التزييف.

 

كما ويحذّر الفاتيكان من الانصهار بين الذكاء الاصطناعي وما يُسمّى "العقل الكلي المعرفي" (technocratic paradigm)، حيث يُعطى الذكاء الاصطناعي سلطة واسعة لاتخاذ قرارات ذات طابع أخلاقي أو قضائي، مما يعرف بـتناقص الدور البشري في الحكم. ففي وثيقةAntiqua et nova  كانون الثاني 2025، نُبه إلى أن الخطر يكمن ليس فقط في قدرات الآلة، بل في الاتجاه إلى التنازل عن مسؤوليتنا كأفراد ومجتمعات لصالحها. ولذلك، يصبح تعزيز مفهوم الحوكمة الأخلاقية للتكنولوجيا ضرورة ملحة، عبر وضع ضوابط واضحة، ومسارات للمساءلة، وضمان تجاوز هيمنة الخوارزميات على مصائر البشر.

 

من اللافت أيضًا أن الفاتيكان يسعى إلى إشراك مختلف الأديان في النقاش حول الذكاء الاصطناعي، استنادًا إلى خبرتها الطويلة في معالجة الأسئلة الوجودية والمعنوية التي باتت عنصرًا أساسيًا في الحوار التقني: ما معنى أن نكون بشرًا؟ من يملك سلطة اتخاذ القرار؟ وما هي حدود ما يجب أن تفعله التكنولوجيا؟ يمثل هذا التفاعل في مؤتمر "AI Ethics for Peace" في هيروشيما (تموز 2024)، حيث وقع ممثلو الديانات على "نداء روما لأخلاقيات الذكاء الاصطناعي"، مؤكدين أن الأخلاقيات يجب أن تُبنى في قلب التقنية منذ التصميم.

 

في الختام، يقدّم الفاتيكان نموذجًا نادرًا لرؤية دينية عقلانية تواكب العصر دون رفضه، وتواجه الذكاء الاصطناعي لا كخصم بل كمسؤولية. في زمن تهيمن فيه الأسواق على مصير التقنية، تظل هذه الرؤية الأخلاقية ضرورية للحفاظ على البُعد الإنساني في قلب الثورة الرقمية، وتُذكّرنا بأن التكنولوجيا التي لا تُقاد بالقيم، قد تقودنا إلى مستقبل نكون فيه أقل إنسانية، حتى وإن كنا أكثر ذكاءً.