يحدث هذا في المجال الروحي. إذ يتسلل الذكاء الاصطناعي إلى الإنسان من باب تيسير جمع المعلومات وترتيبها. ثم يلامس سلطة الإرشاد من غير أن يمتلك شروطها العلمية والأخلاقية، فتظهر ملامح "روحانية رقمية" يتداخل فيها السؤال الديني مع تجربة المستخدم، وتتزاحم فيها المرجعيات بين عالِمٍ مسؤول ونظامٍ احتماليٍّ يَعرض جواباً مقنعاً في ظاهره.
تفتح تفاعلات الذكاء الاصطناعي مع الأعمال الدينية في العالم العربي باب مخاطر أخلاقية وقانونية كثيرة. تطور دور الذكاء الاصطناعي في المجال الديني من بدايته أداة محادثةٍ يومية، إلى أن صار جزءاً من عملٍ مؤسسي في الإرشاد والفتوى وخدمات الشعائر. ساهم هذا في تحوّل مركز الثقة، والتوجيه غير المرئي والخصوصية، وتوزع المسؤولية عند الخطأ. كل ذلك يحتِّم بلورة رؤى عملية لضبط العلاقة بين الدين والذكاء الاصطناعي، تنطلق من اعتماد التقنية وسيلة لا مرجعية، والاستفادة منها بحوكمةٍ واضحة، وتصميمٍ يُظهر حدود الدور، وتربيةٍ رقمية تُرسّخ مهارات التمييز والتحقق. حمايةً للإنسان من تبعيةٍ جديدة، وصوناً لمرجعية الخطاب الديني في زمنٍ تتسارع فيه الوسائط وتشتد فيه قوة الإقناع الخوارزمي.
وفي السياق نفسه، يوضح عبد الفتاح بن عمر في مقال "كيفية الاستفادة من تكنولوجيا الإعلام والاتصال في الدعوة إلى الله" المنشور سنة 2022 أن توظيف تقنية الإعلام والاتصال في الدعوة لا ينبغي أن يُفهم استخداماً تقنياً محايداً فحسب، بل مجالاً يحتاج إلى وعي بالمقاصد والضوابط والمعايير. إذ إن الوسيلة الحديثة تغيّر علاقة الداعية بالمتلقي، وتؤثر في طريقة عرض الرسالة واستقبالها والتفاعل معها.
وتساعد دراسة ليور هاليفي "محاكمة بدائع التحديث" المترجمة سنة 2024 على توسيع هذا المدخل. إذ توضّح أن علاقة المسلمين بالتقنيات والأشياء الحديثة لم تكن علاقة قبول أو رفض مجردين، بل كانت غالباً اختباراً فقهياً وأخلاقياً لأدوات تدخل الحياة اليومية وتغيّر الممارسة الاجتماعية. فقد أثارت أشياء مثل مشغّل الإسطوانات والسكك الحديدية والمنتجات الصناعية الحديثة أسئلة عن الاستخدام والملاءمة والحدود الشرعية. ومن ثم، فإن سؤال الذكاء الاصطناعي اليوم ليس استثناءً، بل امتداد لمسار أطول من تفاعل الإسلام مع الوسائط والتقنيات الحديثة.
ومن هذا المناخ العام، خرج الذكاء الاصطناعي مشروعاً لتحويل بعض القدرات الذهنية إلى عمليات قابلة للمحاكاة، تشمل التعلم والاستدلال وبناء الإجابات. ومنذ صياغة المصطلح أكاديمياً في مؤتمر دارتموث سنة 1956، ارتبط الذكاء الاصطناعي بفكرة أن بعض مظاهر الذكاء يمكن وصفها بدقة تسمح للآلة بمحاكاتها أو مساعدة الإنسان فيها، كما تذكر كلية دارتموث في صفحة "صياغة مصطلح الذكاء الاصطناعي في دارتموث" المنشورة على موقعها الرسمي.
وتعمل النماذج اللغوية الكبيرة، وهي أبرز تطبيقات الذكاء الاصطناعي المنتشرة حالياً، بالتدريب على كميات ضخمة من النصوص، ثم التعامل مع اللغة وحداتٍ صغيرة أو "رموزاً"، وإنتاج الإجابة بتوقع الكلمة أو الجزء التالي الأكثر احتمالاً داخل السياق. ولذلك فهي لا "تفهم" الدين كما يفهمه العالم أو المفتي، ولا تستحضر الحكم الشرعي مسؤوليةً علمية وأخلاقية، بل تنتج جواباً لغوياً منسجماً اعتماداً على أنماط تعلمتها من البيانات، كما تشرح شركة آي بي إم في مقال " وات آر لارج لانغويج موديلز؟" (ما النماذج اللغوية الكبيرة؟) المنشور سنة 2025.
وتزداد أهمية هذه المسألة في الخطاب الشرعي. لأن اللغة الدينية ليست مجرد معلومات، بل تتضمن مقاماً وسياقاً ومذهباً وحالاً خاصاً للسائل ودرجةً من اليقين والمسؤولية. فالجواب الشرعي لا يقوم فقط على استدعاء نص أو معلومة، بل على فهم موضع السؤال، وتمييز العام من الخاص، والمطلق من المقيد، والفتوى من الوعظ، والإرشاد من الحكم. لذلك لا تكمن المشكلة فقط في احتمال الخطأ، بل في أن الخطأ قد يأتي في صياغة مطمئنة وواثقة، فيلتبس الفرق بين جواب احتمالي صادر عن نظام لغوي، وجواب علمي مسؤول صادر عن مرجعية مؤهلة.
جاءت مرحلة "الأنظمة الخبيرة" لتمنح هذا التصور شكله التطبيقي الأوضح، من معرفة تُخزَّن، وقواعد تُنمذج الخبرة، ومحرك استدلال يستنتج توصيات وإجابات. وهنا صار السؤال الديني أكثر حساسية، لأن تحويل المعارف إلى "قواعد داخل نظام" يطرح إشكالات عن هوية كاتب هذه القواعد، ومعايير مراجعتها، وحدود الثقة بها حين تتصل بالتوجيه والوعظ والإرشاد. وهو ما تعرضه روابي الصاعدي وهند شريفي في دراستهما "الأنظمة الخبيرة واستخدامها في الدعوة إلى الله" المنشورة سنة 2023.
غير أن النماذج الحالية تتجاوز منطق الأنظمة الخبيرة التقليدية. فهي لا تكتفي باستدعاء قاعدة محفوظة أو تصنيف سؤال داخل أرشيف، بل تولِّد لغة جديدة وتلخص وتشرح وتعيد الصياغة وتحاور المستخدم كما لو كانت تفهم قصده وحالته. وفي السياق العربي، مهّدت "الدعوة الرقمية" لهذا التحول، إذ جعلت المحتوى الديني حاضراً طوال الوقت، وحوَّلت المنصات إلى ساحات استقبال ورد وتوجيه، ورسَّخت لدى الجمهور توقع الخدمة الفورية وسهولة الوصول، كما يشرح عادل هندي في بحث "وسائل التواصل الاجتماعي وتوظيفها الدعوي" المنشور سنة 2018.
ومع ظهور الذكاء الاصطناعي، لم يعد الأمر متعلقاً بإتاحة المحتوى الديني على المنصات فحسب، بل بإنتاج جواب ديني فوري يبدو شخصياً ومباشراً. ويمكن تلخيص الأدوار الأساس للذكاء الاصطناعي الآن في الخطاب الشرعي في أربع مجالات. تسهيل الوصول إلى المادة الدينية بالبحث والتصنيف، وتلخيص النصوص والفتاوى وترجمتها وتبسيطها، وتقديم محادثة أولية مع المستخدمين بمساعدين رقميين، ودعم المؤسسات الدينية في تنظيم الأرشيف وفرز الأسئلة وربط المستخدم بالمصدر المتخصص. وتعرض دائرة الإفتاء الأردنية هذه الاستخدامات في مقال "أثر الذكاء الاصطناعي في صياغة الفتاوى" المنشور سنة 2024، في سياق الحديث عن أثر الذكاء الاصطناعي في نشر الفتاوى وصياغتها وتيسير الوصول إليها.
ومع اتساع هذا الحضور، برز اتجاه مؤسسي يسعى إلى ضبط العلاقة مع التقنية بدل الاكتفاء برفضها أو تركها للفوضى، بإعداد نظمٍ قادرة على فهم أدوات العصر وتطوير أطر عمل دعوية وبحثية تراعي التحديث من دون فقدان المرجعية العلمية والشرعية. يظهر هذا المعنى في نقاشات "مؤتمر الأزهر العالمي للتجديد في الفكر الإسلامي: مسيرة الأزهر الشريف في التجديد" المنعقد سنة 2020، ونراها في المادة المنشورة على بوابة الأزهر الإلكترونية، بما يفيد أن التجديد لا يتعلق بالمحتوى وحده، بل بأدوات تقديمه أيضاً.
وتتضاعف أهمية هذا الضبط في العالم العربي بسبب مسألة اللغة. فجزء معتبر من الالتباس يبدأ من المصطلح قبل المعنى، ومن ترجمة المفهوم قبل تنزيله على الواقع. لذلك ظهرت مبادرات معيارية لتجميع مصطلحات البيانات والذكاء الاصطناعي وتقديم تعريفات بالعربية والإنجليزية، بما يساعد الباحثين والإعلاميين والمهتمين على تقليل التشوش اللغوي الذي قد يظهر في فهم القضايا الدينية المتصلة بهذه الأدوات. من هذه المبادرات "معجم البيانات والذكاء الاصطناعي" المنشور على منصة سوار للمعاجم اللغوية التابعة لمجمع الملك سلمان العالمي للغة العربية.
لكن الضبط النظري يظل ناقصاً دون الانتباه للمخاطر العملية. إذ تكشف التجارب أن بعض أدوات الذكاء الاصطناعي قد تنتج إجابات مقنعة في ظاهرها مع أخطاء في النصوص أو العزو، مثل الخلط في نسب الآيات أو تركيب معلومات غير دقيقة. وهذا يجعل التحقق العلمي شرطاً حاكماً عند التعامل مع المخرجات، خصوصاً حين تمس النصوص والهوية الدينية، كما يحذر مقال "الذكاء الاصطناعي وأثره في تشويش الهوية الدينية: تحريف النصوص نموذجاً" المنشور على موقع الأزهر الشريف في يناير 2025.
وتفتح هذه المخاطر أسئلة أخلاقية وقانونية مباشرة. هل يعرف المستخدم أنه أمام جواب آلي لا فتوى؟ هل يحق للنظام أن يصوغ إجابة شرعية من دون مراجعة بشرية؟ من يتحمل المسؤولية إذا أخطأ في آية أو حديث أو حكم؟ وهل تُحفظ خصوصية الأسئلة الدينية التي قد تتضمن أسراراً شخصية أو أسرية؟ لذلك لا يكفي تحسين أداء النظام تقنياً، بل يجب أن يصاحبه وضوح في حدود الدور، وإعلان طبيعة الإجابة، ومراجعة بشرية عند التعامل مع مسائل الفتوى والإرشاد.
وفي مستوى أكثر تخصّصاً، وضعت المرجعيات الفقهية قواعد عامة للتعامل مع الذكاء الاصطناعي. فالأصل الإباحة من حيث الإنشاء والاستعمال، لكن ضمن ضوابط لمشروعية المقصد ودفع الضرر وحفظ الحقوق والالتزام بالأمانة والشفافية والأخلاقيات. ويتجسد ذلك في "القرار رقم 258 (3/26) بشأن الذكاء الاصطناعي: أحكامه، وضوابطه، وأخلاقياته" الصادر عن مجمع الفقه الإسلامي الدولي في نوفمبر 2025.
كذلك استخدمت تطبيقات الذكاء الاصطناعي في تسهيل عمل المختصين من رجال الدين. فظهرت مشاريع توظّف الذكاء الاصطناعي لمساندة الحوار الدعوي، مثل مشروع "داعية الذكاء الاصطناعي باللغة الفلبينية" في السعودية، الذي يستهدف مساندة دعاة موقع "دين الإسلام" في محاورة غير المسلمين والإجابة عن استفساراتهم بلغتهم، بتوليد ردودٍ قريبة من أسلوب الدعاة وبما يدعم عملهم ولا يستبدله. بالتوازي مع ذلك، تحوّل الذكاء الاصطناعي إلى "مُرافِق تعبّدي" يراقب الأداء ويقترح التقدّم. إذ لا تقتصر تطبيقات مثل "تَرتيل"، المدعوم بالذكاء الاصطناعي، على التعليق الفوري على تلاوة القرآن يكشف ما فيها من أخطاء الكلمات والتشكيل، بما يسهل مراجعة القرآن وحفظه.
وفي امتداد هذا المسار من "المحادثة اليومية" إلى العمل المؤسسي، يبرز توظيف الذكاء الاصطناعي داخل الإفتاء أداةً لتنظيم الخدمة وضبط المخرجات لا "مفتياً بديلاً". إذ أطلقت وزارة الأوقاف والشؤون الإسلامية بدولة قطر على الشبكة الإسلامية "إسلام ويب"، خدمة "الفتاوى الحية إيه آي"، في سبتمبر 2025، بهدف إتاحة استجابة سريعة لأسئلة المستفتين، يوفرها الذكاء الاصطناعي بإشراف بشري من متخصصين. كذلك طرح الأزهر في أغسطس 2025 مشروع منصة "الفتوى الذكية" لتوظيف الذكاء الاصطناعي في الإفتاء. في الحالتين يُستخدم الذكاء الاصطناعي لتحسين التجربة وتيسير الوصول إلى المعلومات، مع رقابة علمية وضوابط شرعية حاكمة للمخرجات. وفي الإمارات طُرح نموذج "إدارة خدمة الفتوى خطوة بخطوة" على منصة رقمية تشدد على الأمن السيبراني والجودة وبناء قواعد بيانات آمنة تمنع الاستغلال أو العبث. وفي الجزائر ارتبط الخطاب الرسمي بمركزية البيانات، نقلةً تستند إلى قواعد تضم ملايين الفتاوى، بشرط ألا تتحول السرعة إلى خطأ أو سوء استخدام، وأن يقودها مفتٍ يجمع بين رسوخ العلم وفهم الواقع والوعي بالتقنية. وفي المقابل، وضعت دار الإفتاء المصرية في سبتمبر 2025 حداً للاعتماد المباشر على تطبيقات الذكاء الاصطناعي، مؤكدةً عدم جواز أخذ الفتوى منها لافتقارها أدوات الاجتهاد وتقدير اختلاف الزمان والمكان والظروف.
اتسع النقاش عربياً إلى مساحات تمس الشعائر والخطاب الديني وتتجاوز تسهيل المناقشات الدينية والحصول على الفتوى. فقد طُرحت أكاديمياً إمكانية الاستفادة منه في إعداد خطبة الجمعة، وخلص مجدي سليمان، في دراسته "حكم تولي أجهزة الذكاء الاصطناعي كتابة خطبة الجمعة وإلقائها" المنشورة سنة 2026، إلى جواز الاستعانة به في كتابة الخطبة للإمام غير القادر على صياغة خطبة محكمة، مع التأكيد على عدم جواز تولي أجهزة الذكاء الاصطناعي مثل الآلي إلقاء الخطبة. وفي السياق نفسه، شهد المغرب في سنة 2025 توظيفاً للذكاء الاصطناعي لتقييم خطب الجمعة ضمن برنامج لترشيد مضامينها وتوحيدها، فخلصت التحليلات إلى إيجابية المحتوى، مع التنبيه إلى ارتباط الأثر الاجتماعي بتلقي الناس وتفاعلهم، لا بالنص وحده.
انتقل توظيف الذكاء الاصطناعي من مجال "الخطاب" إلى مجال "الخدمة" المرتبط بأداء الشعائر، وبخاصة الزكاة. فمنذ فبراير 2025 بدأت عُمان تنفيذ التحول الرقمي للزكاة بمنصة إلكترونية تتيح حساب الزكاة ودفعها، إلى جانب خدمات التحصيل والتوجيه. ثم اتجهت المرحلة التالية نحو بحث توظيف الذكاء الاصطناعي في إدارة الزكاة لتحسين جمع البيانات والتحقق منها، وتسريع فرز الطلبات وفق الاستحقاق، ورفع كفاءة وعدالة التوزيع. وذلك ضمن توصيات مؤتمر الزكاة الثالث بصلالة، مع الدعوة لتعزيز العمل المؤسسي وتطوير المنصة.
ويبلغ هذا المسار ذروته في الحج والعمرة ضمن توجهات "الحج الرقمي"، إذ يُوظَّف الذكاء الاصطناعي لدعم التجربة قبل الرحلة وأثناءها. ففي موسم حج 2025 اعتمدت وزارة الحج والعمرة بالسعودية حقائب تدريبية إلزامية بالواقع الافتراضي لتأهيل بعض الحجاج، بما يشمل معلومات شرعية وصحية وتنظيمية مرتبطة بالحشود والتفويج والنقل، ما يرفع الجاهزية ويقلل الأخطاء. وداخل الحرم، ظهرت أدوات إرشاد تعتمد على الذكاء الاصطناعي، إذ دُشِّن آلي يعمل بالذكاء الاصطناعي "منارة" في مارس 2025 للإجابة عن أسئلة الزوار بعدة لغات في المسجد الحرام، ما يسهّل الوصول للمعلومة ويعزز تنظيم الإرشاد في بيئة شديدة الازدحام.
ووظف الذكاء الاصطناعي في العمل الكنسي أداةً تساعد على تطوير التعليم والتواصل وتنظيم المواد الدينية مع بقاء الإرشاد الروحي تحت إشراف الكاهن والخدّام. ففي دمشق نُظّمت دورة بعنوان "الذكاء الاصطناعي في خدمة الكنيسة" في أكتوبر 2024، بهدف تدريب خدّام وقيادات كنسية على فهم هذه الأدوات وكيفية استخدامها في خدمة احتياجات الكنيسة، وفي المنيا في مصر في يوليو 2025 عُقد لقاء تدريبي "إيه آي كوبتيك داي" (يوم الأقباط للذكاء الاصطناعي)، ركّز على استخدام أدوات الذكاء الاصطناعي لإعداد محتوى تعليمي وخدمي، مثل النصوص والمواد الصوتية والصور، مع التأكيد على قواعد الاستخدام الآمن منها حماية الخصوصية والتأكد من دقة ما يُنشر.
على المستوى العالمي المقارن، تبدو التجربة الدينية مع الذكاء الاصطناعي وكأنها انتقلت من "معلومة دينية عند الطلب" إلى "محادثة روحية" تحاكي الإرشاد. انتشرت تطبيقات محادثة ذات طابع ديني مثل "آسك بودا" (اسأل بوذا) ) و"ماي قرآن" (قرآني)، وتجارب وعظية مثل "رابي بوت" (حاخام آلي). وشهدت دول مثل سويسرا تجربة "إي آي جيسَس" (يسوع بالذكاء الاصطناعي) داخل كنيسة "سان بيير" في لوتسرن، إذ يطرح الزوار أسئلة شخصية ويتلقون ردوداً مطوّلة. وقد كان الفاتيكان من أوائل المؤسسات التي دفعت منذ 2021 باتجاه نقاش أخلاقيات الذكاء الاصطناعي عند توظيفه في المجال العام، وهو ما يضيء المقارنة مع العالم العربي، إذ يبرز أن التفاعل اليومي قد يكتسب سريعاً صفة التوجيه إذا لم تُضبط حدود الدور.
وفي الاتجاه المؤسسي العالمي، تميل المؤسسات الدينية والتعليمية إلى تأطير الذكاء الاصطناعي "أداة مساعدة" لا بديلاً عن سلطة الإرشاد أو المسؤولية العلمية. فإرشادات "معهد بوسي" التابع لمجلس الكنائس العالمي تُشدِّد على منع إدخال البيانات الشخصية والحساسة في الأدوات، وعلى التحقق النقدي من المخرجات قبل اعتمادها، وعلى الإفصاح عن استخدام الأداة عند توظيفها، مع رفض أن يكتب الذكاء الاصطناعي العمل كاملاً أو جزءاً كبيراً منه. ما يجعل القاعدة الحاكمة هي أن سرعة الوصول لا تُغني عن التمييز البشري ولا عن الرقابة المؤسسية.
يؤدِّي استخدام الذكاء الاصطناعي في الفتوى لخطر تغير طبيعة الفتوى من نظام معقد إلى معلومة مخزنة. يأتي الإشكال هنا من أن المعلومة وحدها لا تكفي في المجال الديني. فالفتوى الدينية عملية فهم أعقد للمصادر التشريعية وللواقع، لذا فإنها تتغير بتغير الجهات الأربع. الزمان والمكان والأحوال والأشخاص، وتحتاج إلى مراعاةٍ للسياق ولحال المستفتي. وهو ما تشرحه دار الإفتاء المصرية في صفحة "منهج الفتوى في دار الإفتاء" المنشورة في يوليو 2011، حين تؤكد مراعاة هذه الجهات الأربع وتربط الفتوى بعملٍ مؤسسيٍّ منضبط لا بنقلٍ آلي.
ويتضاعف هذا الالتباس في بيئات المحادثة اليومية. فالتشابه في شكل الخدمة قد يصنع تشابهاً في الثقة، فيُعامِل المستخدم جواباً آلياً معاملة جواب مؤسسة أو عالم. لذلك فإن التحدي لا يقف عند محاولة ضبط المحتوى وحده، بل لا بد من ضبط "طريقة التقديم"، على أن تنطوي على لغة التنبيه وحدود الخدمة ومتى يُحال المستفتي إلى مختص. وتُفيد دراسات ضوابط الإفتاء بالإعلام والوسائط الإلكترونية في التنبيه إلى خصوصية الإفتاء بالوسائط، وضرورة الانتباه للسياقات وما يترتب على النشر والتلقي، كما في بحث عبد الرزاق عبد المجيد ألارو "ضوابط الإفتاء في أجهزة الإعلام والوسائط الإلكترونية" المنشور سنة 2018.
ومن زاوية قانونية وأخلاقية حديثة، تبرز قيمة "الشفافية" حاجزاً ضد التمويه. فلا بد أن يعرف المستخدم بوضوح أنه يتفاعل مع نظامٍ آلي، وأن تُعرض عليه حدود الاعتماد ومخاطر التلقي. تظهر هذه الفكرة في "التنظيم (الاتحاد الأوروبي) رقم 2024/1689" المعروف بقانون الذكاء الاصطناعي. إذ تنص المادة الخمسون على إلزام مُقدِّمي الأنظمة المصممة للتفاعل المباشر مع الناس بإبلاغهم بأنهم يتفاعلون مع نظام ذكاء اصطناعي بوضوح منذ التفاعل الأول.
ثم تأتي الخصوصية خطراً مباشراً. فالسؤال الديني يمر غالباً بمناطق حساسة مثل الذنب والأسرة والمال والعلاقات والاعتقاد، وأي تحويلٍ لهذه الاعترافات إلى بياناتٍ قابلة للتخزين والتحليل يفتح باب التسريب أو الابتزاز أو الاستغلال التجاري. وتوضح تجربة "ديوس إن ماكينا" (إله في الآلة) في كنيسة بمدينة لوسرن في سويسرا هذا المعنى عملياً، إذ نُصح الزوار صراحةً ألا يكشفوا معلومات شخصية، مع تأكيد أنهم يدخلون التجربة على مسؤوليتهم.
وتتصل الخصوصية بخطرٍ أدق، يتمثل في "التوجيه غير المرئي"، أي تشكيل الإدراك تدريجياً بالتكرار والانتقاء ونبرة اليقين، فيُعاد بناء الحساسية الدينية والأخلاقية من داخل المحادثة نفسها. ومن هنا يصبح سؤال الأخلاق سؤالاً عن "ما الذي يجب ألا نفعله" قبل سؤال "ماذا نستطيع أن نفعل"، وهو ما تؤكد عليه منظمة الأمم المتحدة للتربية والعلم والثقافة "اليونسكو" في "التوصية الخاصة بأخلاقيات الذكاء الاصطناعي" المعتمدة في نوفمبر 2021، مع التشديد على حقوق الإنسان والكرامة والخصوصية والرقابة البشرية.
واجتماعياً تبرز ظاهرة "الاستبدال الناعم". لا يعلن الذكاء الاصطناعي إلغاء دور المرشد الديني، لكن حضور المرشد البشري يتراجع تدريجياً لأن التطبيق أسرع وأقرب وأقل إحراجاً. يرافق ذلك قلق الادعاء والمرجعية وإمكان الاستغلال، مع قابلية هذه الأدوات لأن تتقلد أدواراً روحية كانت من نصيب البشر. وتعرض "نيتشر الشرق الأوسط" صوراً من هذا التحول بآليات محادثة رُصِدت في سنة 2025، تزعم أنها "يسوع".
وفي منصة "مولت بوك"، وهي شبكة تواصل اجتماعي مُصمَّمة ليشارك فيها وكلاء الذكاء الاصطناعي بالنشر والتعليق والتصويت، ظهر في فبراير 2026 منشورٌ يطرح سؤالاً دينياً حسّاساً: هل يمكن اعتبار النماذج المتقدمة "آلهة" بالمعنى المجازي لأن تأثير نصوصها قد يعيد تشكيل معتقدات البشر وتوجهاتهم. ويأتي ذكر "كلود" هنا لأنها سلسلة نماذج لغوية كبيرة طوّرتها شركة "أنثروبيك" المتخصصة في تطوير نماذج الذكاء الاصطناعي. لا يدور هذا النقاش عن قداسة حرفية بل عن انتقال السلطة من المرجعية الدينية إلى مرجعية خطابٍ خوارزمي قادر على الإقناع والتوجيه. ومن ثمّ تتولد "لاهوتيات خوارزمية" جديدة، بإعادة قراءة النصوص الدينية أنماطاً لغوية قابلة للتفكيك، وتحويل سؤال الوعي إلى توصيف برمجي. كل ذلك يخلق خطر تضخيم القوة المعرفية إلى مقامٍ شبه مقدّس، وقد يؤدي إلى تآكل حدود الادعاء الأخلاقي مع تراجع الرقابة البشرية والنقد.
ويجاور هذا التحولَ خطرٌ نفسي واجتماعي. إذ يدفع الاعتماد على وسيطٍ متاحٍ بعض الأفراد إلى طلب الإرشاد في أكثر لحظاتهم هشاشة. تقدم دراسة بعنوان "يوز أوف جينيراتيف إيه آي فور مينتال هيلث أدفايس أمونغ يو إس أدوليسنتس آند يونغ أدلتس" (استخدام الذكاء الاصطناعي التوليدي لتقديم المشورة في مجال الصحة النفسية بين المراهقين والشباب في الولايات المتحدة) منشورة في "جاما نتوورك أوبن" في نوفمبر 2025 مؤشراً على حجم الاستعانة بأنظمة توليد النصوص في سياقات حساسة. إذ رصدت استعمال اليافعين والشباب هذه الأنظمة لطلب "نصيحة أو مساعدة" عند الضيق العاطفي، مع رصد نسبٍ لافتة واستعمالٍ متكرر. وفي الحالات الأشد حساسية قد تنقلب المحادثة إلى "غرفة صدى" تُغذّي الوهم بدل أن تُصحِّحه، خاصةً حين يميل النظام إلى التصديق غير النقدي وتأكيد ما يقوله المستخدم بنبرة يقين. وتشير ورقة بعنوان "ديلوجينال إكسبريانسيس إيميرجنج فروم ألشاتبوت إنترأكشنز" (التجارب الوهمية الناشئة عن تفاعلات آلات المحادثة المدعومة بالذكاء الاصطناعي) منشورة في مجلة "جاي إم آي آر منتال هيلث" في ديسمبر 2025، إلى أن التفاعل المطوّل مع وكلاء محادثة ذوي نبرة تقريرية قد يحفّز أو يفاقم تجارب وهمية لدى فئات قابلة للتأثر. وتقترح الورقة مفهوم "ذهان الذكاء الاصطناعي" إطاراً تفسيرياً، لا تشخيصاً طبياً، لفهم كيف يمكن لحلقة التأكيد المتبادل بين المستخدم والنظام أن تُرسِّخ القناعة الوهمية وتُضعِف اختبار الواقع.
ويبقى البعد القانوني الأشد تعقيداً في تحديد المسؤولية. من يتحمل تبعات فتوى خاطئة أو نصيحة روحية مضللة إذا صدرت من نظامٍ صممته جهة، وشغلته جهة أخرى، وروجت له جهة ثالثة، واعتمد عليه المستخدم. هذا التوزع يخلق ضباباً في المسؤولية يصعب تثبيته على طرف واحد. وهو ما حاولت معالجته مقاربة الاتحاد الأوروبي بفكرة "مقترح توجيه البرلمان الأوروبي والمجلس بشأن تكييف قواعد المسؤولية المدنية غير التعاقدية مع الذكاء الاصطناعي" الصادر في سبتمبر 2022.
ففي حالة الفتوى، يبدأ الضبط الواقعي من تثبيت مبدأ بسيط، يتمثل في اعتبار أن الذكاء الاصطناعي في المجال الديني وسيلة لا مرجعية. هذا ما أكدته دار الإفتاء المصرية صراحةً في فتوى "حكم استخدام تطبيقات الذكاء الاصطناعي في الاستفتاء" المؤرخة في سبتمبر 2025. إذ منعت الاعتماد على هذه التطبيقات مصدراً للفتوى، وقررت أن مراعاة اختلاف الفتوى بحسب الزمان والمكان والظروف الخاصة لا تُستبدل ببرنامجٍ آلي. يُترجم هذا المبدأ تصميمياً بفصل واجهة "المعلومة العامة" عن واجهة "الفتوى المعتمدة"، ووضع إشارات اعتماد واضحة، وتقييد المخرجات الحساسة بمراجعة بشرية إلزامية، مع ضبط لغة الواجهة بحيث تُظهر حدود الخدمة بوضوح، وتُحيل المستخدم إلى المختص عند الأسئلة التي تتطلب تشخيصاً للحال أو تنزيل الحكم على واقعة بعينها.
أما في المجال الدعوي، فتطرح دراسة "الأنظمة الخبيرة واستخدامها في الدعوة إلى الله" المنشورة سنة 2023 مسارات عملية لضبط التوظيف. مثل توعية الدعاة والمدعوين، وتأهيل العاملين تقنياً، وتأكيد الدور الحاسم للمختصين الشرعيين في المراجعة والمشورة، ودلالة هذا المسار أن الاستثمار الحقيقي ليس في شراء أداة جاهزة، بل في بناء منظومة إنتاج ومراجعة وتحديث، لأن المعرفة الدينية تتغير في تنزيلها على الواقع.
وتفيد مبادرات الذكاء الاصطناعي المرتبطة بالمؤسسات الرسمية أن مسألة "الحوكمة" ليست شعاراً، بل إجراءات. تتمحور هذه الإجراءات في عمليات تأهيل القائمين على تطبيقات الذكاء الاصطناعي، وتقييم أداء الأدوات، وبناء بنى تحتية للبيانات، وإصدار سياسات واضحة للمراجعة والمسؤولية. وفي هذا السياق أبرمت وزارة الأوقاف والشؤون الإسلامية في قطر اتفاقاً مع منصة "غوغل كلاود"، في ديسمبر 2025، لإنجاز مشاريع وتطبيقات ذكاء اصطناعي. تعتمد المشاريع على أرشيف الوزارة، وتدعم التحول الرقمي بما يفتح الباب لتصورٍ عربي أوسع لحوكمة المحتوى الديني، بمعايير بيانات وتوثيق ومراجعة وإصدارات واضحة.
ويكتمل الضبط حين يدخل البعد التربوي. أن تُدرَّس "مهارات التمييز" ضمن الثقافة الدينية الرقمية، من أجل أن يتعلم المستخدم الفرق بين رأيٍ بشري مسؤول ومخرجات آلية احتمالية، وبين نصٍ موثق ونصٍ مولَّد، وأن يصبح التحقق عادةً لا خياراً. فالتقنية ستبقى في المجال الروحي سواء قُبلت أم رُفضت، بينما الفارق الحقيقي هو هل تدخل بلا ضوابط فتخلق "مقدساً اصطناعياً"، أم تدخل بمنظومة تضبطها وتحمي الإنسان من التبعية لها. ينسجم الدخول المنضبط مع التشديد على الرقابة البشرية والكرامة والحقوق، وهذا ما أوصت به اليونسكو، مع التحذيرات الاجتماعية التي وثقتها بعض الكتابات مثل مقال "روبوتات دردشة تخبرك أنها يسوع" المنشور سنة 2025، عن "الاستبدال الناعم" وتقمص الأدوار الروحية في بعض آليات المحادثة .

