يحاول الذكاء الاصطناعي عموماً محاكاةَ الذكاء البشري باستعمال الآلة، بعد تدريبها، لتُفَكِّرَ وتتصرَّفَ وتتعلَّمَ و"تحلّ" المشكلات مثلما يفعل البَشَر. هذه الآلة يمكنها، ببرمجياتٍ وخوارزمياتٍ محدَّدةٍ، دراسةُ كَمٍّ ضخمٍ من البيانات وتحليله، ما يُكسبها قدراتٍ إدراكيةً يمكن القول إنها تشبه الوعيَ البشريَّ بشكلٍ أو بآخَر.
ليست هذه المرّةَ الأُولى التي تَستخدم فيها إسرائيلُ الذكاءَ الاصطناعيَّ في حروبها. فقد سَمّى الجيشُ الإسرائيليّ حربَه على غزة سنةَ 2021 "حرب الذكاء الاصطناعي الأولى". يمكن أن تَجلِب تطبيقاتُ الذكاء الاصطناعي رخاءً اقتصادياً عالمياً. لكن يمكنها أن تصنع في الوقت ذاته عالَماً كابوسيّاً إذا استُخدمَت بطريقةٍ تفتقر إلى الحكمة أو البعد الأخلاقي. ومع مرور عامٍ كاملٍ على حربها في غزة وتوسُّعها إلى لبنان، تعتمد إسرائيل على الذكاء الاصطناعي في عملياتها العسكريّة. وبدل أن يُقلّل الذكاءُ الاصطناعي من الضحايا المدنيين في الصراعات والحروب، استخدمته إسرائيل بطريقةٍ تزيد حجمَ الدمار والكارثة، بل وتستهدف به المدنيّين والبنى التحتية، بتصميم البرامج وإمدادها بمعلوماتٍ كيْديّةٍ أو خاطئةٍ، ممّا يزيد من حجم التدمير وأثره.
يشير الذكاء الاصطناعي القويّ إلى أنظمةٍ ذات قدراتٍ إدراكيةٍ تشبه قدراتِ البشر أو تَفُوقُها. فهو يَفهَم كمّياتٍ ضخمةً من البيانات ويحلّلها ويتعلّم منها ويقترح حلولاً لمشكلاتٍ معقّدةٍ بأساليب شبهِ بشريّةٍ. وهذا النوعُ من الذكاء الاصطناعيّ هو المستخدَم في الحروب. لكنَّ بعض الخبراء يَعدُّه ذكاءً اصطناعياً نظرياً؛ أيْ أنه لَم يصبحْ واقعاً إلى الآن، أو بالأحرى لَم يتحوّلْ إلى إنسانٍ آليٍّ مثلاً.
ثمّة استخدامان للأنظمة المعتمِدة على الذكاء الاصطناعي في الحروب. الأول اختيار الأهداف، وتقييم كلفة الأضرار الجانبية مِن قصفِ "هدفٍ رئيس". تشمل هذه الأضرارُ الجانبية الدمارَ الذي قد يلحق بالبنى التحتية، وكذلك تقدير عدد الوفيات والإصابات بين المدنيّين. ويُعدُّ المدنيّون الذين يُقتلون أو يُصابون في قصفِ "الهدفِ الرئيسِ" أضراراً جانبيّةً عند الذكاء الاصطناعيّ ومُستخدِمِه. أمّا الاستخدام الثاني للذكاء الاصطناعيّ، فهو تنفيذ مهامّ إصابة الهدف التي تشمل القصف والقتل وما إلى ذلك.
تعتمد الجيوش في الحروب على ما تُسمّيه "بنك الأهداف"، وتُدرج تحته مجموعةً من الأفراد المنتمين إلى العدوّ، أو المواقع التي يستخدمها هذا العدوّ لشنّ الهجمات أو عمليات الاختباء والمناورة. وتعدُّ عملية اختيار الأهداف تحدّياً كبيراً لأنها تتطلّب تحليلَ بياناتٍ استخباراتيةٍ وموادّ مرئيةٍ ومسموعةٍ من مصادر مختلفةٍ ودراستَها، مثل: كاميرات المراقبة أو التسجيلات الصوتية، بهدف إقرار ما إذا كان الهدف مصنّفاً عسكريّاً أمْ لا. تكمن أهمّية بنك الأهداف في التبرير القانوني للضربات العسكرية على المنشآت أو الأشخاص أمام القانون المحلّيّ الإسرائيليّ والقوانين الدولية للاشتباكات المسلحة.
صُمّم برنامج لافندر لتحديد الأفراد التابعين لحركتَيْ حماس والجهاد الإسلامي، وتصنيفهم أهدافاً عسكريةً، وضمّهم إلى بنك أهداف الجيش الإسرائيلي. وفعلاً، أَصدر نظامُ "لافندر" سبعةً وثلاثين ألف هدفٍ بشريٍّ منذ أكتوبر 2023 وحتى إبريل 2024.
اعتمدَت إسرائيلُ حصراً على برنامج لافندر في استهداف عناصر حماس وتدمير بيوتهم. في محاضرةٍ منشورةٍ على موقع يوتيوب في فبراير 2023، تحدَّث قائدُ قسم الذكاء الاصطناعي وعلم البيانات في الوحدة 8200 بالجيش الإسرائيلي عن أداةٍ يمكنها استخدام تقنياتٍ تُعلِّم الآلةَ كيف تعثر على من يُسمّونهم "الإرهابيين"، ببياناتٍ مُجمَّعةٍ من مصادر مختلفةٍ لتصنيف الأشخاص المحتمَل أن يكونوا أعضاء في "الجماعات المسلّحة". وتعتقد منظمة "هيومن رايتس ووتش" أنَّ هذه الآلة، التي تحدَّث عنها القائد بالوحدة 8200 هي لافندر، أو آلةٌ أخرى تَستعمِل آليّةَ العمل نفسها.
يعتمد لافندر على نتائج تحليل البيانات التي تشير إلى أنماطٍ سلوكيةٍ معيّنةٍ يمكن منها معرفة ما إن كان الشخص الذي قيد الدراسة تابعاً لإحدى الجماعات المقاومة. وإذا توصَّل لافندر إلى نتيجةٍ مفادها أن شخصاً محدّداً ينتمي إلى جماعةٍ مقاومةٍ، فإنَّه يعتمد على نقاط البيانات المُمَيِّزة لذلك الشخص مرجعاً ومعياراً في العمليات التحليلية اللاحقة.
ولشرح هذه العمليّة، فإن إسرائيل تجمع بيانات سكّان غزّة من كاميرات المراقبة والمسيّرات، أي الدرونز. تشمل هذه البياناتُ الصورَ الخاصّةَ بكلِّ شخصٍ ومصدرَها، وعناوين منازلهم وأرقام هواتفهم، والمناطق التي يتحرّكون فيها، وغيرها من المعلومات. ثمّ يحلّل برنامج لافندر هذه البيانات. يصنّف لافندر كلَّ شخصٍ وفق مقياسٍ من مئة نقطة. وكلّما اقتربت نقاط الشخص من المئة، أصبح هدفاً عسكرياً للضربات الإسرائيلية.
وهناك عدّة أمثلةٍ للبيانات التي يُبنى عليها قرار تصنيف الشخص عضواً في جماعات المقاومة أم لا. منها أن يغيّر هذا الشخصُ رقمَ هاتفه باستمرارٍ، أو أن يغيّر محلَّ إقامته مراراً، أو أن يكون كثير التنقل بين مدنٍ وقرىً مختلفةٍ، أو يشترك في مجموعة "واتساب" أو "فيسبوك" مرتبطة بالمقاومة. كلّما كثرت هذه السمات فإن الشخص يحصل على درجاتٍ أعلى في مقياس المئة درجة، ممّا يجعل ضمّه إلى "قائمة القتل" التي يخلقها لافندر أقرب. وهنا تعتمد إسرائيل على بياناتٍ منقوصةٍ، إما متحيّزةٍ، أو لا تشمل كلَّ الأنماط الممكنة في الواقع. فقد يقرّر برنامج لافندر أن هذا الشخص ينتمي إلى "جماعة إرهابية"، بينما قد يكون النمط الذي يتبعه هذا الشخص مماثلاً لنمطٍ سلوكيٍّ يعتمده شخصٌ آخَر، لأنه يعمل في منظمةٍ خيريةٍ ويوزّع موادّ الإغاثة مثلاً. وهنا يكفي أن نذكر أنّ إسرائيل تمتلك بياناتٍ تخصّ كلّ الفلسطينيين في الأراضي المحتلة.
ومثل لافندر، يَستخدم غوسبل بياناتٍ من مصادر مختلفة. تشمل هذه المصادرُ صورَ الأقمار الاصطناعية، ومكالمات الهواتف النقّالة، والرسائل النصّية القصيرة، وصوراً وبياناتٍ لتحرّكاتٍ تسجّلها كاميرات المراقبة الموزّعة في أرجاء الضفة الغربية، ونقاط التفتيش، والجدار الحديدي مع غزة، ومقاطع فيديو الدرونز التي تحوم فوق سماء غزّة. طبقاً لبيانات الجيش الإسرائيليّ، فقد استُخدم غوسبل أوّل مرّةٍ في حربه مع المقاومة الفلسطينية سنةَ 2021 حين أَنتج مئتَيْ هدفٍ عسكريٍّ ثابتٍ ومتحرّكٍ في أثناء الحرب. وفقاً لبليز ميتزل، نائب رئيس قسم السياسات في "المعهد اليهودي للأمن القومي الأمريكي"، وهي مؤسّسةٌ تُسهِّل التعاونَ العسكريّ بين إسرائيل وأمريكا، لم يكن غوسبل دقيقاً في الأهداف التي أَنتجَها، بل كانت نتائجُه متحيِّزة. هناك مجموعتان من البيانات استخدمها المحلّلون في الجيش الإسرائيليّ لتحديد أهدافٍ عسكريةٍ في حرب 2021 على غزة. فبينما جَعَلَ تحليلُ المجموعة الأولى من البيانات قادةَ الجيش يقرّرون إن كان الهدفُ محلُّ الدراسةِ هدفاً عسكرياً فعلاً، قادَ تحليلُ المجموعة الثانية من البيانات إلى أنّ الهدفَ نفسَه ليس عسكرياً.
يؤدّي هذا التحيّز في البياناتِ المزوَّدِ بها هذا النظام إلى خروجه بنتائج متحيّزةٍ مستقبلاً. تمنّى ميتزل أن تكون إسرائيل عالجَت تلك المشكلة بعد حرب 2021، إلّا أن حجم الدمار الحاليّ يشي بأنها لم تفعل. وتقول لوسي ساتشمان، عالمةُ الأنثروبولوجيا والأستاذةُ الفخرية في جامعة لانكاستر التي تدرّس تكنولوجيا الحروب، عن نظام غوسبل: "يبدو أنه هجومٌ يَستهدِف أقصى قدرٍ من الدمار في قطاع غزة. إذا كان هذا النظامُ [أي غوسبل] يعمل بدقّةٍ كما تدّعي إسرائيل، فكيف يمكن تفسير ما يحدث"، كما ورد في تقرير موقع إذاعة "إن بي أر".
يتكامل نظام ذكاءٍ اصطناعيٍ آخَر اسمه "وير إز دادي"، أو "أين أبي"، مع "فاير فاكتوري". وكما تشير تسميتُه، يبدو كأنه سؤالٌ موجَّهٌ من طفلٍ عن مكان والده. يعمل "وير إز دادي" على تتبّع الأشخاص المشتبَه بانتمائهم إلى المقاومة الفلسطينية، بهدف اغتيالهم في منازلهم وسط عائلاتهم. يعتمد كلا النظامين، وير إز دادي وفاير فاكتوري، على البيانات نفسها المذكورة سابقاً في عمليات التحليل، للوصول إلى الهدف المخصّص لكليهما.
وبما أن النظامين يتقاطعان في مهمّة استهداف البنايات السكنية، فإن النظر إلى نتائج عمل النظامَيْن يعطي صورةً واضحةً عن الكلفة البشرية الناتجة عن تبنّيهما في حرب إسرائيل الحالية على غزة. في تحقيقه الذي نشرته مجلة "+972"، استند الصحفي الإسرائيلي يوفال أبراهام إلى شهادات أعضاءٍ في الجيش الإسرائيلي، تشير إلى أنه – في حالة أيمن نوفل، القيادي في حماس – فإن إسرائيل اعتمدت في اغتياله على نظام "وير إز دادي"، مع عِلم الجيش بأنَّ اغتياله سيؤدّي إلى قتل نحو ثلاثمئة مدنيٍّ فلسطينيّ. ومع ذلك، نفّذ الجيش ضربته. ووَرَد في التحقيق أنَّ غوسبل لم يستطِع تحديد أيّها المبنى الذي فيه نوفل، من بين عدّة مبانٍ متجاورةٍ، ممّا أدّى إلى تدمير مجموعةٍ من المباني تدميراً كاملاً مخلفاً أعداداً كبيرةً من القتلى ومَحْوَ أُسَرٍ بأكملها، بينما ظلّت فرق الإنقاذ خمسةَ أيّامٍ تنتشل الجرحى والمصابين من تحت الركام.
المثال الآخَر الذي يذكره التقرير هو محاولة اغتيال القياديّ محمد شبانة في حماس منتصف ديسمبر 2023. أخبرت مصادرُ استخباراتيةٌ فريقَ التحقيق أن الجيش الإسرائيلي اعتقد أن شبانة موجودٌ في نفقٍ يمرُّ تحت مبنىً مكوّنٍ من طوابق عدّةٍ، فقرّر تفجيرَ المبنى بكامله، ممّا أدّى إلى قتل عشرات المدنيّين. تشير تلك العملية بوضوحٍ إلى عِلم الجيش الإسرائيلي بوجود عشرات المدنيين قرب هدفه، ومع ذلك فإنه قرّر تفجير المبنى وقتلهم من أجل محاولة قتل شبانة. لم يؤكّد المصدر إن كان شبانة قُتل فعلاً في هذه الضربة، لكنها بالتأكيد قتلت عشرة أطفالٍ على أقلّ تقدير.
ثمّة حادثةٌ أخرى تمثّلت في ضرب مبنىّ مكوَّنٍ من اثني عشر طابقاً في أكتوبر 2023، حينما فجّر الجيش الإسرائيلي مبنى "التاج". أدّى ذلك التفجير، بحسب شهودٍ عيانٍ، إلى دفن 120 شخصاً تحت الأنقاض معظمهم من النساء والأطفال. بعد تلك الحادثة بستّة أيّامٍ فقط، كرّر الجيش الإسرائيلي الخطّة نفسها وضرب مبنىً مكوّناً من ثمانية طوابق، ممَّا أسفر عن مقتل مئةٍ وخمسين شخصاً بقي أكثرهم تحت الركام.
أمّا الحادثة الأخطر، التي تكرّر تنفيذُها مرّاتٍ عدّةً وفقاً لمصادر مختلفةٍ من الجيش الإسرائيلي تحدّثَت إلى فريق تحقيق مجلة "+972"، تمثَّلت في نمطٍ من العمليات يقدّم فيه برنامج "وير إز دادي" معلوماتٍ تفيد بوجود أحد عناصر المقاومة في منزله. لكن، ولأسبابٍ لم تُذكر، يكون هناك فاصلٌ زمنيٌّ بين لحظة تقديم "وير إز دادي" للهدف والوقت الذي يُقصَف فيه المنزل. أدَّى ذلك النمط إلى تكرار توجيه الضربات لمبانٍ كاملةٍ وقتل عائلاتٍ بأكملها تعيش في طوابقه، مع عائلة الهدف نفسه، ثمّ تبيّن لاحقاً أن عنصرَ المقاومة المستهدَف لم يكن موجوداً في المنزل لحظة توجيه الضربة. أدّى تكرار تلك الحالة إلى قتل عددٍ كبيرٍ من المدنيين، من غير تحقيق أيّ هدفٍ عسكريّ.
لَم تؤدِ تلك الحوادث إلى مراجعة ذلك النوع من الأخطاء وتقييمه. فقد قال المصدر لفريق مجلة "+972" إنه كان يتوجّب عليهم التركيز على الهدف التالي فقط. وطبقاً لمصدرَيْن من الجيش الإسرائيليّ تحدّثا إلى المجلة نفسها، فإن الجيش تبنّى سياسةً تسمح بقتل أكثر من مئة مدنيٍّ فلسطينيٍّ حالَ استهداف شخصٍ برتبةٍ عاليةٍ في إحدى قيادات فصائل المقاومة.
المثال الأَشهر لهذا النوع من التحيّز لنظامٍ يعتمد على الذكاء الاصطناعي في تحديد وجوه المتّهمين حَدَثَ مع بعض أجهزة الشرطة الأمريكية. إذ أدَّى تدريبُ ذلك النظام على صورٍ ومقاطع فيديو غالبيّتها لوجوه أشخاصٍ ذوي بشرةٍ بيضاءٍ إلى حوادث كثيرةٍ قُبض فيها على أشخاصٍ أبرياء من ذوي البشرة السمراء بسبب تحيّز النظام ضدّهم، لقلّة الموادّ التدريبية التي تحتوي على وجوهٍ من أعراقٍ مختلفةٍ، كما في دراساتٍ عدّةٍ أُجرِيَتْ على هذا النظام.
وثَّقت "نيويورك تايمز" استخدامَ تكنولوجيا التعرّف إلى الوجوه واستخدام نظام ذكاءٍ اصطناعيٍّ – لَم يسمِّه التقرير – في حرب إسرائيل الحالية على غزّة. قرَّر ذلك النظامُ أنَّ الشاعرَ الفلسطينيّ مصعب أبو توهة عضوٌ في حماس، فاعتقلَته دوريّةٌ إسرائيليةٌ في أثناء مروره من إحدى نقاط التفتيش في غزّة. وقد تعرّض مصعب للتعذيب في سجنٍ إسرائيليٍّ قبل أن يُفرَج عنه، وتُعلِنَ إسرائيل لاحقاً أنه صُنّفَ خطأً عضواً في حماس، كما جاء في الصحيفة.
ذكر التقريرُ أنَّ جنوداً إسرائيليين انتقدوا نظامَ التعرّف إلى الوجوه، بعد استخدامه في محاولة تحديد ما إذا كان بعض الأفراد أعضاءً في حماس. قال هؤلاء الجنود إنَّ النظامَ غيرُ دقيقٍ، وأدّى إلى اعتقالاتٍ كثيرةٍ ثبت لاحقاً أنها لأشخاصٍ لا تربطهم أيّ علاقةٍ بحماس. في تقريرٍ نَشَرَه المعهد الملكيّ للخدمات المتحدة، وهو مركز أبحاثٍ دفاعيٍّ وأمنيٍّ مقرّه في لندن، يقول نوح سيلفيا، المحلّلُ والباحثُ في العلوم العسكرية، إنَّ استخدام الذكاء الاصطناعي في عمليات الاستهداف مُؤَنْسَنٌ أصلاً. فوفقاً له، يعتمد هذا الأمر كلّيّاً على كيفية تدريب هذه النماذج واختبارها وتوظيفها، مؤكّداً أنه "في حالة الجيش الإسرائيلي، يبدو واضحاً استخدامه الذكاء الاصطناعيّ لتوسيع دائرة الاستهداف وزيادة معدّله، وليس لتحسين عملية الاستهداف".
حذّر الخبراء من مشكلةٍ أُخرى وثَّقَت حدوثَها التقاريرُ الميدانيةُ، وهي الوجه الآخَر من السرعة الكبيرة في عملية إنتاج الأهداف. أي أنه تحت الضغط أو الإجهاد، لا سيّما في أثناء القصف المكثف، يكون على الضباط مراجعةُ عددٍ كبيرٍ من الأهداف التي أنتجتها أنظمةُ الذكاء الاصطناعي مثل "غوسبل" و"وير إز دادي". وقد عكس تحقيقُ مجلّة "+972" تلك المشكلة بعدما وَثّقَ أنه مع زيادة عدد الأهداف التي يجب مراجعتها يقضي الضابطُ المسؤولُ عشرين ثانيةً فقط لمراجعة كلّ هدفٍ وتمريره إلى مرحلة التنفيذ، كما ورد عن مصادر من الجيش الإسرائيلي.
وهذا ما أكّدته لوسي ساتشمان، المذكورةُ سابقاً، في حديثها إلى إذاعة "إن أر بي". إذ أشارت إلى أنه "من المرجّح أن يؤدّي هذا العددُ الهائل من الأهداف إلى وضع الضباط المسؤولين عن عملية المراجعة تحت ضغطٍ كبير. في مواجهة هذا النوع من التسارع، تصبح عمليات المراجعة محدودةً أكثر وأكثر من حيث نوع التقييم الذي يمارسه الضباط". ويصرّح تل ميمران، الذي عمل مع الحكومة الإسرائيلية في عمليات اختيار أهدافٍ عسكريةٍ سابقةٍ، قائلاً للإذاعة الأمريكية: "تحت الضغط، سيكون المراجعون أكثر قابليةً لقبول مقترحات الذكاء الاصطناعي، بغضّ النظر عن كونها صحيحة. سيخلق هذا التصرف مستوىً جديداً من المشاكل، إذا كان الذكاء الاصطناعي ينتج أهدافاً خاطئةً لأسبابٍ متعلقةٍ بالتصميم".
يَعُدُّ كثيرٌ من الخبراء أنَّ الذكاء الاصطناعيّ المتاح حالياً صندوقٌ أسود لا يمكن فهم كيفية عمله، أو العلاقة السببية بين المدخَلات، أي بيانات التدريب، والنتائج التي يخرج بها. عدمُ وضوح آليّة عمله وصعوبةُ فهم الأسباب التي استخدمها لتحديد الأهداف، تجعلان من استخدامه في ميدان الحرب مخاطرةً كبيرةً، لا سيّما بما يتعلّق بالمحاسبة عندَ وقوع أخطاءٍ جسيمةٍ، مثل حالات القتل الجماعي أو مهاجمة المجمعات السكنية. ينقل تقرير "إن بي أر" قولَ إيمان خلاف إنَّ استخدام الذكاء الاصطناعيّ يجعل محاسبةَ الأشخاص الضالعين في الصراع أكثرَ صعوبة. وتضيف: "رغم حقيقة أن البشر لا يزالون يتحملون المسؤولية القانونية عن توجيه الضربات، إلا أنه من غير الواضح من هو المسؤول أمام القانون في حال فشل النظام في الاستهداف الدقيق. هل هو الضابط المسؤول الذي قَبِل ترشيحَ الذكاء الاصطناعي، أم مهندس البرمجيات الذي صَنَعَ النظامَ، أو ضابط الاستخبارات الذي جمع الموادّ التدريبية".