نشرت صحيفة
الغارديان البريطانية تقريراً أعده كل من هاري دافيز وبيثان ماكيرنان ودان صباغ حول استخدام الاحتلال الإسرائيلي "
الذكاء الاصطناعي" لكي يضاعف أضعافاً كثيرة عدد أهداف القصف داخل المناطق الفلسطينية.
وقالت الصحيفة، في تقرير ترجمته "رعربي21"، إن جيش الاحتلال لم يخف نيته في تكثيف قصفه لقطاع
غزة. ففي الأيام الأولى من الهجوم، تحدث قائد سلاح الجو لديها عن "ضربات جوية" على مدار الساعة لا هوادة فيها. وأضاف أن قواته تقصف فقط الأهداف العسكرية، ولكنه أضاف: "ولكننا لن نتوخى الدقة" على حد قوله.
ولكن المسؤول العسكري الإسرائيلي، لم يعط سوى اهتمام ضئيل نسبياً للأساليب التي تستخدمها قوات الاحتلال الإسرائيلية في اختيار أهدافها داخل غزة، ولا للدور الذي يلعبه الذكاء الاصطناعي في تنفيذ حملات القصف التي يشنونها.
بينما تستأنف "إسرائيل" هجومها بعد سبعة أيام من الهدنة، تتصاعد المخاوف بشأن الطريقة التي تتخير من خلالها قوات الاحتلال أهدافها في الحرب ضد غزة، وهي الحرب التي قتل فيها حتى الآن، طبقاً لوزارة الصحة في قطاع غزة ، أكثر من خمسة عشر ألفاً داخل تلك المنطقة.
لطالما سعت قوات الاحتلال الإسرائيلية إلى تلميع سمعتها كمستخدمة للمهارات التكنولوجية العالية، وصدرت عنها من قبل مزاعم جريئة، وإن لم تكن محققة، حول التوصل إلى تقنيات جديدة. بعد حرب غزة التي استمرت أحد عشر يوماً في عام 2021، قال المسؤولون إن إسرائيل خاضت أول "حرب ذكاء اصطناعي" لها، باستخدام التعلم الآلي والحوسبة المتقدمة.
توفر الحرب الأخيرة بين "إسرائيل" وحماس فرصة غير مسبوقة لقوات الاحتلال الإسرائيلية لكي تستخدم مثل هذه الأدوات في مسرح عمليات أوسع بكثير، وبشكل خاص، استخدام منصة لاختيار الأهداف عبر الذكاء الصناعي تسمى "
الإنجيل"، والتي تزيد من خط الإنتاج القاتل للأهداف، والذي يشبهه المسؤولون بالمصنع.
بإمكان الغارديان الكشف عن تفاصيل جديدة حول الإنجيل وحول دوره المركزي في حرب "إسرائيل" في غزة، وذلك باستخدام مقابلات أجريت مع مصادر استخباراتية وتصريحات لم ينتبه إليها الكثيرون صدرت عن مسؤولين في الجيش الإسرائيلي ومتقاعدين خدموا فيه.
كما تستفيد هذه المقالة من شهادات نشرتها مجلة إسرائيلية فلسطينية اسمها +972 ومنصة ناطقة باللغة العبرية اسمها "لوكال كول" (المكالمة المحلية)، واللذان أجريا مقابلات مع العديد من المصادر الحالية والسابقة في أجهزة الاستخبارات الإسرائيلية ممن لديهم معرفة بمنصة الإنجيل.
وتوفر تصريحاتهم نافذة يمكن أن يطل منها المرء على وحدة استخبارات عسكرية سرية تعمل بالذكاء الصناعي، تلعب دوراً كبيراً في الحرب على غزة
تأتي هذه الصورة التي تظهر ببطء لكيفية استغلال الجيش الإسرائيلي للذكاء الصناعي على خلفية تزايد المخاوف بشأن المخاطر المحدقة بالمدنيين إذ توسع الجيوش المتقدمة حول العالم من استخدامها للأنظمة الآلية المعقدة وغير الشفافة في أرض المعركة.
ويقول أحد مسؤولي الأمن السابقين في البيت الأبيض ممن لديهم اطلاع على استخدام الجيش الأمريكي للأنظمة التلقائية: "لسوف تراقب الدول الأخرى وتتعلم."
ويقولون إن حرب "إسرائيل" وحماس سوف تشكل "لحظة مهمة إذا ما استخدم الجيش الإسرائيلي الذكاء الاصطناعي بطريقة بارزة من أجل اختيار الأهداف بما يكون له عواقب على الحياة والموت."
من 50 هدفاً في السنة إلى 100 في اليوم
في مطلع شهر نوفمبر، قال الجيش الإسرائيلي إن "أكثر من 12 ألف" هدف في غزة تم تحديدها من قبل قسم إدارة الأهداف ، وفي وصف لإجراءات الاستهداف التي تقوم بها الوحدة، قال أحد المسؤولين: "نعمل بدون تنازل في تحديد هوية وطبيعة العدو. ولا حصانة لعناصر حماس – بغض النظر عن المكان الذي يلوذون به."
تصنف نشاطات القسم، والذي تشكل في عام 2019 داخل مديرية الاستخبارات التابعة لقوات الدفاع الإسرائيلية، على أنها سرية. إلا أن تصريحاً مقتضباً على موقع الجيش الإسرائيلي على الإنترنيت زعم بأنه يستخدم نظاماً قائماً على الذكاء الاصطناعي يسمى هابسورا (الإنجيل) في الحرب ضد حماس من أجل "إنتاج أهداف بوتيرة سريعة."
يقول الجيش الإسرائيلي إنه "من خلال استخلاص سريع وتلقائي للمعلومات الاستخباراتية" يفرز الإنجيل للباحثين توصيات بتحديد الأهداف "والغاية المنشودة هي تحقيق التطابق التام بين التوصيات التي تصدر عن الآلة وإجراءات التعرف التي يقوم بها شخص ما."
في حديث مع موقع "+972" وموقع لوكال كول، أكدت العديد من المصادر المطلعة على عمليات الاستهداف التي يقوم بها الجيش الإسرائيلي وجود الإنجيل، وقالت هذه المصادر إنه تم استخدامه من أجل إنتاج توصيات تلقائية بالأهداف التي ينبغي مهاجمتها، مثل المنازل الخاصة بأفراد يشك بأنهم من عناصر حماس أو الجهاد الإسلامي.
وكان قسم الاستهداف في السنوات الأخيرة قد ساعد الجيش الإسرائيلي على بناء قاعدة بيانات، كما تقول المصادر، لما يتراوح بين ثلاثين ألف وأربعين ألف شخص ممن يشك في انتمائهم لهذه الحركات. ويقولون إن الأنظمة، من مثل الإنجيل، لعبت دوراً مهماً في إنشاء قوائم بأسماء الأشخاص المصرح باغتيالهم.
يقول آفيف كوتشافي، الذي شغل منصب رئيس جيش الاحتلال الإسرائيلي حتى شهر يناير (كانون الثاني) إن قسم الاستهداف "يعمل بقدرات الذكاء الاصطناعي" ويعمل فيه مئات الضباط والجنود.
وقال في مقابلة نشرت قبل الحرب إنه عبارة عن "آلة تنتج كميات ضخمة من البيانات، وذلك بفعالية أكبر مما يقدر عليه البشر، ثم تترجم ذلك إلى أهداف للهجوم."
وطبقاً لكوتشافي "بمجرد أن بدأ تشغيل هذه الآلة" في حرب إسرائيل مع حماس التي استغرقت 11 يوماً في شهر مايو / أيار من عام 2021، كانت تولد مائة هدف في اليوم الواحد. ومضى يقول: "من أجل وضع الأمر في نصابه، كنا في الماضي ننتج خمسين هدفاً في غزة في العام الواحد. أما الآن، فهذه الآلة تنتج مائة هدف في اليوم الواحد، تتم مهاجمة خمسين بالمائة منها."
ليس معروفاً بالضبط ما هي أنواع البيانات التي يغذى بها الإنجيل. ولكن يقول الخبراء إن أنظمة الإسناد المدعومة بالذكاء الاصطناعي والمستخدمة في تحديد الأهداف تقوم في العادة بتحليل مجموعات ضخمة من المعلومات من مختلف المصادر، مثل مقاطع الفيديو التي تلتقطها المسيرات، والمكالمات التي يتم اعتراضها، وبيانات ومعلومات المراقبة التي يتم الحصول عليها من رصد أنمطة التحرك والسلوك التي ينتهجها الأفراد والمجموعات الكبيرة.
وبحسب الغارديان فقد كان قسم الاستهداف قد شُكل من أجل التعامل مع مشكلة مزمنة لدى قوات الاحتلال الإسرائيلية، وذلك أنه في العمليات المبكرة في غزة، كان سلاح الجو بشكل متكرر تنضب لديه الأهداف التي ينبغي أن تضرب. ومنذ أن بدأ كبار المسؤولين في حماس يختفون في الأنفاق عند بدء أي هجوم جديد، أتاحت الأنظمة، من مثل الإنجيل، لقوات الاحتلال الإسرائيلية تحديد مواقع ثم مهاجمة مجموعات أكبر من العناصر الأدنى رتبة في التنظيم.
يقول أحد المسؤولين، ممن عملوا في أقسام الاستهداف في العمليات السابقة في غزة، إن قوات الاحتلال الإسرائيلية لم تكن من قبل تستهدف بالقصف منازل أعضاء حماس من ذوي الرتب الدنيا في التنظيم. ويقولون إنهم يعتقدون بأن ذلك تغير في الصراع الحالي، حيث يتم الآن استهداف منازل من يشك في انتمائهم لحماس بغض النظر عن رتبهم في التنظيم.
في تصريح لموقع "+972" وموقع لوكال كول، قال المسؤول: "وهذا يعني عدداً كبيراً من المنازل. فأعضاء حماس الذين لا يعنون شيئاً يعيشون في منازل تنتشر في كافة أرجاء غزة. فما يفعلونه هو أنهم يضعون علامة على السكن، ثم يفجرون المنزل، ويقتلون كل من يتواجد داخله".
وضمن تصريح قوات الاحتلال الإسرائيلية المقتضب حول قسم الاستهداف التابع لها، يقول مسؤول كبير إن الوحدة "تنتج هجمات دقيقة على البنى التحتية المرتبطة بحماس وفي نفس الوقت تلحق ضرراً كبيراً بالعدو وحداً أدنى من الأذى بغير المحاربين."
تم التأكيد في العديد من التقارير التي نشرت في وسائل الإعلام الإسرائيلية على دقة الضربات التي يوصي بها "بنك الاستهداف القائم على الذكاء الاصطناعي". ونشرت يومية يديعوت أحرونوت تقريراً جاء فيه أن الوحدة "تبذل ما في وسعها من أجل ضمان ألا يلحق الأذى بالمدنيين غير الضالعين." على حد قولها.
وفي تصريح للغارديان، قال مصدر عسكري إسرائيلي كبير سابق إن مشغلي النظام يستخدمون معايير "بالغة الدقة" لقياس نسبة المدنيين الذين يُخلون المباني قبيل الضربة بقليل. وقال: "نستخدم الخوارزميات لتقدير كم عدد المدنيين الذين بقوا في الداخل. وهذا يعطينا ما يشبه الإشارة الخضراء أو الصفراء أو الحمراء."
إلا أن خبراء الذكاء الاصطناعي والصراع المسلح الذين تحدثوا مع الغارديان قالوا إنهم يشككون في المزاعم بأن الأنظمة القائمة على الذكاء الاصطناعي تقلص من الأذى الذي يحيق بالمدنيين من خلال التشجيع على القيام باستهداف أكثر دقة.
يقول محام مختص في تقديم النصح للحكومات حول الذكاء الاصطناعي والالتزام بمعايير القانون الإنساني إنه لا يوجد الكثير من الأدلة التجريبية لمساندة هذه المزاعم. ويشير آخرون إلى الآثار المرئية للقصف.
ويقول ريتشارد موييز، الباحث الذي يترأس "المادة 36"، وهي مجموعة تنشط في الدعوة إلى تقليص الأضرار الناجمة عن الأسلحة: "انظر إلى المشهد الطبيعي في غزة."
ويضيف: "إننا نرى تسوية واسعة النطاق للمباني بالأرض في المناطق المأهولة باستخدام الأسلحة الثقيلة المتفجرة، ولذلك فإن الزعم بدقة ومحدودية القوة التي تتم ممارستها لا يتوافق مع الوقائع على الأرض."
طبقاً للأرقام التي نشرتها قوات الاحتلال الإسرائيلية في نوفمبر (تشرين الثاني) خلال الأيام الخمسة والثلاثين الأولى من الحرب، هاجمت إسرائيل 15 ألف هدفاً في غزة، وهو رقم أعلى بكثير من العمليات العسكرية السابقة في هذه المنطقة الساحلية المكتظة سكانياً. بالمقارنة، في حرب 2014، والتي استمرت لواحد وخمسين يوماً، قصفت قوات الاحتلال الإسرائيلية ما بين خمسة آلاف وستة آلاف هدفاً.
ذكرت العديد من المصادر في حديث مع الغارديان ومع موقع "+972" وموقع لوكال كول أنه عندما يتم التصريح بقصف مساكن خاصة يقطنها أفراد يعرف عنهم أنهم نشطاء في حماس أو الجهاد الإسلامي، فإن باحثي الاستهداف يعلمون مسبقاً عدد المدنيين المتوقع قتلهم.
ويقولون إن كل هدف له ملف يشتمل على درجة الضرر الجانبي التي تحدد عدد المدنيين الذين من المحتمل أن يقتلوا في القصف.
قال أحد المصادر، ممن عملوا حتى 2021 في التخطيط لهجمات قوات الدفاع الإسرائيلية، "يُتخذ قرار القصف من قبل آمر الوحدة المكلف حينذاك"، وهؤلاء بعضهم "أكثر استعداداً للتساهل في الضغط على الزناد من غيرهم."
وقال المصدر إنه كانت هناك حالات عندما "كانت هناك شكوك بشأن الهدف" وحينها "قتلنا ما أعتقد أنه كمية غير متكافئة من المدنيين."
"مصنع الاغتيالات الجماعية"
تقول مصادر مطلعة على الكيفية التي تم بها دمج الأنظمة القائمة على الذكاء الاصطناعي في عمليات قوات الاحتلال الإسرائيلية إن مثل تلك الأدوات سرعت بشكل كبير من إجراءات تحديد الأهداف.
في تصريح لموقع +972 وموقع لوكال كول، قال مصدر عمل سابقاً في قسم الاستهداف: "نعد الأهداف تلقائياً ونعمل بناء على قائمة تدقيق." وأضاف: "إنه أشبه ما يكون بالمصنع، في واقع الأمر. نعمل بسرعة، ولا يوجد وقت للتفكير ملياً في كل هدف. والرأي السائد هو أننا يُحكم علينا بناء على عدد الأهداف التي نتمكن من توليدها."
وفي تصريح لنفس المنصة، قال مصدر منفصل إن الإنجيل سمح لقوات الاحتلال الإسرائيلية بتشغيل "مصنع للاغتيالات الجماعية" يكون "التأكيد فيه على الكم وليس الكيف." وقالوا إن عيناً بشرية "تمر على الأهداف قبل كل هجوم، ولكن لا حاجة لها لقضاء كثير من الوقت في ذلك."
ولكن بالنسبة لبعض الخبراء الذين يبحثون في الذكاء الاصطناعي والقانون الإنساني الدولي، يثير تصعيد كهذا عدداً من المخاوف.
تقول الدكتورة مارتا بو، الباحثة في معهد ستوكهولم الدولي لأبحاث السلام إنه حتى عندما "يكون البشر داخل الدائرة" فثمة مخاطرة في أن يطوروا "تحيزاً تلقائياً" وكذلك "المبالغة في الاعتماد على الأنظمة التي يصبح لها نفوذ كبير على القرارات البشرية."
ويقول موييس، من منظمة المادة 36، إنه عندما يتم الاعتماد على الأدوات مثل الإنجيل، يزود آمر المجموعة بقائمة من الأهداف التي يكون قد ولدها الحاسوب، ولا يعرفون بالضرورة كيف يتم تكوين القائمة، كما لا تكون لديهم القدرة على الاستفسار أو المساءلة إزاء التوصيات الخاصة بتحديد الأهداف."
ويضيف: "ثمة مخاطرة بأنه عندما يعتمد البشر على هذه الأنظمة فإنهم يتحولون إلى تروس في عملية ميكانيكية ويفقدون القدرة، بشكل ذي معنى، على تقدير الأذى الذي قد يلحق بالمدنيين."