يُعد الذكاء الاصطناعي (AI) أحد الأدوات الحديثة التي أحدثت تغييرات جذرية -بل من المتوقع أن تحدث الكثير مستقبلًا- في رقمنة الأنظمة العلمية والإنسانية، والاقتصادية، والاجتماعية، والسياسية. وينبغي الاعتراف أن التكنولوجيا يسرت حياتنا، وأتاحت إمكانيات أقوى وأسهل وأسرع للتواصل، كما عززت سبل تبادل المعرفة. لكن ينبغي ألا يكون هذا التقدم وتلك الأدوات على حساب المصلحة العامة؛ لذا فمن الضروري مراعاة الارتباط الإيجابي بين التكنولوجيا والمصالح العامة.
ينبغي لمبادئ البشر وأخلاقياتهم أن تكون الحَكَم على مجالات استخدام الذكاء الاصطناعي والتعلم الآلي في عالم غير منضبط بقواعد متوافَق عليها؛ إذ يمكنهم استخدامه لأغراض إيجابية أو سلبية. وفي هذا المعنى يمكن أن تنهض التطبيقات التقنية المختلفة بدور فعَّال في تعزيز الاستجابة لحالات الطوارئ، وتعزيز النشاط الاجتماعي، ومساعدة البشرية في مجال حماية البيئة المتمثلة في تغير المناخ، ومكافحة التلوث، ووقف تدمير الطبيعة. لكنها في الوقت ذاته يمكن أن تتحول إلى أداة فتاكة تدمر البشرية، فما كان قبل عقود قليلة حبكة درامية في أفلام الخيال العلمي أصبح يحدث الآن في غزة -مثلًا- من خلال قتل الأبرياء، ومعظمهم من النساء والأطفال، عن طريق أسلحة ومعدات تتكامل رقميًّا، وتعتمد في آلية عملها على الذكاء الاصطناعي.
تقنية تحديد الأهداف داخل المباني والمنشآت وتدمير البنية التحتية المدنية
سلط موقع "القناة السادسة" الإسبانية في ٤ من أبريل ٢٠٢٣م الضوء على استخدام الكيان الصهيوني تقنيات ذكاء اصطناعي جديدة ومتطورة على نطاق واسع لمهاجمة أهدافها في فلسطين عشوائيًّا، وهو ما أثار مخاوف لدى المجتمع الدولي من استخدام هذه التكنولوجيا في الحرب، خصوصًا مع ازدياد عدد القتلى المدنيين الذي تجاوز عددهم حتى الآن أكثر من ٣٧ ألف شخص. وأشارت القناة في تقريرٍ مصور إلى أن الجيش الصهيوني يستخدم برنامج ذكاء اصطناعي يدعى "إل إيبانخيليو" (El Evangelio"") ويعرف أيضًا باسم "الحبسورة" ("Habsora") وهو ما يعني "الإنجيل" باللغة العبرية، أو (The Gospel)، لافتة إلى تغذيته بالبيانات ليحدد الأهداف المراد قصفها في قطاع غزة كالمدارس، ومكاتب منظمات الإغاثة، وأماكن العبادة، والمستشفيات. ووصفت القناة هذه التكنولوجيا بأنها "الأكثر وحشية"، الأمر الذي يثير المخاوف بشأن اتساقها ومقتضيات حقوق الإنسان.
وتوفر هذه التقنية قائمة يومية بالمستهدفين داخل المباني، بتحديد مواقعهم وتوقُّع عدد المدنيين الذين سيسقطون على إثر الهجوم. ويحاكي هذا النظام إشارة المرور حسب مستوى الخطورة؛ فيشير اللون الأحمر إلى عدم الاستحسان، والأصفر إلى حالة الشك، والأخضر إلى السماح بالتنفيذ. ويقود هذا النظام المثير للجدل القرارات العسكرية للكيان المحتل.
ويعتمد النظام على تحليل مجموعة متنوعة من المعلومات الاستخباراتية، بما في ذلك تضاريس المنطقة، وصور الأقمار الصناعية، وسجلات الشبكات الهاتفية، والمحادثات والرسائل المسجلة. فمع استخدام هذه التقنية، تتلقى قوات الاحتلال مقترحات يومية للأهداف بمعدل يناهز ١٠٠ هدف بالمقارنة مع ٥٠ هدفًا كانت تتلقاها في عام ٢٠٢٢م بأكمله عندما كان انتقاء الأهداف وتحديدها متروكًا لسلطة المشغلين البشريين قبل إرسالها إلى القوات الجوية. وذكرت القيادات الصهيونية أن هذه التكنولوجيا تحل الصعوبة التاريخية في تحديد الأهداف في النزاعات السابقة، واصفةً إياها بأنها عامل "مُضاعِف للقوة" يسمح للجيش الصهيوني بتحديد الأهداف، وتسهيل الخدمات اللوجستية في زمن الحرب.
ومع ذلك، لا تخضع تلك الأنظمة لمراجعات قوية، ولا تُفحص بدقة، ولا يُقيَّم عدد الضحايا من المدنيين قياسًا على المعمول به من المشغلين البشريين. وتجدر الإشارة إلى أن تقنية الذكاء الاصطناعي لا تتخذ قرارات مستقلة، وأن كل توصية من النظام يوافق عليها المشغل. ومع العدد الكبير من التوصيات، قد تتولَّد لدى المشغلين تلقائية في أفعالهم، فيتعامون عن التفاصيل، وسيكون من الصعب تصديق أن المشغلين قد يتحققون تمامًا من كل توصية من الذكاء الاصطناعي. وما يؤكد ذلك إفادة وكالة الإغاثة الفلسطينية بأن "أكثر من ٤٠٪ من شهداء قطاع غزة سقطوا في المناطق التي ادعى الاحتلال الصهيوني أنها آمنة".
تقنية تحليل البيانات وتحديد الأهداف البشرية المستهدفة
كشفت عدة تقارير إعلامية إسبانية أن "الكيان الصهيوني" استخدم تطبيقًا للذكاء الاصطناعي يسمى "لافندر" (Lavender) مزوَّدًا بقاعدة بيانات لنحو ٣٧ ألف فلسطيني، ولمنازلهم بوصفها أهدافًا محتملة للغارات الجوية، بما في ذلك أفراد ذوو رتبة منخفضة بناءً على ارتباطاتهم المزعومة بالجماعات الفلسطينية داخل فلسطين، حسب زعم الصهاينة. ووفقًا لمصادر استخبارية صهيونية، تسبب هذا الاستخدام في مقتل عدد كبير من المدنيين الفلسطينيين، خاصة في الأشهر الأولى من الصراع كآثارٍ جانبية لقتل عنصر واحد من حماس، بقطع النظر عن رتبته، وفي كثير من الأحيان دُمِّرت بيوت، وقتلت عائلات بأكملها دون أن يكون هذا العنصر موجودًا في المنزل، وهو النظام الذي تسبب في ارتفاع معدل الضحايا المدنيين عمدًا. وذكرت صحيفة "إل دياريو الإسبانية"، في ٤ من أبريل ٢٠٢٤ أن الهجوم كان يُنفَذ باستخدام ما يطلق عليه "القنابل الغبية" منخفضة الدقة، وهي قنابل غير موجَّهة، تدمر المبنى بأكمله حرفيًّا على مَن فيه. وبحسب معلومات شبكة CNN الأميركية فإن ٤٥٪ من القنابل التي استخدمتها قوات الاحتلال في غزة من هذا النوع؛ علمًا بأن الوحدة ٨٢٠٠ الاستخباراتية في جيش الاحتلال هي التي طوّرت هذا النظام، فأصبح له دور مركزي في الحرب؛ إذ عالج كميات كبيرة من البيانات لتحديد أهداف محتملة من "صغار المقاتلين" لاستهدافهم بسرعة.
يعتمد النظام المذكور على منطق "الاحتمالات"، وهي من السمات المميزة لخوارزميات تعلم الآلة، حيث تبحث الخوارزمية داخل مجموعات ضخمة من البيانات في محاولة للعثور على أنماط تتطابق مع سلوك المقاتلين، ويعتمد نجاحها على جودة تلك البيانات وكميتها، ثم تقدم توصياتها للأهداف استنادًا إلى الاحتمالات. تتولى الخوارزمية تحليل المعلومات لنحو ٢.٣ مليون فلسطيني يعيشون في القطاع بعد جمعها باستخدام نظام مراقبة جماعي، وتعطي درجة من ١ إلى ١٠٠ لكل شخص تقريبًا، وهو ما من شأنه تقييم احتمال كونهم مقاتلين. كما يعتمد النظام من بين مصادره على تعقب الحسابات على مواقع التواصل الاجتماعي.
يوجد نظام آخر لاستهداف الأفراد يعرف باسم "أين أبي؟ ("?Where’s Daddy? / Dónde está el Papá) وهو أخطر من نظام "لافندر" السالف ذكره؛ فهو مصمم لمساعدة قوات الاحتلال على تعقب الفلسطينيين واستهدافهم عندما يكونون في المنازل ليلًا مع عائلاتهم. وبالفعل، دمرت قوات الاحتلال منذ السابع من أكتوبر ٢٠٢٣م أكثر من ٣٦٠ ألف منزل في غزة. ويقوم هذا النظام بتجميع معلومات عن ٩٠٪ من سكان غزة على الأرجح؛ فيما يمنح تطبيق "لافندر" تقييمًا يتراوح بين واحد إلى ١٠٠، وهو تقييم يستند على طريقة تفكير الآلة، علمًا بأن الرقم يعبر عن احتمالات قائمة على معلومات صغيرة تتجمع لتكوِّن احتمالية بأن الفرد هو عضو في الأجنحة العسكرية لحماس، أو الجهاد الإسلامي. وتجدر الإشارة إلى أن استخدام هذا النظام تسبب في إبادة عائلات فلسطينية بأكملها من الخريطة داخل منازلها، بسبب وقوع الاختيار عليها من برنامج الذكاء الاصطناعي!
وفي هذا السياق، أظهرت تحقيقات الصحفي المخرج "يوفال أبراهام" نتائجَ مماثلة في تقريره عن التكنولوجيا المستخدمة في الحرب على غزة، وكيف أن استخدام نظم الذكاء الاصطناعي العسكرية تشكل "خطرًا على الإنسانية"، وأن "الحرب القائمة على الذكاء الاصطناعي تسمح للناس بالهروب من المساءلة، مستشهدًا بشهادة ستة من ضباط الاستخبارات شاركوا جميعًا في استخدام أنظمة الذكاء الاصطناعي لتحديد الأشخاص المستهدفين من عناصر حماس. ولتعطيل العقل البشري تمامًا عن التفكير، أكد الجنود الذين شاركوا في الهجوم الحالي أنهم أصبحوا مجرد منفذين لأهداف اختارتها الآلات، دون وقت أو رغبة للتساؤل عن صحتها وتدقيقها. وهذا يعني أن نظم الذكاء الاصطناعي تتخذ قرارات حاسمة ومفصلية بشأن الأهداف دون مراجعة بشرية دقيقة، وستقنع الجنود بسهولة أكبر بالضغط على الزناد، وذلك استجابة لتوجيهات آلة طُلب منها تحقيق أقصى قدر من الدمار.
وفي إشارة إلى أن هذا التطبيق قد وفر الكثير من الوقت، اعترف جنود وحدات المخابرات الذين تحدثوا مع الصحفي بأن الأمر لم يستغرق أكثر من ٢٠ ثانية لاعتماد كل اسم في القائمة السوداء التي أنشأتها الخوارزمية، مشيرًا إلى أن الجيش الصهيوني كان يعلم أن النظام "يرتكب أخطاء" في ١٠٪ على الأقل من الأشخاص، وأن من يُقتلون ليسوا من عناصر حماس". فعلى سبيل المثال، ذكرت إحدى المصادر أن النظام كان يضع أشخاصًا يحملون أسماء وألقابًا مماثلة، فيصنفهم عناصر في حماس، ومثلهم من يضع عليهم النظام الآلي شارات تعريفية تتقارب في التوصيف مع غيرهم.
ولتسويغ قتل المدنيين، اعترف جندي للصحفي قائلًا: "في أوقات الحرب، لا يمكنك التحقق من كل هدف، لا بأس في قبول هامش الخطأ في الذكاء الاصطناعي: يمكنك قبول المدنيين القتلى والهجمات الخاطئة والتعايش معها". وعلى الرغم من أن الجيش الصهيوني يؤكد أن هذه البرامج لا تعمل إلا على "مساعدة" الأشخاص في تحديد مواعيد إطلاق النار وأماكنه، فإن الشهود الذين قدمهم "أبراهام" يؤكدون أن الإشراف البشري الوحيد على الأهداف التي يولدها الذكاء الاصطناعي هو التحقق مما إذا كانوا رجالًا أو نساء! وإذا استهدفت الآلة امرأة فهذا خطأ؛ إذ لا توجد مقاتلات في صفوف حماس أو الجهاد الإسلامي الفلسطيني، ولكن إذا كان رجلًا فلا بأس، دون التحقق من كونه عنصرًا مقاتلًا أم لا.
كما ذكر أحد شهود العيان أن قتل العناصر المسلحة لا يكون فقط داخل مبنى، أو عند قيامهم بنشاط عسكري؛ فمن الأسهل قصف منزل العائلة! وأشار اثنان من الأشخاص الذين أدلوا بشهادتهم إلى أنه سُمح لهم في الأسابيع الأولى من الحرب بقتل ١٥ أو ٢٠ مدنيًّا في خلال الغارات الجوية ضد "صغار المقاتلين" ذوي الرتب المنخفضة. وعادة ما يكون تنفيذ الهجمات على مثل هذه الأهداف باستخدام ذخائر غير موجهة رخيصة الثمن. والسبب يعود -بحسب مصادر استخباراتية- إلى عدم استخدام قنابل ذكية ضد مقاتلين غير مهمين، لأنها غالية جدًّا، ولديهم نقص فيها".
وتجدر الإشارة إلى وجود عيوب محتملة في اختيار الأهداف من جانب أنظمة الذكاء الاصطناعي؛ فهذه الأنظمة تعتمد على مصادر معلومات متنوعة مثل الصور، وبيانات الهواتف المحمولة، وشبكات التواصل الاجتماعي لتحديد الأهداف المحتملة. ومع ذلك، فإنها قد لا تأخذ في الاعتبار تغير الظروف، ما يؤدي إلى اختيار أهداف غير دقيقة تؤدي إلى قتل مدنيين.
وللتنديد باستخدام الذكاء الاصطناعي في الحرب على غزة، أعرب الأمين العام للأمم المتحدة "أنطونيو غوتيريش" في تصريحات صحفية نقلتها وكالة أنباء "أوروبا بريس" الإسبانية، في ٥ من أبريل ٢٠٢٤م، عن "قلقه البالغ" تجاه تقارير تفيد باستخدام جيش الاحتلال الصهيوني الذكاء الاصطناعي لقصف المواطنين، وتحديد الأهداف في قطاع غزة، لا سيما في المناطق السكنية المكتظة بالسكان، ما أدى الى ارتفاع القتلى في صفوف المدنيين"؛ رافضًا ربط "قرارات الحياة أو الموت بحسابات تجريها الخوارزميات".
وقد سلطت الصحف الناطقة بالإسبانية، في ٢٧ من أبريل ٢٠٢٤م، الضوء على اتهام فنزويلا للكيان الصهيوني أمام الأمم المتحدة بالاستخدام غير القانوني للذكاء الاصطناعي في استهداف مدنيين أبرياء ليسوا جزءًا من الصراع العسكري في فلسطين؛ فقد أدان السفير الفنزويلي لدى الأمم المتحدة، "صموئيل مونكادا"، في رسالة نشرت على مواقع التواصل الاجتماعي، استخدام قوات الاحتلال الصهيوني الذكاء الاصطناعي لقتل المدنيين الأبرياء الذين لا يشاركون في القتال في فلسطين. وأدرج مونكادا في رسالته مقطع فيديو يتضمن جزءًا من مداخلته في مجلس الأمن التابع للأمم المتحدة، أوضح فيه أن مجمع مستشفى "خان يونس" بقطاع غزة قد تحول إلى "أطلال" بفعل القوات الصهيونية، مشيرًا إلى اكتشاف أكثر من ٢٨٣ جثة مدفونة في مستشفى ناصر في منطقة خان يونس في وسط قطاع غزة. وشدد "مونكادا" في بيانه على أن حلفاء الكيان الصهيوني يخفون جرائمه في وسائل الإعلام الدولية، كما يخفون الرعب الذي يعانيه ويعيشه قطاع غزة جراء جرائمه. وأضاف أن الكيان الصهيوني لا يرغب في إبلاغ العالم بمجزرة مستشفى "خان يونس"، ويباشر جهدًا إعلاميًّا منظمًا للنفي والإنكار، بينما تزداد الجرائم ضد الفلسطينيين، مؤكدًا أن وقف الإبادة الجماعية التي ترتكبها قوات الاحتلال هو واجب والتزام قانوني على جميع الدول.
ويرى مرصد الأزهر لمكافحة التطرف أن التوجه إلى الذكاء الاصطناعي في الحرب على غزة -وفي غيرها- خطير جدًّا على البشرية، وأن هذه الاستخدامات تُعد سابقة في تاريخ الحروب، وهو ما يوضح التوجه العالمي الجديد في الاعتماد على التكنولوجيا القاتلة. كما أن خطورة الاعتماد على هذه الأدوات يكمن في تقليل دور الإنسان في اتخاذ القرارات القاتلة، والاستجابة الفورية غير المتعقلة لتنفيذ ما تمليه هذه التقنيات الحديثة من قرارات لا تخلو قطعًا من عشوائية تودي بحياة الآلاف من الأبرياء.
كما يشدد المرصد على أن استخدام قوات الاحتلال لتقنيات الذكاء الاصطناعي في قتل الفلسطينيين يوجب إصدار قوانين دولية لتنظيم تطوير تقنيات الذكاء الاصطناعي واستخدامها، والبدء في وضع الخطط لمواجهة الخطر المحتمل من تطورها. وعلى المجتمع الدولي أن يوقف توحش هذا الكيان الغاصب الذي لا يألو جهدًا في استخدام كل الأدوات والأساليب والأسلحة الحديثة المتطورة في تنفيذ الإبادة الجماعية بحق أبناء الشعب الفلسطيني دون رادع، ولا بد من إلزامه بالكف عن تلك الممارسات الإجرامية التي تنتهك جميع المبادئ العامة، وحقوق الإنسان، والقوانين الدولية.
وحدة الرصد باللغة الإسبانية