تجارب مرعبة في غزة يختبرها الإحتلال باستخدام تقنيات الذكاء الاصطناعي!

وأفادت الصحيفة، في تحقيق موسع نشرته السبت، أن كيان الاحتلال استخدم أنظمة متقدمة لتحديد المواقع، والتعرف على الوجوه، وتحليل المحتوى العربي، ضمن عملياته العسكرية التي تصاعدت منذ أواخر عام 2023. وأوضحت أن هذه الاختبارات شملت أدوات لم يسبق تجربتها في ساحات القتال، مما أثار قلقًا واسعًا بشأن الأضرار المحتملة على المدنيين.
ووفقًا لثلاثة مسؤولين من كيان الاحتلال والولايات المتحدة مطلعين، بدأت التجارب بمحاولة اغتيال القيادي في حركة حماس إبراهيم البياري، حيث استعان كيان الاحتلال بأداة صوتية تعتمد على الذكاء الاصطناعي طورتها الوحدة 8200، لتحديد موقعه التقريبي من خلال تحليل مكالماته.
وبحسب منظمة “إيروورز” البريطانية، أسفرت الغارة على البياري، في 31 أكتوبر، عن استشهاده إلى جانب أكثر من 125 مدنيًا.
واستمر كيان الاحتلال، خلال الأشهر التالية، في تسريع دمج الذكاء الاصطناعي في عملياته، بما شمل تطوير برامج للتعرف على الوجوه المشوهة، واختيار أهداف الغارات الجوية تلقائيًا، ونموذج لغوي ضخم يحلل المنشورات والمراسلات العربية بلهجات مختلفة.
كما أدخل نظام مراقبة بصري يستخدم عند الحواجز لفحص وجوه الفلسطينيين.
وأكد مسؤولون أن غالبية هذه التقنيات طُورت في مركز يعرف باسم “الاستوديو”، الذي يجمع خبراء من الوحدة 8200 بجنود احتياط يعملون في شركات كبرى مثل غوغل ومايكروسوفت وميتا.
وأثارت هذه الابتكارات مخاوف من أخطاء قد تؤدي إلى اعتقالات خاطئة أو استهداف مدنيين، إذ حذرت هاداس لوربر، خبيرة الذكاء الاصطناعي والمديرة السابقة بمجلس الأمن القومي لكيان الاحتلال، من أن غياب الضوابط الصارمة قد يقود إلى “عواقب وخيمة”.
من جهته، قال أفيف شابيرا، مؤسس شركة XTEND المتخصصة بالطائرات المسيّرة، إن قدرات الذكاء الاصطناعي تطورت لتتعرف على الكيانات وليس فقط صور الأهداف، لكنه شدد على ضرورة التوازن بين الكفاءة والاعتبارات الأخلاقية.
ومن بين المشاريع البارزة، تطوير نموذج لغوي ضخم لتحليل اللهجات العربية ومراقبة المزاج العام، ساعد في تقييم ردود الأفعال بعد اغتيال زعيم حزب الله حسن نصر الله في سبتمبر 2024. ومع ذلك، واجهت هذه التكنولوجيا بعض الأخطاء في فهم المصطلحات العامية.
ورفضت شركات ميتا ومايكروسوفت التعليق على التقارير، بينما أكدت غوغل أن موظفيها لا يؤدون مهام مرتبطة بالشركة خلال خدمتهم العسكرية. من جهته، رفض جيش كيان الاحتلال التعليق على تفاصيل البرامج، مكتفيًا بالتأكيد على الالتزام بالاستخدام “القانوني والمسؤول” لتكنولوجيا البيانات.
وأشارت “نيويورك تايمز” إلى أن استخدام الصراعات كحقول تجارب للتقنيات العسكرية ليس جديدًا بالنسبة لكيان الاحتلال، لكنها لفتت إلى أن حجم وسرعة توظيف الذكاء الاصطناعي في حرب 2023-2024 غير مسبوقين. وحذّر مسؤولون أمريكيون وأوروبيون من أن هذه الممارسات قد تشكل نموذجًا خطيرًا لحروب المستقبل، حيث يمكن أن تؤدي أخطاء الخوارزميات إلى كوارث إنسانية وفقدان الشرعية العسكرية.