15 ألف شهيد فلسطيني قتلوا بقرارات من “الذكاء الاصطناعي الإسرائيلي”
تشات جي بي تي صهيوني يقرر من يموت في غزة
خوارزميات إسرائيلية حددت 37 ألف فلسطيني كأهداف للإبادة
العدو الصهيوني يحول الذكاء الاصطناعي الى وحش لقتل الفلسطينيين
خوارزميات صهيونية قاتلة.. العدو يحول الروبوتات إلى أدوات قاتلة ذاتية الإجرام
الاحتلال الرقمي يبدأ من غزة
إسرائيل تطور ذكاءً اصطناعياً باللغة العربية لقتل الفلسطينيين
ذكاء اصطناعي.. روبوت إسرائيلي يتجسس ويقتل بضغطة زر
العدو الاسرائيلي حول الاتصالات الخاصة للفلسطينيين إلى “خوارزميات لقتلهم”
إعداد: سمير الحجاوي
كشفت تحقيقات صحفية دولية، أبرزها تقرير صحيفة الغارديان البريطانية بالتعاون مع موقع +972 العبري، أن الجيش الإسرائيلي استخدم في عدوانه على غزة أنظمة ذكاء اصطناعي متطورة لتحديد أهداف بشرية بشكل شبه أوتوماتيكي، في سابقة خطيرة في تاريخ الحروب الحديثة.
وبحسب التحقيق، فقد حدد نظام “لافندر”، الذي طورته وحدة 8200 التابعة للاستخبارات العسكرية الإسرائيلية، حوالي سبعة وثلاثين ألف هدف فلسطيني خلال شهر واحد فقط، وهو الشهر الأول من بدء العدوان الإسرائيلي على قطاع غزة في أكتوبر عام 2023.
هذه الأهداف شملت حسب المصادر، أشخاصاً صنفهم الذكاء الاصطناعي على أنهم يشكلون تهديداً أمنياً، اعتماداً على تحليلات خوارزمية لبيانات الاتصالات والمراقبة، دون وجود مراجعة بشرية كافية، ودون محاكمات أو تحقيقات قضائية.
15 ألف شهيد فلسطيني ضحايا “الذكاء الاصطناعي”
وتشير التقديرات إلى أن آلاف الفلسطينيين، يُرجّح أن يكون عددهم ما بين عشرة إلى خمسة عشر ألفاً، تم اغتيالهم فعلياً نتيجة قرارات استهداف مبنية على توصيات الذكاء الاصطناعي، الذي أصبح بمثابة “مُرشّد رقمي للقتل”، كما وصفه بعض المراقبين الدوليين.
التقارير الحقوقية أكدت أن عمليات الاستهداف لم تميز بين المقاوم والمدني، وأن النظام لم يكن دقيقاً بما فيه الكفاية، بل شمل نشطاء حقوق إنسان، صحفيين، وحتى مدنيين لم تُسجل ضدهم أي أنشطة مقاومة، وهو ما يثير أسئلة قانونية وأخلاقية كبرى حول “شرعية الحرب المؤتمتة”.
استخدام هذه الأنظمة تم بسرعة وفاعلية منذ الأيام الأولى للحرب، إذ كانت القرارات تُتخذ خلال أقل من عشرين ثانية، وفق ما ورد في شهادات ضباط من داخل وحدة العمليات الإسرائيلية.
وتأتي هذه الأرقام لتسلط الضوء على تحول خطير في طبيعة الصراع، حيث لم تعد إسرائيل تعتمد فقط على أدواتها العسكرية التقليدية، بل باتت تستخدم الذكاء الاصطناعي كأداة اغتيال جماعية مبرمجة، تسير بخوارزميات لا تخضع لرقابة قانونية أو إنسانية.
هذا الأسلوب من الحرب الرقمية يفتح الباب أمام نمط جديد من الانتهاكات، تتجاوز الإنسان، وتمنح “الآلة” دوراً محورياً في تحديد من يعيش ومن يُقتل، في وقت لا تزال فيه العدالة الدولية غائبة عن مساءلة هذه الممارسات.
كيف يستخدم العدو الإسرائيلي الذكاء الاصطناعي في حرب الإبادة؟
وقالت الغارديان: ان وحدة 8200 التابعة لجيش الاحتلال الإسرائيلي، قامت بتطوير نموذج ذكاء اصطناعي متقدم، ناطق بالعربية، شبيه بمنصة “تشات جي بي تي”، هدفه الأساسي: تجريم الفلسطينيين وتتبعهم واستهدافهم آليًا.
وتم بناء هذا النموذج الضخم من خلال تجميع مليارات الكلمات والمحادثات الخاصة للفلسطينيين، تم التنصّت عليها من الهواتف، ومحادثات الواتساب، والرسائل النصية، وجُمعت في “أكبر قاعدة بيانات باللغة العربية” – على حد وصف الضابط السابق شكيد سيدوف، المشرف على المشروع.
استخبارات صناعية… بدون قيود
النموذج المدعوم بتقنيات الذكاء الاصطناعي، وُصف بأنه “ثورة في قدرة إسرائيل على التجسس”، إذ يسمح للعسكريين بطرح أسئلة على الأداة الذكية حول أي فرد فلسطيني مراقَب، والحصول على “تحليل شخصي وسلوكي” يمكن استخدامه للاستهداف أو الاعتقال أو التصنيف الأمني.
وقد بدأت هذه المبادرة مع بداية العدوان على غزة في أكتوبر 2023، وسرّعت إسرائيل من تطوير النموذج، مع استقدام خبراء من شركات مثل غوغل، ميتا، مايكروسوفت الذين التحقوا بالوحدة كجنود احتياط.
من يقرر من يُقتل؟
من أخطر ما ورد في التحقيق أن أنظمة مثل “Lavender” و”Gospel” استخدمت لتحديد آلاف الأهداف البشرية والمباني داخل غزة خلال أسابيع، بناءً على تحليل الذكاء الاصطناعي، وليس بالضرورة معلومات مؤكدة أو أدلة ميدانية.
مصادر أمنية أكدت أن آلاف الفلسطينيين قُتلوا بناءً على اقتراحات “خوارزميات” صنّفتهم كتهديد، دون أي مراجعة بشرية فعلية أو محاكمة قانونية.
آراء حقوقية: آلة تخمين تقتل الأبرياء
الباحث في “هيومن رايتس ووتش” زاك كامبل قال إن ما يحدث هو استخدام “آلة تخمين” لتحليل أشخاص عاديين، ثم استهدافهم بناءً على احتمالات رياضية.
أما الباحثة بريانا روزين من جامعة أكسفورد، فأكدت أن هذه الأدوات قد ترتكب أخطاء مميتة: “لا أحد يعلم كيف تصل هذه النماذج إلى قراراتها. الأخطاء قادمة… وقد تكون مروعة.”
غزة مختبر الذكاء الاصطناعي
قال نديم ناشف، مدير منظمة “حملة” الحقوقية الرقمية: “الفلسطينيون تحولوا إلى حقول تجارب للذكاء الاصطناعي العسكري
الإسرائيلي. يتم استخدامهم لتجريب نماذج التنبؤ، والسيطرة، والتجريم الجماعي… باسم الأمن.”
من يراقب المراقب؟
الغارديان سلطت الضوء على أن إسرائيل، بخلاف الولايات المتحدة أو بريطانيا، لا تخضع لأي رقابة برلمانية أو قانونية بش
أن استخدام بيانات المراقبة، مما يجعلها واحدة من أكثر الدول “توحشاً” في استخدام الذكاء الاصطناعي لأغراض قمعية.
ما تكشفه التقارير ليس مجرد تطور تكنولوجي. بل هو تحوّل كامل في أدوات القتل والاحتلال، حيث لم يعد العدو يكتفي بالقصف التقليدي، بل بات يستخدم “عقلاً صناعياً” لتحديد من يستحق الموت… ومن يُصنَّف عدواً فقط لأنه تحدث بلهجة معينة، أو استخدم كلمة “مقاومة” في محادثة هاتفية.
إنها حرب جديدة… لا تُدار فقط بالصواريخ، بل بالخوارزميات التي لا ترحم.