“الروبوتات القاتلة” تُهدد حقوق الإنسان في الحرب والسلم
قالت “هيومن رايتس ووتش” في تقرير أصدرته اليوم إن الأسلحة ذاتية التشغيل تُشكل مخاطر جسيمة على حقوق الإنسان في أوقات الحرب والسلام. ينبغي للحكومات معالجة المخاوف التي تثيرها هذه الأسلحة، المعروفة بـ “الروبوتات القاتلة”، عبر التفاوض بشأن معاهدة دولية للتصدي لهذه المخاطر.
يخلص التقرير الصادر في 61 صفحة، بعنوان “خطر على حقوق الإنسان: الأسلحة ذاتية التشغيل وصُنع القرارات الرقمي“، إلى أن الأسلحة ذاتية التشغيل، التي تختار الأهداف وتهاجمها بناء على الاستشعار وليس التدخل البشري، تتعارض مع الحق في كل من الحياة والتجمع السلمي والخصوصية والانتصاف، بالإضافة إلى مبادئ الكرامة الإنسانية وعدم التمييز. حاليا، يُحفّز التقدم التكنولوجي والاستثمارات العسكرية التطوير السريع للأسلحة ذاتية التشغيل التي تعمل دون تحكم بشري ملموس.
قالت بوني دوكرتي، مستشارة أولى في مجال الأسلحة في هيومن رايتس ووتش، والمحاضرة في القانون في “العيادة الدولية لحقوق الإنسان” في كلية الحقوق في “جامعة هارفرد”، والمؤلفة الرئيسية للتقرير: “لن يقتصر استخدام الأسلحة ذاتية التشغيل على الحرب، بل سيمتد ليشمل عمليات إنفاذ القانون، ومراقبة الحدود، وغيرها من الظروف، ما يثير مخاوف جدية بموجب القانون الدولي لحقوق الإنسان. لتجنب مستقبل يشهد عمليات قتل آلية، ينبغي للحكومات اغتنام كل فرصة متاحة لتحقيق الهدف المتمثل في اعتماد معاهدة عالمية بشأن الأسلحة ذاتية التشغيل”.
صدر التقرير، الذي نُشر بالتعاون مع العيادة الدولية لحقوق الإنسان بكلية الحقوق في جامعة هارفرد، قبل اجتماع “الجمعية العامة للأمم المتحدة” الأول حول الأسلحة ذاتية التشغيل في نيويورك يومي 12 و13 مايو/أيار 2025.
وُجدت أسلحة ذاتية التشغيل بدرجات متفاوتة منذ سنوات، إلا أن أنواع الأهداف، ومدة التشغيل، والنطاق الجغرافي، والبيئة التي تعمل فيها كانت جميعها محدودة. تشمل هذه الأسلحة أنظمة الدفاع الصاروخي، والمسيّرات المسلحة، والمسيّرات الانتحارية.
تعتمد الأسلحة ذاتية التشغيل، التي تعمل دون تحكم بشري ملموس، بمجرد تفعيلها، على برمجيات تستخدم الخوارزميات، ومدخلات من أجهزة استشعار كالكاميرات، والبصمة الرادارية، والأشكال الحرارية، وبيانات أخرى، لتحديد الهدف. بعد العثور على الهدف، تُطلق هذه الأنظمة نيرانها أو تلقي حمولتها دون الحاجة إلى موافقة أو مراجعة من مُشغّل بشري. هذا يعني أن الآلة، وليس الإنسان، هي التي ستحدد مكان استخدام القوة وتوقيته وضد من ستُستخدم.
تفتقر الأسلحة ذاتية التشغيل إلى القدرة على تفسير المواقف المعقدة والمقاربة الدقيقة للتقدير البشري والعاطفة الإنسانية، وهي عناصر أساسية للاستخدام القانوني للقوة بموجب الحق في كل من الحياة والتجمع السلمي.
خلافا للمبادئ الأساسية لحقوق الإنسان، لن تتمكن الأسلحة من احترام حياة الإنسان بما يحفظ كرامته. كما يُرجح أن تكون الأسلحة المعتمدة على الذكاء الاصطناعي تمييزية بسبب تحيّز المطورين وانعدام الشفافية المتأصل في التعلم الآلي.
تنتهك الأسلحة ذاتية التشغيل حقوق الإنسان طوال دورة حياتها، وليس فقط وقت استخدامها. المراقبة الشاملة اللازمة لتطويرها وتدريبها تُقوّض الحق في الخصوصية. كما تُشكّل فجوة المساءلة في هذه الأسلحة السرية انتهاكا للحق في الانتصاف عن الضرر الذي يلحق بالإنسان بعد أي هجوم.
قالت دوكرتي: “غالبا ما ينتهك البشر، سواء كانوا من الجيش أو الشرطة، حقوق الإنسان انتهاكا صارخا، لكن استبدالهم بالآلات سيكون أسوأ. البشر قادرون على حماية حقوق الإنسان، لكن الآلات لا يمكنها الامتثال أو فهم عواقب أفعالها”.
كان الراحل كريستوف هاينز، المقرر الخاص للأمم المتحدة المعني بحالات الإعدام خارج نطاق القضاء، أول مسؤول أممي يدق ناقوس الخطر بشأن الأسلحة ذاتية التشغيل في تقريره لعام 2013 المقدم إلى “مجلس حقوق الإنسان التابع للأمم المتحدة”. يُظهر تقرير “خطر على حقوق الإنسان” كيف أكد الأمين العام للأمم المتحدة والعديد من هيئات الأمم المتحدة وخبرائها على أن استخدام الأسلحة ذاتية التشغيل يشكل تهديدا للقانون الدولي لحقوق الإنسان، بل وطالب البعض بحظرها.
دعت أكثر من 120 دولة، رسميا، إلى اعتماد معاهدة دولية جديدة بشأن الأسلحة ذاتية التشغيل. حث الأمين العام للأمم المتحدة أنطونيو غوتيريش، ورئيسة “اللجنة الدولية للصليب الأحمر” ميريانا سبولياريتش إيغر الدول على التحرك فورا للحفاظ “على السيطرة البشرية على استخدام القوة” من خلال التفاوض بحلول 2026 على صك مُلزم قانونا يتضمن حظرا ولوائح للأسلحة ذاتية التشغيل.
دعا معظم مؤيدي المعاهدة إلى حظر الأسلحة ذاتية التشغيل التي تعمل بطبيعتها دون سيطرة بشرية حقيقية أو الأسلحة التي تستهدف الناس، فضلا عن وضع لوائح تضمن عدم استخدام جميع الأسلحة ذاتية التشغيل الأخرى دون سيطرة بشرية حقيقية.
تم تفويض الاجتماع القادم للأمم المتحدة بموجب قرار الجمعية العامة للأمم المتحدة بشأن الأسلحة ذاتية التشغيل القاتلة والذي اعتُمد في 2 ديسمبر/كانون الأول 2024، بأغلبية 166 صوتا مؤيدا وثلاثة معارضين (بيلاروسيا، وكوريا الشمالية، وروسيا) وامتناع 15 عن التصويت.
ناقشت الدول الأسلحة ذاتية التشغيل القاتلة في اجتماعات اتفاقية الأسلحة التقليدية في جنيف منذ مايو/أيار 2014، لكن دون التوصل إلى نتائج جوهرية، وذلك بشكل رئيسي بسبب اعتماد الدول الأعضاء فيها على نهج توافقي في اتخاذ القرارات، أي أن بإمكان دولة واحدة رفض أي مقترح، حتى لو وافقت عليه جميع الدول الأخرى. استغلت مجموعة من القوى العسكرية الكبرى التي تستثمر في الأسلحة ذاتية التشغيل هذه العملية مرارا لعرقلة مقترحات التفاوض على صك ملزم قانونا.
قالت دوكرتي: “ينبغي أن تجري مفاوضات المعاهدة بشأن الأسلحة ذاتية التشغيل في منتدى يتميز بهدف مشترك، واتخاذ القرارات على أساس التصويت، ومواعيد نهائية واضحة وطموحة، والالتزام بالشمول”.
هيومن رايتس ووتش عضو مؤسس في حملة “أوقفوا الروبوتات القاتلة“، التي تدعو إلى معاهدة دولية جديدة لحظر الأسلحة ذاتية التشغيل وتنظيمها. يدعم هذا التحالف، الذي يضم أكثر من 270 منظمة غير حكومية من 70 دولة، وضع معايير قانونية وغيرها تضمن سيطرة بشرية فعّالة على استخدام القوة، وتكافح نزع الإنسانية بفعل الأدوات الرقمية، وتحد من الضرر الآلي.