إعداد
حبيبة عمران
باحث بمركز جسور
قد يظن البعض أن الحديث عن الروبوتات و استخدام الروبوتات لأغراض حربية وعسكرية مستوحى من أفلام الخيال العلمي و ليس له مكان في الواقع. علي الرغم من ذلك، الروبوتات القاتلة او الروبوتات الحربية هي مشاريع حقيقية يُصرف عليها مليارات الدولارات من الدول العظمى. هذا التحول التكنولوجي قد يؤدي إلي تغيير مسارات و مفاهيم كثيرة من ضمنها مفاهيم الأمن القومي، الأمن العالمي، موازين القوي، المسئولية الأخلاقية….. ولأهمية دور الروبوتات سيناقش ذلك المقال ما هو دور الروبوتات في الحروب، والمسئولية الأخلاقية الواقعة علي استخدام تلك الروبوتات، والجهود المبذولة لحظر استخدام الروبوتات القاتلة، و العلاقة بين كرامة الانسان و الروبوتات القاتلة، و هل استخدام الروبوتات ينتهك القوانين العالمية لحقوق الانسان؟
مفاهيم:
تعريف مصطلح “الروبوت” هو لوصف الأجهزة الفنية التي تستشعر بيئتها وتتفاعل معها بشكل هادف من أجل تنفيذ مهام مفيدة. تحتوي الروبوتات على مجموعات أجهزة استشعار تمكنهم من التفاعل مع البيئة من حولهم. ذلك التعريف للروبوت لم يخلق اي جدل حوله إنما تعريف “الروبوت” كأسلحة تستخدم لتحديد الهدف و استخدامها في ميدان الحرب هو ما خلق تلك الإشكالية حوله .
أما انظمة الأسلحة المستقلة ومن ضمنها الروبوتات القاتلة يتم تعريفها كالأتي: هي الأسلحة التي تكون قادرة بمجرد تفعيلها، على تحديد الأهداف و التعامل معها دون التدخل من قبل عامل بشري. بينما تعْرف اللجنة الدولية للصليب الأحمر الأسلحة المستقلة بأنها “أسلحة يمكنها اختيار الأهداف ومهاجمتها بشكل مستقل ، أي تتمتع بالاستقلالية في” الوظائف الحاسمة “المتمثلة في الحصول على الأهداف وتتبعها واختيارها ومهاجمتها.
قبل أن نتطرق إلي دور الروبوتات في الحروب علينا أن نعرف مفهوم الحرب. الحرب كما اشار اليها مايكل والزر: “هي علاقة بين الكيانات السياسية وأدواتها البشرية”. و لكن هذا التعريف في المستقبل القريب قد يكون غير منطقي حيث تستثمر الدول في تصنيع روبوتات لأغراض حربية ومن المتوقع ان يتم استبدال الجيوش البشرية بجيوش من الروبوتات!
الأسلحة المستقلة (الروبوتات القاتلة):
الذكاء الاصطناعي أصبح له أهمية كبيرة في المجال الامني و العسكري، فهو يساعد الجنود و يضيف لهم قوة اضافية في الحروب. و يقال ان تلك الروبوتات ستخلق ثورة ثالثة في الحروب بعد أسلحة البارود و السلاح النووي، و المقارنة بين استخدام البشر أو الروبوتات في الحروب ستميل الي استخدام الروبوتات لأنه على الرغم من أن البشر يتمتعون بقدرات فائقة على الإدراك في البيئات المعقدة وتفسير المعلومات الغامضة، إلا أن الروبوتات تمتلك سرعة ودقة في التفكير. علي الناحية الأخري يتمتع البشر بقدرة جسدية محدودة علي تحمل درجات الحرارة والإشعاع، وهم أكثر عرضة للأسلحة البيولوجية والكيميائية، ويحتاجوا إلى الراحة والطعام والهواء القابل للتنفس ومياه الشرب. أما الروبوتات لا تؤثر فيهم تلك العوامل البيولوجية ولا يشعروا أيضاً بألم عاطفي أو رد فعل سياسي عنيف في حال الخسارة. و أيضا تكلفة البشر عالية، ومن المتوقع أن يؤدي استبدالهم بالروبوتات إلى توفير التكاليف. تلك الأسباب تجعل الدول العظمي تطمح باستبدال جنود البشر بالروبوتات و الأسلحة المستقلة.
علي الرغم من أن الروبوتات لها فوائد إلا أنها ستكون هناك مجازفات خطرة تأتي من التحدي بين الدول، وغياب القواعد و القوانين في مناطق الصراع، وانعدام المسؤولية في اتخاذ القرارات، و سباق التسلح. إلا أن أصحاب القرار يحاولوا التأكيد علي أن قرار القتل من عدمه سيبقي في يد الأنسان. و لكن لا نستطيع ان ننتظر فناء البشرية بناءً علي تصريحات غير رسمية من قادة الدول، و لكن في ماذا تكمن خطورة الربوتات القاتلة أو الأسلحة المستقلة؟؟
في بدايات استخدام تلك الأسلحة المستقلة كان الإشراف و التوجيه لابد ان يكون من قادة الجيش او القوات الجوية, أما مع تطور تلك الأسلحة و الروبوتات فيمكنها أن تأخذ القرارات بنفسها دون اشراف من الكوادر البشرية، و من المتوقع أن هذه الأنظمة المستقلة ستستطيع تكوين القرارات بنفسها و القدرة على التعلم من التجربة مما يعني أن قرارات تلك الأسلحة المستقلة ستكون غير متوقعة مما يؤدي الي معضلة اخلاقية و سيتم التساؤل على من يقع عاتق المسئولية في حال حدوث قتل خطأ او قتل الأبرياء.
تستطيع بعض أنظمة الأسلحة المستقلة تحديد هدفها بنفسها ما إن دخلت نطاق العمليات، أما بعض الأسلحة المستقلة تستطيع تحديد موقع وتحديد الهدف والمهاجمة والتدمير سواء أرضاً أو جواً. فمثلاً أنظمة القوات الجوية للولايات المتحدة الاميركية تستطيع البحث بشكل مستقل و اكتشاف وتحديد ومهاجمة وتدمير دفاع صاروخي وأنظمة صواريخ أرض جو. تم استخدام نظام الأسلحة المستقلة في عام 2001 باستخدام أول ضربة بطائرة مسيرة من قبل الولايات المتحدة، ثم توسع استخدام الأسلحة الآلية التي تعمل عن بعد بشكل كبير في معظم الدول الكبري و أثارت الرأي العام و الجدال حول ذلك الامر حيث أن الروبوتات الآن هي المكون الأكثر ديناميكية و مزعزعاً لسباق التسلح العالمي. و تم استخدام بعض من هذه الأسلحة في النزاعات العسكرية في العراق وكوسوفو وأفغانستان, فمثلاً تم استخدام الطائرات المسيْرة على نطاق واسع في العمليات العسكرية لحلف شمال الأطلسي في كوسوفو لأغراض المراقبة وتحديد الأهداف و تم أستخدامها ايضاً من جانب الولايات المتحدة الأميركية ضد افغانستان و العراق. مما يعني أنه من المحتمل أن تلعب دورًا كبيرًا في أي حروب مستقبلية أو هي نفسها تكون مستقبل الأسلحة الحربية و يتم أستبدال الطائرات الجوية بتلك الطائرات المستقلة. مع تطور استخدام تلك الروبوتات فقد تتعرض الي عوامل استفزازية. ففي الآونة الأخيرة ، حذرت الصين من أنه إذا نفذت اليابان تهديداتها بإسقاط الطائرات المسيرة الصينية التي تقترب من الجزر المتنازع عليها، فيمكن اعتبار ذلك اشارة الي شن الحرب. و بالتالي إذا تم تفسير رد الفعل من الدول بشكل انفعالي فإنه من السهل ان يتم شن الحرب بين الدول.
المسئولية الأخلاقية:
الروبوتات القاتلة أو الأسلحة المستقلة تخلق معضلة أخلاقية حيث يتم التساؤل عن أحقية تلك الروبوتات أن تأخذ قرارات فارقة و مهمة مثل القتل و التدمير, و ما هي القرارات التي ممكن ان نسمح للروبوتات أن تأخذها و ما يجب منعه؟, و إذا كان بإستطاعة تلك الروبوتات ان تأخذ مثل تلك القرارات فهل يجب أن نحمْلها ايضا الحقوق و الواجبات ؟ إذن فعلينا أن نتساءل علي من تقع المسئولية في حالة حدث جريمة حرب من قِبل تلك الأسلحة المستقلة او الروبوتات القاتلة؟

قد يقول البعض ان المسئولية يجب ان تقع علي مصممي هذا السلاح أو الروبوت، و لكن قد نتفق علي ذلك في حالتين و هي أن الخطأ حدث بسبب اهمال أو خطأ في تصميم الروبوت نفسه مما أدى الي نتيجة مدمرة مثل تحديد الهدف الخطأ، أو ان الروبوت يأخذ قرارات من نفسه او قرارات غير متوقعة و مختلفة عن تصميم الروبوت نفسه. و بالتالي كلما أعطي للروبوتات استقلالية أكثر في اتخاذ القرارات كلما قل عاتق المسئولية علي مصممين الروبوتات.
أما البعض يقول أن المسئولية يجب أن تقع علي الشخص الذي اعطى الأمر للروبوت لتحديد الهدف، و بالتالي إذا الروبوت او السلاح أخفق في تحديد الهدف و قتل هدف خطأ فيجب أن يعاقب ذلك الشخص. و لكن إذا تم إعطاء الروبوت قدراً من الاستقلالية فمن الصعب أن يتم وضع المسئولية علي شخص ما لأن أفعال هذه الروبوتات غير متوقعة و من المستحيل تحميل الروبوتات نفسها المسئولية في حال حدوث اخطاء. إلي جانب أننا لا نجد في الإتفاقية الخاصة باحترام قوانين وأعراف الحرب البرية، ولا اتفاقيات جنيف وصف لنظم الذكاء الاصطناعي التي يمكان أن تُستعمل في المعارك او التي لا يُمكن استعمالها، و لا يوجد أيضا تشريعات دولية تحدد من هو الجاني في حال تعطل نظام مستقل. و لذلك سيكون من غير الأخلاقي استخدام أنظمة مستقلة تتضمن ذكاءً اصطناعياً متطورًا في الحرب ما لم يتم تحميل شخص ما المسؤولية عن القرارات التي يتخذونها حيث قد تهدد هذه القرارات البشرية بأكملها.
الجهود المبذولة ضد الروبوتات القاتلة:
هناك ضغط واضح من المجتمع المدني علي حظر الروبوتات القاتلة قبل أن تبدأ الدول الكبري في استخدامها بكثرة، إلى جانب أن احترام حقوق و حريات الانسان يتوافق تماما مع قوانين الحرب و بالتالي يتم المطالبة بوضع قواعد صارمة علي تلك الروبوتات لمنع انتهاكها حقوق الانسان. المعارضين علي الروبوتات القاتلة يشيروا الي التهديد الكبير من قبل الروبوتات علي الامن العالمي، والانسانية، و تأثيرها علي الوعي العام. تُبذل حاليًا جهود متضافرة لحظر تطوير واستخدام الروبوتات القاتلة و تم إطلاق “حملة وقف الروبوتات القاتلة” في عام 2013، وقد تم تشكيلها من تحالف عالمي يضم أكثر من 72 منظمة غير حكومية من 31 دولة. في عام 2015 ، تم اصدار خطاب مفتوح يدعو إلى “حظر الأسلحة الهجومية المستقلة التي تتجاوز السيطرة البشرية الهادفة” ، و وقعها ما يقرب من 4000 باحث في الذكاء الاصطناعي والروبوتات. و أيضاً كانت هناك مناقشات في الأمم المتحدة حول أنظمة الأسلحة المستقلة: حيث عقدت الدول الأطراف في إتفاقية الأسلحة التقليدية اجتماعات سنوية منذ عام 2014 حول تطور نظم الأسلحة المستقلة “الروبوتات القاتلة” ، وتم إنشاء فريق من الخبراء الحكوميين في الأمم المتحدة في عام 2016 لإجراء مزيد من المناقشات ، و تم عقد أخري في نوفمبر 2018 و مارس 2019 و تم دعوة الدول لحظر هذه الأسلحة من قبل 26 دولة.
في سنة 2015 أرسل (معهد مستقبل الحياة) رسالة مفتوحة تحمل 16000 توقيعا، تحذر من أنظمة الأسلحة المستقلة التي تهدد حياة المدنيين، ومن خطر السباق نحو التسلح، وبالتالي من مخاوف المآل في النهاية إلي فناء البشرية . من بين الذين وقعوا علي تلك الرسالة “إيلون ماسك” الذي أسس سبايس إكس وتسلا، وعالم الفيزياء الفلكية البريطاني “ستيفن هوكينغ”، و في شهر أغسطس الماضي، أرسل إيلون ماسك و 116 خبير من مصممي النظم الروبوتية والذكاء الاصطناعية عريضة إلى منظمة الأمم المتحدة طالبون فيها بالمنع التام وحظر تطوير الأسلحة الهجومية المستقلة أو التدريب عليها. و لذلك تتعدد الدوافع لوقف الروبوتات القاتلة و أنظمة الأسلحة المستقلة فمثلا أنه من الصعب امتثال تلك الأسلحة والروبوتات للقانون الدولي، إلي جانب المشاكل الخطيرة المتعلقة بالأمن العالمي. كما قيل إنهم ضد كرامة الإنسان حيث يجب أن يقتصر قتل الأرواح البشرية على قرارات صادرة من البشر.
إذن ما العلاقة بين الروبوتات و الأسلحة المستقلة، و كرامة الانسان؟؟
استخدام الاسلحة المستقلة أو الروبوتات تمنع المساواة بين المقاتلين، حيث أن الأشخاص التي تستخدم أسلحة مستقلة تزيل من عليها أي خطر جسدي في القتال، بينما الأشخاص التي يتم استهادفها من الأسلحة المستقلة لا تستطيع المواجهة و القتال و يزداد عندهم الأخطار الجسدية. و تزيد ايضاً من المعاناة والإذلال للأهداف – على سبيل المثال ، تتسبب بعض الصواريخ المستقلة في حرق الجثث بعد قتلها. وبالمثل ، فإن التهديد المستمر واستخدام الأسلحة المستقلة يمكن أن يؤدي إلى ضغوط وأضرار نفسية للسكان المدنيين.
يتضح من تقرير 2012 الصادر عن هيومن رايتش واتش أن الروبوتات و الأسلحة المستقلة ليست قادرة حماية المدنيين لأنها لن تستطيع التفرقة بين المدنيين و غير المدنيين من العساكر و الجيش في أوقات الحرب مما يؤدي إلى قتل نسبة أكبر من المدنيين لأنها تتطلب حكمًا و فهماً بشريًا. إضافة الي ذلك، الروبوتات و الأسلحة المستقلة يمكن أن تجعل شن الحرب أكثر احتمالية و أكثر سهولة، حيث يمكن للسياسيين إثارة الصراع دون المخاطرة بجنود الدولة الروبوتات و الأسلحة المستقلة تهدد بحياة و كرامة الانسان لأنها لا تستطيع فهم قيمة حياة الانسان و قيمة خسارة حياة انسان. إلى جانب أنها تستطيع زيادة معاناة الهدف الذي تريد قتله ووضعه تحت ضغط نفسي غير محتمل لأنه ليس لدى تلك الأسلحة أية مشاعر, و تستطيع تلك الروبوتات أيضًا انتهاك حقوق الانسان مثل تقييد حريته، و التقليل من مستوي المعيشة….
هل الروبوتات تنتهك القوانين العالمية لحقوق الانسان؟
تهدف مبادئ قانون الحرب إلى حماية المدنيين و أولئك غير القادرين على القتال أثناء الحرب أو الذين لم يشاركوا بشكل مباشر أثناء الحرب. وتحكْم قواعد قانون الحرب وتسيطر على تصنيع أو استخدام أي أسلحة قد تؤدي عند استخدامها إلى إحداث إصابات لا داعي لها أو إصابة أطراف لم يشاركوا أو لا يستطيعوا المشاركة في الحرب. يأتي هذا في أعقاب المادة 36 من اتفاقية جنيف، المكتوبة في عام 1936. و التي تم تشكيلها بعد قصف هيروشيما وناغازاكي باستخدام سلاح مصنف من بين تلك التي تسببت في إصابات لمدنيين و لأشخاص ليسوا طرفا في أي حرب خلال الحرب العالمية الثانية.
كما ذُكر في احدي بروتوكولات اتفاقية جينيف يجب تمييز النزاع بين المدنيين والمقاتلين ، وبين الأهداف المدنية والأهداف العسكرية. يجب توجيه الهجمات ضد المقاتلين والأهداف العسكرية فقط ؛ الأسلحة التي لا يمكن توجيهها على هذا النحو تعتبر عشوائية وبالتالي محظورة. علاوة على ذلك، يجب على من يتخذون قرارات الهجوم ألا يسمحوا بالهجمات التي يُتوقع أن تتسبب في إلحاق أضرار جسيمة بالمدنيين.
القيود التقنية تعني أن الروبوتات لا يمكنها التمييز بشكل موثوق بين المدنيين والمقاتلين. ومن الواضح أن التمييز يمثل تحديًا للتكنولوجيا الحالية؛ حتي الآن تم تطوير تقنية التعرف على الوجوه للتعرف بسرعة على الأفراد من قائمة محدودة من الأهداف المحتملة إنما لا يمكن تطبيقها في حرب تتكون من عدد كبير من فريقين من المقاتلين و المدنيين خاصة في الحروب الغير نظامية.
و بالتالي استخدام الروبوتات القاتلة لتحديد أهداف بشرية ينتهك القوانين العالمية لحقوق الانسان، لأنه ليس من العدل أن نضع ألات قدرتها فائقة للتعامل مع بشر قدرتهم محدودة، إلي جانب عدم قدرة الروبوتات تحديد المدنيين و غير المدنيين مما سيؤدي إلي خسارة عدد كبير من المدنيين الأبرياء.
الخاتمة:
تسلك البشرية مسار سريع في تطور التكنولوجيا ومن المؤكد أن هدف التكنولوجيا هو مساعدة الانسان وتسهيل حياته، ولكن بعدما ناقشنا التطور السريع للروبوتات و الأسلحة المستقلة و قدرتها علي تحديد و قنص الأهداف دون الرجوع لقرار بشري فعلينا أن نقلق من مستقبل تلك الروبوتات و نأخذ حذرنا من تطور تلك الأسلحة.
إضافة الي المخاطر التي قد تنتج من استخدام الروبوتات لإنعدام بشريتها في التعامل مع الأهداف, فمازالت هناك معضلة أخلاقية تترتب من استخدام تلك الروبوتات و عدم وجود مسئول في حال وقوع أخطاء مما يهدد بقتل عدد كبير من المدنيين في أوقات الحروب و الصراعات. إلي جانب أن استخدام الروبوتات كبديل عن الجنود البشر تنتهك القوانين العالمية لحقوق الانسان بشكل صريح.
و لذلك نختتم ذلك المقال بالإشارة إلي المخاطر التي يمكن أن يتسبب فيها الأستخدام المفرط و المكثف لتلك الروبوتات القاتلة و نتنمني أن تلتفت منظمة الأمم المتحدة لذلك الموضوع و تصدر قرارات لمنع و حظر استخدام الروبوتات القاتلة قبل أن تنشب حروب باستخدام تلك الروبوتات مما سيؤدي إلي فناء البشرية.
