IMLebanon

الروبوتات القاتلة .. إنتاج ضخم وأسعار زهيدة قد يجعلاها «كلاشنكوف الغد»

killerrobots
جون ثورنهيل

تخيل هذا السيناريو المستقبلي: التحالف الذي تقوده الولايات المتحدة يقترب من مدينة الرقة، مصمما على القضاء على تنظيم داعش. وفي مرحلة ما يطلق العنان لسرب قاتل من الروبوتات المحلقة ذاتية القيادة، التي تتحرك في أنحاء المدينة متعقبة العدو.

باستخدام تكنولوجيا تمييز الوجه، تتمكن الروبوتات تحديد كبار قادة التنظيم وقتلهم، ما يعمل على قطع عنق المنظمة. وتنهار قوات التنظيم المتطرف، المصابة بحالة من الذهول وتدهور الروح المعنوية، بينما تتعرض قوات التحالف والمدنيين إلى الحد الأدنى من الخسائر.

من الذي لا يعتقد بأن هذا يعتبر استخداما جيدا للتكنولوجيا؟

كثير من الناس، بمن فيهم خبراء عديدون في مجال الذكاء الاصطناعي يعرفون كثيرا عن التكنولوجيا اللازمة لتطوير مثل هذه الأسلحة.

في رسالة مفتوحة نشرت في تموز (يوليو) الماضي، حذرت مجموعة من باحثي الذكاء الاصطناعي من أن التكنولوجيا وصلت إلى مرحلة بحيث أن نشر منظومات الأسلحة الذاتية القاتلة (أو القوانين كما تعرف بشكل تناقضي) أمر ممكن في غضون سنوات، وليس عدة عقود. خلافا للأسلحة النووية يمكن أن يتم إنتاج مثل هذه الأنظمة على نطاق واسع وبتكلفة زهيدة لتصبح “كلاشينكوف الغد”.

وقال الباحثون: “ستكون هذه مسألة وقت فقط حتى تظهر تلك الأسلحة في السوق السوداء، وفي أيدي الإرهابيين، والطغاة الراغبين في التحكم بشكل أفضل في الجماهير، وأمراء الحرب الراغبين في ارتكاب جرائم التطهير العرقي. إن البدء في سباق تسلح عسكري من أسلحة الذكاء الاصطناعي يعد فكرة سيئة، وينبغي أن يتم منعه من خلال فرض حظر على الأسلحة الهجومية الذاتية الخارجة عن سيطرة الإنسان المعقولة”.

بالفعل رفضت الولايات المتحدة وعلى نطاق واسع، استخدام الأسلحة الهجومية المتمتعة بالاستقلالية. في الآونة الأخيرة أجرت الأمم المتحدة جولة من المحادثات في جنيف جمعت 94 قوة عسكرية بهدف التوصل إلى اتفاق دولي يحد من استخدامها.

والحجة الرئيسية أخلاقية الطابع، وهي أن منح الروبوتات وكالة لقتل البشر من شانه أن يتجاوز خطا أحمر ينبغي عدم تخطيه إطلاقا.

جودي ويليامز، التي فازت بجائزة نوبل للسلام بسبب حملتها ضد الألغام الأرضية والمتحدثة باسم حملة “أوقفوا الروبوتات القاتلة”، تعتبر أن الأسلحة الذاتية أكثر رعبا من الأسلحة النووية. وتقول: “إلى أين تذهب الإنسانية إن كان بعض الناس يعتقدون أن من الجيد التنازل عن حق الحياة وقتل البشر بواسطة آلة؟”.

وهناك مخاوف أخرى تتجاوز الجانب الأخلاقي البحت. هل يعمل استخدام الروبوتات القاتلة على تخفيض تكاليف الحرب البشرية، وبالتالي يزيد من احتمال نشوب صراعات؟ كيف يمكن إيقاف انتشار مثل هذه الأنظمة؟ من الذي سيخضع للمساءلة عندما تخطئ تلك الأسلحة؟

تبدو هذه الحجة الأخلاقية ضد الروبوتات القاتلة واضحة بما فيه الكفاية من الناحية الفلسفية. لكن المشكلة هي أنك كلما دقَّقْتَ النظر في استخدامها المحتمل في ضباب الحرب، يصبح من الصعب تمييز الحدود الأخلاقية. وحتى الآن تم نشر الروبوتات (بقدرة ذاتية محدودة) في ساحة القتال في مجالات مثل إبطال مفعول القنابل وإزالة الألغام والأنظمة المضادة للصواريخ. ومن المتوقع أن يتسع نطاق استخدامها بشكل كبير.

ويقدر “مركز الأمن الأمريكي الجديد” أن الإنفاق العالمي على الروبوتات العسكرية سيصل إلى 7.5 مليار دولار سنويا بحلول عام 2018، مقارنة بـ 43 مليار دولار من المتوقع إنفاقها على الروبوتات التجارية والصناعية. ويؤيد المركز الفكري الذي يوجد مقره في واشنطن، نشر المزيد من مثل هذه النظم بحجة أنها يمكن أن تعزز إلى حد كبير “قدرة القوات المقاتلة لكسب ميزة حاسمة تتفوق بها على خصومها”.

في النثر المطهر الذي تحبه، تقيم صناعة الأسلحة تمييزا بين المستويات المختلفة من الاعتماد على الذات. المستوى الأول الذي يوصف بأنه “البشر في الحلقة”، يشمل الطائرات الهجومية بدون طيار التي تستخدم على نطاق واسع من قبل القوات الأمريكية وغيرها من القوات. وعلى الرغم من أن الطائرة بدون طيار يمكنها تحديد الهدف، إلا أنها لا تزال تتطلب وجود شخص يضغط على زر الهجوم. ومثلما هو موضح بصورة حية في فيلم “عين في السماء”، يمكن لمثل هذه القرارات أن تكون مؤلمة من الناحية الأخلاقية، ما يعمل على موازنة أهمية ضرب أهداف حيوية تنطوي على مخاطر إصابات في صفوف المدنيين.

أما المستوى الثاني من الاعتماد على الذات فيشمل أنظمة “البشر في حلقات”، وفيه يشرف البشر على أنظمة الأسلحة الروبوتية، بما في ذلك البطاريات المضادة للطائرات. لكن سرعة وكثافة الحروب الحديثة تجعل من المشكوك فيه ما إذا كان مثل هذا الإشراف البشري يشكل رقابة أو سيطرة فاعلة.

المستوى الثالث يتعلق بأنظمة “البشر خارج الحلقة”، مثل الطائرات بلا طيار المستقلة ذاتيا بشكل تام، التي من المحتمل أن تكون النوع الأكثر دموية، لكن ربما النوع الأسهل من حيث تحريمه.

من المؤكد أنه ينبغي الإشادة بباحثي الذكاء الاصطناعي لتسليطهم الضوء على هذا النقاش. كما أن خبراء مراقبة التسلح يلعبون هم أيضا دورا مفيدا، ولكن بطيئا بشكل محبط في المساعدة في تحديد هذا التحدي والاستجابة له. يقول بول شار، وهو زميل أول لدى مركز الأمن الأمريكي الجديد: “إنه حوار قيم. لكنها عملية بطيئة للغاية”.

وكما هي الحال في كثير من المجالات الأخرى، تتدافع مجتمعاتنا من أجل فهم الحقائق التكنولوجية سريعة التغير، ناهيك عن السيطرة عليها.