يستمر شبح قاتل الآلة. بماذا يؤمن الرئيس بوتين؟
تكنولوجيا

يستمر شبح قاتل الآلة. بماذا يؤمن الرئيس بوتين؟

يرى أنصار الروبوتات العسكرية (1) أن الأسلحة الآلية توفر قدرات أكبر لحماية حياة الإنسان. يمكن للآلات الاقتراب من العدو أكثر من الجنود وتقييم التهديد بشكل صحيح. وأحيانًا تشل العواطف القدرة على اتخاذ القرارات الصحيحة.

يعتقد العديد من أنصار استخدام الروبوتات القاتلة اعتقادًا راسخًا أنها ستجعل الحروب أقل دموية لأن عددًا أقل من الجنود سيموتون. ويشيرون إلى أن الروبوتات، رغم أنها لا تشعر بالشفقة، إلا أنها محصنة ضد المشاعر الإنسانية السلبية مثل الذعر والغضب والانتقام، والتي غالبا ما تؤدي إلى جرائم حرب.

يستخدم نشطاء حقوق الإنسان أيضًا الحجة القائلة بأن الجيش أدى إلى انخفاض كبير في عدد الضحايا المدنيين على مدار نصف القرن الماضي، وتسمح روبوتات الجيش بإدخال آلية لتطبيق قوانين الحرب بشكل أكثر صرامة. ويجادلون بأن الآلات ستصبح أخلاقية عندما يتم تجهيزها ببرامج تجبرها على الامتثال لقوانين الحرب.

وبطبيعة الحال، فإن عددا كبيرا من الناس، بما في ذلك المشاهير جدا، لم يشاركوا هذا الرأي لسنوات. وفي إبريل 2013 انطلقت حملة دولية تحت شعار (2). وفي إطارها، تطالب المنظمات غير الحكومية بفرض حظر كامل على استخدام الأسلحة المستقلة. جلس خبراء من العديد من البلدان لأول مرة لمناقشة هذا الموضوع في مؤتمر الأمم المتحدة حول نزع السلاح في جنيف في مايو 2014. قال تقرير نشرته هيومن رايتس ووتش وعلماء من جامعة هارفارد بعد بضعة أشهر إن تلك المستقلة ستكون خطيرة للغاية - لقد اختاروا أهدافهم الخاصة وقتلوا الناس. في الوقت نفسه ، ليس من الواضح تمامًا من الذي يجب أن يحاسب.

2. العرض التوضيحي ضمن حملة "أوقفوا الروبوتات القاتلة".

ما يمكن أن يفعله سرب من الطائرات الصغيرة بدون طيار

الجدل الدائر حول الروبوتات القاتلة (ROR) مستمر منذ سنوات ويستمر بلا هوادة. شهدت الأشهر الأخيرة محاولات جديدة لوقف الروبوتات العسكرية وموجة من التقارير حول مشاريع جديدة من هذا النوع، والتي يتم اختبار بعضها في ظروف قتالية حقيقية.

في تشرين الثاني (نوفمبر) 2017 ، ظهر مقطع فيديو أسراب قاتلة من الطائرات بدون طيار الصغيرة .، في عمل مرعب. ورأى المشاهدون أننا لم نعد بحاجة إلى مركبات قتالية ثقيلة أو دبابات أو صواريخ تلقيها طائرات بريداتور للقتل الجماعي وبأسلحة آلية. يقول المدير الرئيسي ستيوارت راسل، أستاذ الذكاء الاصطناعي في جامعة بيركلي:

-

الربيع الماضي خمسون أستاذا وقعت الجامعات الرائدة في جميع أنحاء العالم نداءً إلى المعهد الكوري المتقدم للعلوم والتكنولوجيا (KAIST) وشريكته شركة Hanwha Systems. أعلنوا أنهم لن يتعاونوا مع الجامعة أو يستضيفوا ضيوف KAIST. وكان السبب هو بناء "الأسلحة المستقلة" التي قامت بها المؤسستان. نفى KAIST تقارير وسائل الإعلام.

بعد ذلك بوقت قصير في الولايات المتحدة أكثر من 3 موظفين في Google واحتج على عمل الشركة لصالح الجيش. لقد كانوا قلقين من أن جوجل كانت في شراكة مع مشروع حكومي يحمل الاسم الرمزي Maven، والذي يهدف إلى استخدام الذكاء الاصطناعي للتعرف على الأشياء والوجوه في مقاطع الفيديو العسكرية بدون طيار. يقول المسؤولون التنفيذيون في الشركة إن هدف Maven هو إنقاذ الأرواح وإراحة الناس من العمل الشاق، وليس العدوان. ولم يقتنع المتظاهرون.

الجزء التالي من المعركة كان البيان متخصصون في مجال الذكاء الاصطناعي، بما في ذلك. العمل في مشروع جوجل و إيلون ماسك. يعدون بعدم تطوير الروبوتات. كما يدعون الحكومات إلى تكثيف الجهود لتنظيم هذه الأسلحة وتقييدها.

وجاء في البيان، على وجه الخصوص، أن “قرار إنهاء حياة شخص ما لا ينبغي أن تتخذه الآلة أبدًا”. وعلى الرغم من أن جيوش العالم مجهزة بمجموعة متنوعة من الأجهزة الآلية، التي تتمتع أحيانًا بدرجة عالية من الاستقلالية، إلا أن العديد من الخبراء يخشون من أن تصبح هذه التكنولوجيا في المستقبل مستقلة تمامًا، مما يسمح لها بالقتل دون أي تدخل لمشغل أو قائد بشري.

ويحذر الخبراء أيضًا من أن آلات القتل المستقلة قد تكون أكثر خطورة من "الأسلحة النووية والكيميائية والبيولوجية" لأنها يمكن أن تخرج عن نطاق السيطرة بسهولة. في المجمل، في يوليو من العام الماضي، تم التوقيع على خطاب تحت رعاية معهد مستقبل الحياة (FLI) من قبل 170 منظمة و2464 فردًا. في الأشهر الأولى من عام 2019، دعت مجموعة من علماء الطب المرتبطين بـ FLI مرة أخرى إلى إصدار خطاب جديد يحظر تطوير الأسلحة التي يتم التحكم فيها بواسطة الذكاء الاصطناعي.

انتهى اجتماع الأمم المتحدة في جنيف في أغسطس العام الماضي بشأن التنظيم القانوني المحتمل لـ "الروبوتات القاتلة" العسكرية بنجاح... الآلات. وقد قامت مجموعة من الدول، بما فيها الولايات المتحدة وروسيا وإسرائيل، بعرقلة بذل المزيد من الجهود الرامية إلى فرض حظر دولي على هذه الأسلحة (مشروع اتفاقية الأسلحة التقليدية المعينة). وليس من قبيل الصدفة أن هذه الدول معروفة بعملها في مجال أنظمة الأسلحة المستقلة والروبوتية المتقدمة.

تركز روسيا على الروبوتات القتالية

كثيرا ما يُقتبس عن الرئيس فلاديمير بوتين قوله عن أنظمة الذكاء الاصطناعي العسكرية والروبوتات القتالية:

-.

يتحدث علانية عن تطوير أسلحة مستقلة. صرح رئيس الأركان العامة للقوات المسلحة الروسية، الجنرال فاليري جيراسيموف، مؤخرًا لوكالة الأنباء العسكرية إنترفاكس-AVN أن استخدام الروبوتات سيكون أحد السمات الرئيسية للحروب المستقبلية. وأضاف أن روسيا تحاول أتمتة ساحة المعركة بالكامل. وأدلى نائب رئيس الوزراء ديمتري روجوزين ووزير الدفاع سيرجي شويجو بتعليقات مماثلة. قال رئيس لجنة الدفاع والأمن بمجلس الاتحاد فيكتور بونداريف إن روسيا تسعى جاهدة إلى التطوير تقنيات روجووهذا من شأنه أن يسمح لشبكات الطائرات بدون طيار بالعمل كوحدة واحدة.

وهذا ليس مفاجئًا إذا تذكرنا أنه تم تطوير أجهزة الاتصالات الأولى في الاتحاد السوفيتي في الثلاثينيات. تم استخدامها في بداية الحرب العالمية الثانية. اليوم روسيا أيضا تخلق الدبابات الروبوتية تصبح أكثر وأكثر استقلالية.

أرسلت دولة بوتين مؤخرا بلدها إلى سوريا مركبة قتالية بدون طيار أوران-9 (3). وفقد الجهاز الاتصال بنقاط التحكم الأرضية، وواجه مشاكل في نظام التعليق، ولم تعمل أسلحته بشكل مثالي ولم يصيب أهدافا متحركة. لا يبدو الأمر خطيرًا للغاية، لكن الكثيرين يعتبرون المسح السوري بمثابة اختبار قتالي جيد سيسمح للروس بتحسين الآلة.

وافقت وكالة روسكوزموس على خطة أولية لإرسال روبوتين إلى محطة الفضاء الدولية بحلول أغسطس من هذا العام. فيدور (4) في الاتحاد بدون طيار. ليس مثل الحمل، ولكن... تمامًا كما هو الحال في فيلم RoboCop، يستخدم فيودور سلاحًا ويظهر دقة مميتة أثناء تدريبات الرماية.

السؤال الذي يطرح نفسه: لماذا يتم تسليح الروبوت في الفضاء؟ هناك شكوك في أن هذه ليست مجرد مسألة تطبيقات أرضية. وفي الوقت نفسه، على الأرض، أظهرت شركة تصنيع الأسلحة الروسية كلاشينكوف تصورا العبد إيغوريكوالتي، على الرغم من أنها تسببت في الكثير من الضحك، إلا أنها تشير إلى أن الشركة تعمل بجدية على المركبات القتالية المستقلة. وفي يوليو/تموز 2018، أعلن كلاشينكوف أنه يقوم بتصنيع سلاح سيستخدمه لاتخاذ قرارات إطلاق النار وعدم إطلاق النار.

يجب أن تضاف إلى هذه المعلومات التقارير التي تفيد بأن صانع الأسلحة الروسي Digtyarev قام بتطوير سلاح صغير دبابة مستقلة Nerekht والتي يمكن أن تتحرك بصمت نحو هدفها من تلقاء نفسها ثم تنفجر بقوة شديدة لتدمير الآخرين أو المباني بأكملها. و دبابة T14 أرماتا ، فخر القوات المسلحة الروسية، تم تصميمه للتحكم عن بعد والقيادة بدون طيار. تدعي سبوتنيك أن المهندسين العسكريين الروس يعملون على جعل T-14 مركبة مدرعة مستقلة بالكامل.

توجيه المعارضة

لقد فرض الجيش الأمريكي نفسه قيودًا واضحة إلى حد ما على مستوى استقلالية أسلحته. في عام 2012، أصدرت وزارة الدفاع الأمريكية التوجيه رقم 3000.09، الذي ينص على أنه يجب أن يكون للناس الحق في الاعتراض على تصرفات الروبوتات المسلحة. (على الرغم من أنه قد تكون هناك بعض الاستثناءات). ولا يزال هذا التوجيه ساري المفعول. إن سياسة البنتاغون الحالية هي أن العامل الحاسم في استخدام الأسلحة يجب أن يكون دائماً هو الفرد، ويجب إصدار مثل هذا الحكم. يتوافق مع قوانين الحرب.

وعلى الرغم من أن الأميركيين ظلوا يستخدمون الطيران، وطائرات البريداتور، وريبر، والعديد من الآلات الفائقة الأخرى لعقود من الزمن، إلا أنها لم تكن نماذج مستقلة وليست كذلك. يتم التحكم فيها من قبل المشغلين عن بعد، وأحيانًا من مسافة عدة آلاف من الكيلومترات. بدأ جدل ساخن حول استقلالية الآلات من هذا النوع مع العرض الأول للنموذج الأولي. الطائرة بدون طيار X-47B (5) ، والتي لم تطير بشكل مستقل فحسب ، بل يمكنها أيضًا الإقلاع من حاملة طائرات والهبوط عليها والتزود بالوقود في الجو. المعنى أيضا إطلاق النار أو القصف دون تدخل بشري. ومع ذلك ، لا يزال المشروع قيد الاختبار والمراجعة.

5. اختبار الطائرة بدون طيار X-47B على حاملة طائرات أمريكية

في عام 2003، بدأت وزارة الدفاع بإجراء تجارب على روبوت صغير يشبه الدبابة. الأعشاب ومجهزة بمدفع رشاش. وفي عام 2007 تم إرساله إلى العراق. ومع ذلك، انتهى البرنامج بعد أن بدأ الروبوت في التصرف بشكل غير متوقع، حيث قام بتحريك البندقية بشكل متقطع. ونتيجة لذلك، تخلى الجيش الأمريكي عن الأبحاث في مجال الروبوتات الأرضية المسلحة لسنوات عديدة.

وفي الوقت نفسه، زاد الجيش الأمريكي إنفاق عمله من 20 مليون دولار أمريكي في عام 2014 إلى 156 مليون دولار أمريكي في عام 2018. وفي عام 2019، قفزت هذه الميزانية بالفعل إلى 327 مليون دولار أمريكي. هذا نمو تراكمي قدره 1823٪ في بضع سنوات فقط. ويقول الخبراء إن الجيش الأمريكي قد يكون لديه ساحة معركة في وقت مبكر من عام 2025 عدد جنود الروبوتات أكبر من عدد البشر.

في الآونة الأخيرة، أثار وأعلن الجيش الأمريكي الكثير من الجدل مشروع أطلس () - تلقائي. في وسائل الإعلام ، اعتبر هذا انتهاكًا للتوجيه المذكور أعلاه 3000.09. ومع ذلك ، ينفي الجيش الأمريكي ويؤكد أن استبعاد شخص من دورة صنع القرار أمر غير وارد.

يتعرف الذكاء الاصطناعي على أسماك القرش والمدنيين

ومع ذلك، فإن المدافعين عن الأسلحة المستقلة لديهم حجج جديدة. البروفيسور يقول رونالد أركين، عالم الروبوتات في معهد جورجيا للتكنولوجيا، في منشوراته: في الحروب الحديثة، هناك حاجة إلى الأسلحة الذكية لتجنب وقوع إصابات في صفوف المدنيين، حيث يمكن لتقنيات التعلم الآلي أن تساعد بشكل فعال في التمييز بين المقاتلين والمدنيين، فضلا عن الأهداف ذات القيمة العالية والمنخفضة القيمة.

ومن الأمثلة على مهارات الذكاء الاصطناعي هذه القيام بدوريات على الشواطئ الأسترالية. طائرات بدون طيار ليتل الخارقومجهز بنظام SharkSpotter الذي طورته جامعة التكنولوجيا في سيدني. يقوم هذا النظام تلقائيًا بمسح المياه بحثًا عن أسماك القرش وتنبيه المشغل عندما يرى شيئًا غير آمن. (6) يمكنه التعرف على الأشخاص والدلافين والقوارب وألواح التزلج على الماء والأشياء الموجودة في الماء لتمييزها عن أسماك القرش. يمكنه اكتشاف وتحديد حوالي ستة عشر نوعًا مختلفًا بدقة عالية.

6. التعرف على أسماك القرش في نظام SharkSpotter

تعمل تقنيات التعلم الآلي المتقدمة هذه على تحسين دقة الاستطلاع الجوي بنسبة تزيد عن 90%. وعلى سبيل المقارنة، يتعرف المشغل البشري في وضع مماثل بدقة على 20-30% من الأشياء في الصور الجوية. بالإضافة إلى ذلك، لا يزال يتم التحقق من الهوية من قبل الإنسان قبل إطلاق الإنذار.

في ساحة المعركة، قد يواجه المشغل، عند رؤيته الصورة على الشاشة، صعوبة في تحديد ما إذا كان الأشخاص الموجودون على الأرض مقاتلين يحملون بنادق AK-47 في أيديهم أو، على سبيل المثال، مزارعون يحملون حرابًا. ويشير آركين إلى أن الناس يميلون إلى "رؤية ما يريدون رؤيته"، خاصة في المواقف العصيبة. وقد ساهم هذا التأثير في إسقاط طائرة إيرانية عن طريق الخطأ من قبل سفينة يو إس إس فينسين في عام 1987. وبطبيعة الحال، في رأيه، فإن الأسلحة التي يتم التحكم فيها بواسطة الذكاء الاصطناعي ستكون أفضل من "القنابل الذكية" الحالية، والتي ليست ذكية حقًا. وفي أغسطس/آب الماضي، أصاب صاروخ سعودي موجه بالليزر حافلة مليئة بأطفال المدارس في اليمن، مما أسفر عن مقتل أربعين طفلاً.

يقول أركين في Popular Mechanics: "إذا تم وضع علامة صحيحة على الحافلة المدرسية، فإن التعرف عليها في نظام مستقل يمكن أن يكون سهلاً نسبياً".

ومع ذلك، لا يبدو أن هذه الحجج تقنع الناشطين ضد القتلة الآليين. إلى جانب تهديد الروبوتات القاتلة، هناك عامل مهم آخر يجب أخذه بعين الاعتبار. حتى النظام "الجيد" و"المراعي" يمكن اختراقه والاستيلاء عليه من قبل أشخاص سيئين للغاية. ثم تفقد كل الحجج الدفاعية عن المعدات العسكرية قوتها.

إضافة تعليق