الخوف التالي على الذكاء الاصطناعي: الروبوتات القاتلة في هوليوود تصبح أدوات الجيش
واشنطن – عندما أعلن الرئيس بايدن قيودًا صارمة على بيع رقائق الكمبيوتر الأكثر تقدمًا للصين في أكتوبر ، فعل ذلك جزئيًا للسماح للصناعة الأمريكية باستعادة قدرتها التنافسية.
لكن في البنتاغون ومجلس الأمن القومي ، كان هناك أجندة ثانية: الحد من التسلح. تقول النظرية إنه إذا لم يتمكن الجيش الصيني من الحصول على الرقائق ، فقد يؤدي ذلك إلى إبطاء جهوده لتطوير أسلحة مدعومة بالذكاء الاصطناعي. من شأن ذلك أن يمنح البيت الأبيض والعالم وقتًا لوضع بعض القواعد لاستخدام الذكاء الاصطناعي في كل شيء بدءًا من أجهزة الاستشعار والصواريخ والأسلحة الإلكترونية ، وفي النهاية للحماية من بعض الكوابيس التي استحضرتها هوليوود – الروبوتات القاتلة المستقلة وأجهزة الكمبيوتر التي أقفلت صانعيهم البشريين.
الآن ، أدى ضباب الخوف الذي يحيط ببرنامج الدردشة ChatGPT الشهير وبرامج الذكاء الاصطناعي الأخرى إلى جعل تقييد الرقائق على بكين يبدو وكأنه حل مؤقت فقط. عندما توقف السيد بايدن أمام تجمع في البيت الأبيض للمديرين التنفيذيين في مجال التكنولوجيا يكافحون من أجل التخفيف من مخاطر التكنولوجيا يوم الخميس ، كان تعليقه الأول “ما تفعله ينطوي على إمكانات هائلة وخطر هائل”.
يقول مسؤولو الأمن القومي إن ذلك كان انعكاسًا للإيجازات السرية الأخيرة حول قدرة التكنولوجيا الجديدة على قلب الحرب والصراع السيبراني – وفي الحالة القصوى – اتخاذ القرار بشأن استخدام الأسلحة النووية.
ولكن حتى عندما أصدر بايدن تحذيره ، قال مسؤولو البنتاغون ، الذين تحدثوا في منتديات التكنولوجيا ، إنهم يعتقدون أن فكرة التوقف لمدة ستة أشهر في تطوير الجيل التالي من ChatGPT والبرامج المماثلة فكرة سيئة: فاز الصينيون. ر الانتظار ولا الروس.
وقال كبير مسؤولي الإعلام في البنتاغون: “إذا توقفنا ، فاحزر من لن يتوقف: أعداء محتملون في الخارج”. قال جون شيرمان الأربعاء. “علينا أن نستمر في التحرك.”
وأكد بيانه الصريح التوتر الذي يشعر به مجتمع الدفاع اليوم. لا أحد يعرف حقًا قدرة هذه التقنيات الجديدة عندما يتعلق الأمر بتطوير الأسلحة والسيطرة عليها ، وليس لديهم أي فكرة عن نوع نظام التحكم في الأسلحة ، إن وجد ، الذي قد ينجح.
هذا التحذير غامض ، لكنه مقلق للغاية. هل يمكن لـ ChatGPT تمكين الجهات الفاعلة السيئة الذين لم يكن لديهم في السابق وصول سهل إلى التكنولوجيا المدمرة؟ هل يمكنها تسريع المواجهات بين القوى العظمى ، مما يترك القليل من الوقت للدبلوماسية والتفاوض؟
قال إريك شميدت ، رئيس Google السابق الذي شغل منصب الرئيس الافتتاحي لمجلس ابتكار الدفاع من 2016 إلى 2020: “الصناعة ليست غبية هنا وأنت ترى بالفعل محاولات للتنظيم الذاتي”.
قال السيد شميت ، الذي كتب مع وزير الخارجية السابق هنري كيسنجر: “تجري الآن سلسلة من المحادثات غير الرسمية في الصناعة – وكلها غير رسمية – حول الشكل الذي ستبدو عليه قواعد سلامة الذكاء الاصطناعي.” سلسلة من المقالات والكتب حول قدرة الذكاء الاصطناعي على تعطيل الجغرافيا السياسية.
الجهد الأولي لوضع حواجز الحماية في النظام واضح لأي شخص اختبر التكرارات الأولى لـ ChatGPT. لن تجيب الروبوتات على أسئلة حول كيفية إيذاء شخص ما ، على سبيل المثال ، بتركيبة من المخدرات ، أو كيفية تفجير سد أو تعطيل أجهزة الطرد المركزي النووية ، وجميع العمليات التي أجرتها الولايات المتحدة ودول أخرى دون الاستفادة من أدوات الذكاء الاصطناعي . .
لكن هذه القوائم السوداء من الإجراءات لن تؤدي إلا إلى تأخير إساءة استخدام هذه الأنظمة ؛ قلة يعتقدون أنهم يستطيعون إيقاف هذه الجهود تمامًا. هناك دائمًا اختراق للالتفاف حول حدود الأمان ، حيث يمكن لأي شخص حاول إيقاف تشغيل أصوات التنبيه العاجلة على نظام التحذير الخاص بحزام الأمان في السيارة أن يشهد.
في حين أن البرنامج الجديد قد عمم المشكلة ، إلا أنه ليس جديدًا على البنتاغون. تم نشر القواعد الأولى لتطوير الأسلحة المستقلة قبل عشر سنوات. تأسس مركز الذكاء الاصطناعي المشترك التابع للبنتاغون قبل خمس سنوات للبحث في استخدام الذكاء الاصطناعي في القتال.
بعض الأسلحة تعمل بالفعل على الطيار الآلي. لطالما كانت صواريخ باتريوت ، التي تسقط الصواريخ أو الطائرات التي تدخل المجال الجوي المحمي ، تتمتع بوضع “تلقائي”. يسمح لهم بإطلاق النار دون تدخل بشري عندما تطغى عليهم الأهداف القادمة ، أسرع من رد فعل الإنسان. لكن يجب أن يشرف عليها أشخاص يمكنهم إجهاض الهجمات إذا لزم الأمر.
تم تنفيذ اغتيال محسن فخري زاده ، أكبر عالم نووي إيراني ، من قبل الموساد الإسرائيلي باستخدام مدفع رشاش مستقل مثبت في شاحنة صغيرة ، بمساعدة الذكاء الاصطناعي – على الرغم من أنه يبدو أن هناك درجة عالية من التحكم عن بعد. . قالت روسيا مؤخرًا إنها بدأت إنتاج طوربيد نووي من طراز بوسيدون من غواصتها النووية ، لكنها لم تنشرها بعد. إذا كان السلاح يرقى إلى مستوى الضجيج الروسي ، فسيكون قادرًا على السفر بشكل مستقل عبر المحيط ، والتهرب من الدفاعات الصاروخية الحالية ، لإيصال سلاح نووي بعد أيام من إطلاقه.
حتى الآن ، لا توجد معاهدات أو اتفاقيات دولية تتعامل مع مثل هذه الأسلحة المستقلة. في الوقت الذي يتم فيه التخلي عن اتفاقيات الحد من الأسلحة بشكل أسرع من التفاوض ، هناك احتمال ضئيل لمثل هذا الاتفاق. لكن نوع التحديات التي تطرحها ChatGPT وأمثالها مختلفة وفي بعض النواحي أكثر تعقيدًا.
في الجيش ، يمكن للأنظمة المزودة بالذكاء الاصطناعي تسريع وتيرة القرارات في ساحة المعركة إلى النقطة التي تخلق فيها مخاطر جديدة تمامًا من الهجمات العرضية أو القرارات المتخذة بناءً على التحذيرات المضللة أو الكاذبة المتعمدة من الهجمات القادمة.
قال شميت: “تتمثل المشكلة الأساسية للذكاء الاصطناعي في الأمن العسكري والوطني في كيفية الدفاع ضد الهجمات التي تكون أسرع من صنع القرار البشري”. وأعتقد أن هذه المشكلة لم تحل. بمعنى آخر ، يأتي الصاروخ بسرعة كبيرة بحيث يجب أن يكون هناك رد تلقائي. ماذا يحدث إذا كانت إشارة خاطئة؟ “
كانت الحرب الباردة مليئة بقصص التحذيرات الكاذبة – مرة واحدة لأن شريط التدريب ، الذي كان مخصصًا لاستخدامه في ممارسة الاستجابة النووية ، تم وضعه بطريقة ما في النظام الخطأ وأطلق إنذارًا بوقوع هجوم سوفياتي هائل. (أدى الحكم الجيد بالجميع إلى الاستقالة.) أشار بول شار ، من مركز الأمن الأمريكي الجديد ، في كتابه الصادر عام 2018 بعنوان “جيش لا شيء” إلى أنه “من عام 1962 إلى عام 2002 ، كان هناك ما لا يقل عن 13 حادثًا نوويًا كادت أن تستخدم”. “يؤكد الرأي القائل بأن الحوادث الوشيكة هي ظروف طبيعية ، وإن كانت مخيفة ، للأسلحة النووية”.
لهذا السبب ، عندما كانت التوترات بين القوى العظمى أقل بكثير مما هي عليه اليوم ، حاولت سلسلة من الرؤساء التفاوض للحصول على مزيد من الوقت في صنع القرار النووي من جميع الأطراف حتى لا يندفع أحد إلى الصراع. لكن الذكاء الاصطناعي التوليدي يهدد بدفع البلدان في الاتجاه الآخر ، نحو اتخاذ قرارات أسرع.
النبأ السار هو أن القوى العظمى ربما تكون حذرة – لأنها تعرف كيف سيكون رد فعل الخصم. لكن حتى الآن لا توجد قواعد متفق عليها.
كتبت آنيا مانويل ، المسؤولة السابقة في وزارة الخارجية والمديرة الآن لمجموعة رايس وهادلي وجيتس ومانويل الاستشارية ، أنه حتى لو لم تكن الصين وروسيا مستعدين لمحادثات الحد من التسلح بشأن الذكاء الاصطناعي ، فإن الاجتماعات حول هذا الموضوع ستؤدي إلى مناقشات حول ما هو استخدام الذكاء الاصطناعي “خارج الحدود”.
بالطبع ، حتى البنتاغون سيقلق بشأن الموافقة على العديد من القيود.
قال داني هيليس ، عالم الكمبيوتر الشهير الذي كان رائدًا في مجال التوازي ، أجهزة الكمبيوتر المستخدمة في الذكاء الاصطناعي: “لقد ناضلت حقًا للحصول على سياسة مفادها أنه إذا كان لديك عناصر مستقلة من الأسلحة ، فأنت بحاجة إلى طريقة لتعطيلها”. قال السيد هيليس ، الذي خدم أيضًا في مجلس الابتكار الدفاعي ، إن رد الفعل جاء من مسؤولي البنتاغون قائلين ، “إذا استطعنا القضاء عليهم ، يمكن للعدو أن يقضي عليهم”.
لذلك قد تأتي المخاطر الأكبر من الجهات الفاعلة الفردية ، أو الإرهابيين ، أو مجموعات برامج الفدية ، أو البلدان الأصغر ذات المهارات الإلكترونية المتقدمة ، مثل كوريا الشمالية ، التي تتعلم كيفية استنساخ نسخة أصغر وأقل تقييدًا من ChatGPT. وقد يكتشفون أن برنامج الذكاء الاصطناعي التوليدي مثالي لتسريع الهجمات الإلكترونية ومعالجة المعلومات المضللة.
قال توم بيرت ، الذي يقود عمليات الثقة والأمن في Microsoft ، والتي تعمل على تسريع استخدام التكنولوجيا الجديدة لتجديد محركات البحث الخاصة بها ، في منتدى حديث في جامعة جورج واشنطن ، إنه يعتقد أن أنظمة الذكاء الاصطناعي ستساعد المدافعين على اكتشاف السلوك الشاذ بشكل أسرع. مما قد يساعد المهاجمين. يختلف خبراء آخرون. لكنه قال إنه يخشى أن يؤدي ذلك إلى “دفع” انتشار المعلومات المضللة المستهدفة.
كل هذا يبشر بعصر جديد كامل من السيطرة على السلاح.
يقول بعض الخبراء أنه نظرًا لأنه سيكون من المستحيل إيقاف انتشار ChatGPT والبرامج المماثلة ، فإن أفضل أمل هو الحد من الرقائق الخاصة وقوة الحوسبة الأخرى المطلوبة لتطوير التكنولوجيا. ستكون هذه بلا شك واحدة من العديد من الصيغ المختلفة للحد من التسلح التي سيتم طرحها في السنوات المقبلة ، في وقت تبدو فيه القوى النووية الكبرى على الأقل غير مهتمة بالتفاوض على أسلحة قديمة ، ناهيك عن أسلحة جديدة.