يقول قادة أوبن إيه آي إن الذكاء الاصطناعي سيحتاج في النهاية إلى سلطة دولية

0

يحتاج مجال الذكاء الاصطناعي إلى هيئة رقابة دولية لتنظيم الذكاء الخارق في المستقبل ، وفقًا لمؤسس OpenAI.

في مدونة كتبها الرئيس التنفيذي سام التمان ومديري الأعمال جريج بروكمان وإيليا سوتسكفر ، قالت المجموعة – بالنظر إلى المخاطر الوجودية المحتملة – أن العالم “لا يمكن أن يكون مجرد رد فعل” ، مشبهاً التكنولوجيا بالطاقة النووية.

وتحقيقا لهذه الغاية ، اقترحوا التنسيق بين جهود التنمية الرائدة ، مؤكدين أن هناك “طرق عديدة يمكن تنفيذها” ، بما في ذلك مشروع أنشأته الحكومات الكبرى أو دفع معدلات النمو السنوية إلى الوراء.

“ثانيًا ، ربما نحتاج في النهاية إلى شيء مثل الوكالة الدولية للطاقة الذرية لجهود الذكاء الفائق ؛ أي جهد يتجاوز حدًا معينًا للقدرة (أو موارد مثل قوة الحوسبة) يجب أن يخضع لسلطة دولية يمكنها فحص الأنظمة ، وطلب عمليات تدقيق ، واختبار الامتثال للمعايير الأمنية ، وفرض قيود على مستوى النشر ومستويات الأمان ، وما إلى ذلك ” زعموا.

يمكن للذكاء الاصطناعي أن يصبح قوياً للغاية وسوف يحل محل المحترفين ذوي الخبرة في غضون 10 سنوات ، وارس سام التمان

سام التمان ، الرئيس التنفيذي لشركة OpenAI ، خلال محادثة في جامعة كوليدج لندن ، المملكة المتحدة ، يوم الأربعاء 24 مايو 2023. (كريس ج.راتكليف / بلومبرج عبر Getty Images)

الوكالة الدولية للطاقة الذرية هي المركز الدولي للتعاون النووي ، والولايات المتحدة عضو فيه.

قال المؤلفون إن تتبع أجهزة الكمبيوتر واستخدام الطاقة يمكن أن يقطع شوطًا طويلاً.

“كخطوة أولى ، يمكن للشركات الموافقة طوعًا على تنفيذ عناصر لما قد تحتاجه هذه الوكالة يومًا ما ، وكخطوة ثانية يمكن لفرادى البلدان تنفيذها. سيكون من المهم لمثل هذه الوكالة أن تركز على تقليل المخاطر الوجودية وليس القضايا التي يجب تركها للدول الفردية ، مثل تحديد ما يُسمح للذكاء الاصطناعي بقوله “، تابع المدونة.

ثالثًا ، قالوا إنهم بحاجة إلى القدرة التقنية لجعل “الذكاء الخارق آمنًا”.

OpenAI على الهاتف

شعار OpenAI على هاتف ذكي في بروكلين في 12 يناير 2023. (غابي جونز / بلومبرغ عبر Getty Images)

أحدث نسخة من امتحان علم الأشعة الذي تم اجتيازه عبر الدردشة ، يسلط الضوء على “إمكانات النمو” لمنظمة العفو الدولية ، ونتائج الدراسة

في حين أن هناك بعض الجوانب “خارج النطاق” ، بما في ذلك السماح بتطوير نماذج أقل من عتبة قدرة كبيرة “بدون نوع التنظيم” الذي وصفوه وعدم السماح للأنظمة التي “تشعر بالقلق حيالها” يتم تخفيفها “بمعايير مماثلة بالنسبة للتكنولوجيا التي تقل كثيرًا عن هذا الحد “- قالوا إن إدارة أقوى الأنظمة يجب أن تخضع لرقابة عامة قوية.

منظر جانبي لسام التمان

يتحدث سام التمان في جلسة استماع للجنة الفرعية لمجلس الشيوخ في واشنطن العاصمة يوم الثلاثاء 16 مايو 2023. (إريك لي / بلومبرج عبر Getty Images)

“نعتقد أن الناس في جميع أنحاء العالم يجب أن يقرروا بشكل ديمقراطي الحدود والافتراضيات لأنظمة الذكاء الاصطناعي. لا نعرف حتى الآن كيفية تصميم مثل هذه الآلية ، لكننا نخطط لتجربة تطويرها. وسنستمر في التفكير في ذلك ضمن هذه حدود واسعة ، يجب أن يكون لدى المستخدمين الأفراد قدر كبير من التحكم في كيفية تصرف الذكاء الاصطناعي الذي يستخدمونه “.

يعتقد الثلاثي أنه من المتصور أن تتجاوز أنظمة الذكاء الاصطناعي مستويات الخبراء في معظم المجالات خلال العقد المقبل.

فلماذا بناء تكنولوجيا الذكاء الاصطناعي على الإطلاق ، بالنظر إلى المخاطر والصعوبات التي تنطوي عليها؟

انقر هنا للحصول على تطبيق FOX NEWS

يجادلون بأن الذكاء الاصطناعي سيؤدي إلى “عالم أفضل بكثير مما نتخيله اليوم” ، وأنه سيكون “محفوفًا بالمخاطر بشكل غير مفهوم ويصعب إيقاف خلق الذكاء الخارق”.

“نظرًا لأن الفوائد ضخمة جدًا ، فإن تكلفة بنائه تتناقص كل عام ، وعدد الممثلين الذين يقومون ببنائه يتزايد بسرعة ، وهو بطبيعته جزءًا من المسار التكنولوجي الذي نسير فيه ، فإن إيقافه سيكون شيئًا مثل هناك حاجة لنظام مراقبة وحتى هذا غير مضمون للعمل ، لذلك علينا تصحيحه “.

Read original article here

Leave A Reply