هل يمكن أن توجد رقابة أخلاقية للذكاء الاصطناعي؟ عالم البيانات رومان شودري لا يعتقد ذلك

قالت رومان شودري ، المديرة السابقة لأخلاقيات التعلم الآلي والشفافية والمساءلة في تويتر ، في خطاب لها مؤخرًا إنها لا تعتقد أن مراقبة الذكاء الاصطناعي الأخلاقية يمكن أن توجد.

قال عالم البيانات في كلية العلوم الاجتماعية بجامعة نيويورك: “لا يمكننا وضع أحمر الشفاه على خنزير”. “لا أعتقد أن الرقابة الأخلاقية يمكن أن توجد”.

في مقابلة نشرت يوم الاثنين في صحيفة الغارديان – تسليط الضوء على هذا البيان – حذرت شودري من أن صعود رأسمالية المراقبة يمثل مصدر قلق كبير لها.

وزعمت أنه استخدام للتكنولوجيا هو أساسًا عنصري بشكل لا لبس فيه وبالتالي لا ينبغي الترفيه عنه.

يقول “ عراب الذكاء الاصطناعي ” إن هناك “ خطرًا خطيرًا ” أن التكنولوجيا ستكون قريبًا أكثر ذكاءً من الناس

رومان شودري ، المؤسس المشارك لمنظمة Humane Intelligence ، وهي منظمة غير ربحية تطور أنظمة ذكاء اصطناعي مسؤولة ، تطرح صورة في منزلها يوم الاثنين 8 مايو 2023 في كاتي ، تكساس. (AP Photo / David J. Phillip)

في مقال رأي مؤخرًا في Wired تمت الإشارة إليه في المقالة ، قال Chowdhury أيضًا أنه يمكن الوثوق بمجلس خارجي من البشر فقط للتحكم في الذكاء الاصطناعي.

وقالت لصحيفة الغارديان: “إننا نحظى بكل هذا الاهتمام الإعلامي ، ويوافق الجميع ،” من المسؤول؟ ” ثم ننظر جميعًا إلى بعضنا البعض ونقول ، “أم. أي شخص؟”

في المقابلة ، اشتكت مما تسميه “التعهيد الأخلاقي” ، أو إعادة توزيع المسؤولية لما تم بناؤه على المنتجات نفسها.

نهجها في التنظيم هو أن “آليات المساءلة” يجب أن تكون موجودة – وتقول إن الافتقار إلى المساءلة يمثل مشكلة.

يستخدم رومان شودري الكمبيوتر

رومان شودري ، المؤسس المشارك لـ Humane Intelligence ، وهي منظمة غير ربحية تطور أنظمة ذكاء اصطناعي مسؤولة ، تعمل على جهاز الكمبيوتر الخاص بها في كاتي ، تكساس ، يوم الاثنين 8 مايو 2023. (AP Photo / David J. Phillip)

وأوضحت قائلة: “هناك مجرد مخاطرة ومن ثم استعدادك لتحمل هذه المخاطرة” ، مشيرة إلى أنه عندما ترتفع مخاطر الفشل ، فإنها تذهب إلى ساحة تنحني فيها القواعد في اتجاه معين.

الرئيس التنفيذي لشركة OPENAI ألتمان يعود بعد تهديده بمغادرة أوروبا بسبب مخاوف تتعلق بالتنظيم

وتابعت قائلة: “هناك عدد قليل جدًا من الممثلين الجيدين أو السيئين في العالم”. “يعمل الناس فقط على هياكل الحوافز”.

قالت الزميلة المسؤولة عن الذكاء الاصطناعي في جامعة هارفارد إنها أرادت سد فجوة التفاهم بين التقنيين الذين “لا يفهمون دائمًا الناس ، والأشخاص [who] لا أفهم دائمًا التكنولوجيا “.

وقالت: “جوهر التكنولوجيا هو فكرة أن الإنسانية معيبة وأن التكنولوجيا يمكن أن تنقذنا”.

يقف سام التمان

سام التمان ، الرئيس التنفيذي والمؤسس المشارك لـ OpenAI ، يتحدث في حدث في مقر Microsoft في ريدموند ، واشنطن ، يوم الثلاثاء ، 7 فبراير 2023. (Chona Kasinger / Bloomberg عبر Getty Images)

على وجه التحديد ، يعمل Chowdhury على حدث فرق حمراء – يشجع المتسللين والمبرمجين على محاولة تقليص الحماية ودفع التكنولوجيا لفعل أشياء سيئة – لـ Def Con ، وهي اتفاقية استضافتها منظمة القرصنة AI Village. يتم دعم “الهاكاثون” من قبل قادة الصناعة – بما في ذلك OpenAI و Google و Microsoft – وإدارة بايدن.

انقر هنا للحصول على تطبيق FOX NEWS

وقالت إنها تعتقد أنه فقط من خلال هذه الجهود الجماعية يمكن أن يتم التنظيم والتنفيذ المناسبين ، على الرغم من أنها حذرت من أن الإفراط في التنظيم يمكن أن يؤدي إلى الإفراط في تصحيح النماذج.

وقالت الصحيفة إن شودري أضاف أنه ليس من السهل تحديد ما هو سام أو بغيض.

قالت “إنها رحلة لن تنتهي أبدًا”. “لكن أنا بخير مع ذلك.”

Read original article here

Leave a Reply