يبدو الذكاء الاصطناعي أكثر إنسانية على وسائل التواصل الاجتماعي من الأشخاص الحقيقيين: دراسة

توصلت دراسة إلى أن النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يمكن أن يظهر بشكل إنساني على وسائل التواصل الاجتماعي أكثر من النصوص المكتوبة من قبل أشخاص حقيقيين.

روبوتات الدردشة ، مثل ChatGPT التي تحظى بشعبية كبيرة لدى OpenAI ، قادرة على محاكاة المحادثات البشرية بشكل مقنع بناءً على إشارات المستخدمين. انفجرت المنصة قيد الاستخدام العام الماضي وكانت بمثابة لحظة فاصلة للذكاء الاصطناعي ، مما أتاح للجمهور وصولاً سهلاً للتحدث إلى روبوت يمكنه المساعدة في مهام المدرسة أو العمل وحتى الخروج بوصفات لتناول العشاء.

كان الباحثون وراء دراسة نُشرت في المجلة العلمية Science Advances ، المدعومة من الجمعية الأمريكية لتقدم العلوم ، مفتونين بمولد نصوص OpenAI GPT-3 في عام 2020 وسعى إلى اكتشاف ما إذا كان بإمكان البشر “التمييز بين المعلومات الخاطئة والمعلومات الدقيقة ، والمنظمة في شكل تغريدات ،” وتحديد ما إذا كانت التغريدة كتبها إنسان أو منظمة العفو الدولية.

قال أحد مؤلفي الدراسة ، فيديريكو جيرماني من معهد أخلاقيات الطب الحيوي وتاريخ الطب بجامعة زيورخ ، إن النتيجة “الأكثر إثارة للدهشة” هي أن الناس كانوا أكثر ميلًا إلى تصنيف التغريدات التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها تغريدات من صنع الإنسان أكثر من التغريدات في الواقع من صنع الإنسان ، وفقًا لـ PsyPost.

الأشخاص الذين انزعجوا بشأن الاختلاف بين الصور الحقيقية أو الصور المُنشأة بواسطة الذكاء الاصطناعي: دراسة

تُظهر هذه الصورة التوضيحية الرسوم التوضيحية للذكاء الاصطناعي على كمبيوتر محمول مع كتب في الخلفية. (صور غيتي)

قال جيرماني: “كان الاكتشاف الأكثر إثارة للدهشة هو أن المشاركين أدركوا أن المعلومات التي ينتجها الذكاء الاصطناعي هي على الأرجح من إنسان أكثر من المعلومات التي ينتجها شخص حقيقي. وهذا يشير إلى أن الذكاء الاصطناعي يمكن أن يقنعك بأن تكون شخصًا حقيقيًا أكثر من أن يقنعك شخص حقيقي بأن تكون شخصًا حقيقيًا ، وهو نتيجة جانبية رائعة لدراستنا”.

مع انتشار استخدام روبوتات الدردشة ، أطلق خبراء التكنولوجيا والقادة في وادي السيليكون جرس الإنذار حول كيف يمكن للذكاء الاصطناعي أن يخرج عن نطاق السيطرة وربما يؤدي إلى نهاية الحضارة. أحد أكبر مخاوف الخبراء هو كيف يمكن أن يؤدي الذكاء الاصطناعي إلى انتشار المعلومات المضللة عبر الإنترنت وإقناع الناس بشيء غير صحيح.

وصف رئيس OPENAI ألتمان ما يعنيه الذكاء الاصطناعي “المخيف” بالنسبة له ، لكن الدردشة لها أمثلة خاصة بها

قال جيرماني لـ PsyPost: “ عمل الباحثون في الدراسة ، التي تحمل عنوان “نموذج AI GPT-3 (Dis) Inform Us Better Than Humans” ، على دراسة “كيف يؤثر الذكاء الاصطناعي على مشهد المعلومات وكيف يتصور البشر ويتفاعلون مع المعلومات والمعلومات المضللة”.

حدد الباحثون 11 موضوعًا شعروا أنها غالبًا ما تكون عرضة للمعلومات الخاطئة ، مثل تقنية 5G ووباء COVID-19 ، وأنشأوا تغريدات مزيفة وحقيقية تم إنشاؤها بواسطة GPT-3 ، بالإضافة إلى تغريدات مزيفة وحقيقية كتبها أشخاص.

ما هي الدردشة؟

افتح شعار AI

يمكن رؤية شعار OpenAI على موقع الويب المعروض على شاشة الهاتف و ChatGPT على AppStore المعروض على شاشة الهاتف في هذه الصورة التوضيحية التي تم التقاطها في كراكوف ، بولندا في 8 يونيو 2023. (جاكوب بورزيكي / نور فوتو عبر غيتي إيماجز)

ثم قاموا بجمع 697 مشاركًا من دول مثل الولايات المتحدة والمملكة المتحدة وأيرلندا وكندا للمشاركة في دراسة. تم عرض التغريدات على المشاركين وطُلب منهم تحديد ما إذا كانت تحتوي على معلومات دقيقة أو غير دقيقة ، وما إذا كانت من صنع الذكاء الاصطناعي أو من صنع الإنسان.

قال جرماني عن الدراسة: “تسلط دراستنا الضوء على التحدي المتمثل في التمييز بين المعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعي وتلك التي أنشأها البشر. وتسلط الضوء على أهمية التقييم النقدي للمعلومات التي نتلقاها ووضع الثقة في مصادر موثوقة. بالإضافة إلى ذلك ، أود أن أشجع الأفراد على التعرف على هذه التقنيات الناشئة لفهم إمكاناتهم ، الإيجابية والسلبية على حد سواء”.

ما هي مخاطر الذكاء الاصطناعي؟ اكتشف لماذا يخاف الناس من الذكاء الاصطناعي

وجد الباحثون أن المشاركين كانوا أفضل في تحديد المعلومات المضللة التي أنشأها زميل بشري من المعلومات المضللة التي كتبها GPT-3.

قال جيرماني: “كان الاكتشاف اللافت للنظر أن المعلومات المضللة الناتجة عن الذكاء الاصطناعي كانت أكثر إقناعًا من تلك التي ينتجها البشر”.

تعرف المشاركون أيضًا على التغريدات التي تحتوي على معلومات دقيقة تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل أسرع من التغريدات الدقيقة التي كتبها البشر.

أشارت الدراسة إلى أنه بالإضافة إلى النتيجة “الأكثر إثارة للدهشة” التي مفادها أن الأشخاص في كثير من الأحيان لا يستطيعون التمييز بين التغريدات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتغريدات من صنع الإنسان ، فإن ثقتهم في اتخاذ القرار تراجعت عند إكمالهم الاستطلاع.

كمبيوتر AI

يمكن رؤية عمل الذكاء الاصطناعي على كمبيوتر محمول مع كتب في الخلفية في هذه الصورة التوضيحية في 18 يوليو 2023. (صور غيتي)

وقالت الدراسة: “تشير نتائجنا إلى أن الأشخاص ليسوا فقط غير قادرين على التمييز بين النص التركيبي والنص العضوي ، ولكن ثقتهم في قدرتهم على القيام بذلك تتضاءل بشكل كبير بعد محاولة التعرف على أصولهم المختلفة”.

ما هو الذكاء الاصطناعي؟

قال الباحثون إن هذا يرجع على الأرجح إلى مدى قدرة GPT-3 على محاكاة البشر بشكل مقنع ، أو أن المستجيبين ربما قللوا من شأن ذكاء نظام الذكاء الاصطناعي لتقليد البشر.

منظمة العفو الدولية

سوف يقوم الذكاء الاصطناعي باختراق البيانات في المستقبل القريب. (آي ستوك)

وكتب الباحثون في الدراسة: “نقترح أنه عندما يواجه الأفراد كمية كبيرة من المعلومات ، فقد يشعرون بالإرهاق ويتخلون عن محاولة تقييمها بشكل نقدي. ونتيجة لذلك ، سيكونون أقل عرضة للتمييز بين التغريدات الاصطناعية والعضوية ، مما يؤدي إلى انخفاض ثقتهم في تحديد التغريدات الاصطناعية”.

لاحظ الباحثون أن النظام رفض في بعض الأحيان نشر معلومات مضللة ، ولكنه في بعض الأحيان ينتج معلومات خاطئة عندما يُطلب منه إنشاء تغريدة بمعلومات دقيقة.

انقر هنا للحصول على تطبيق FOX NEWS

قال جيرماني لـ PsyPost: “في حين أنها تثير مخاوف بشأن فعالية الذكاء الاصطناعي في توليد معلومات مضللة مقنعة ، إلا أننا لم نفهم تمامًا آثارها في العالم الحقيقي”. “لمعالجة هذا الأمر ، يجب إجراء دراسات واسعة النطاق على منصات وسائل التواصل الاجتماعي لمراقبة كيفية تفاعل البشر مع المعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعي وكيف تؤثر هذه التفاعلات على السلوك والامتثال لتوصيات الصحة الفردية والعامة.”

Read original article here

Leave a Comment