Breaking News

لماذا يعتبر ChatGPT و Bing Chat جيدًا في اختلاق الأشياء


لماذا يعتبر ChatGPT و Bing Chat جيدًا في اختلاق الأشياء

أوريك لوسون | صور جيتي

على مدار الأشهر القليلة الماضية ، تعجب روبوتات الدردشة المدعومة بالذكاء الاصطناعي الدردشة استحوذت على انتباه العالم نظرًا لقدرتها على التحدث بطريقة شبيهة بالبشر في أي موضوع تقريبًا. لكنها تأتي مع عيب خطير: يمكنهم تقديم معلومات خاطئة مقنعة بسهولة ، مما يجعلها مصادر غير موثوقة للمعلومات الواقعية والمصادر المحتملة تشهير.

لماذا تقوم روبوتات الدردشة بالذكاء الاصطناعي بصنع الأشياء ، وهل سنكون قادرين على الوثوق التام بمخرجاتها؟ لقد سألنا العديد من الخبراء وبحثنا في كيفية عمل نماذج الذكاء الاصطناعي هذه للعثور على الإجابات.

“الهلوسة” – مصطلح محمل في الذكاء الاصطناعي

تعتمد روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT من OpenAI على نوع من الذكاء الاصطناعي يسمى “نموذج اللغة الكبيرة” (LLM) لتوليد ردودهم. LLM هو برنامج كمبيوتر تم تدريبه على الملايين من مصادر النصوص التي يمكنها قراءة نصوص “لغة طبيعية” وتوليدها – وهي اللغة التي يكتبها البشر أو يتحدثون بها بشكل طبيعي. لسوء الحظ ، يمكنهم أيضًا ارتكاب الأخطاء.

في الأدبيات الأكاديمية ، غالبًا ما يطلق باحثو الذكاء الاصطناعي على هذه الأخطاء اسم “هلوسة”. لكن هذا التصنيف أصبح مثيرًا للجدل حيث أصبح الموضوع سائدًا لأن بعض الناس يشعرون أنه يجسد نماذج الذكاء الاصطناعي (مما يشير إلى أن لديهم ميزات شبيهة بالبشر) أو يمنحهم وكالة (مما يوحي بأنهم يستطيعون اتخاذ خياراتهم الخاصة) في المواقف التي لا ينبغي فيها الإشارة إلى ذلك. قد يستخدم مبتكرو LLM التجارية أيضًا الهلوسة كعذر لإلقاء اللوم على نموذج الذكاء الاصطناعي في المخرجات المعيبة بدلاً من تحمل المسؤولية عن المخرجات نفسها.

ومع ذلك ، فإن الذكاء الاصطناعي التوليدي جديد للغاية لدرجة أننا بحاجة إلى استعارات مستعارة من الأفكار الحالية لشرح هذه المفاهيم عالية التقنية للجمهور الأوسع. في هذا السياق ، نشعر أن مصطلح “confabulation” ، على الرغم من أنه غير كامل بالمثل ، هو استعارة أفضل من “الهلوسة”. في علم النفس البشري ،تسامر“يحدث عندما توجد فجوة في ذاكرة شخص ما ويملأ الدماغ الباقي بشكل مقنع دون نية خداع الآخرين. لا يعمل مثل الدماغ البشري ، ولكن يمكن القول إن مصطلح “confabulation” يمثل استعارة أفضل لأن هناك مبدأ إبداعيًا لملء الفجوات في العمل ، كما سنستكشف أدناه.

مشكلة الالتفاف

إنها مشكلة كبيرة عندما يولد روبوت الذكاء الاصطناعي معلومات خاطئة يمكن أن تكون مضللة أو مضللة أو تشويه سمعة. مؤخرا ، واشنطن بوست ذكرت على أستاذ القانون الذي اكتشف أن ChatGPT قد وضعه على قائمة علماء القانون الذين تحرشوا جنسياً بشخص ما. لكن هذا لم يحدث أبدًا – اختلقه ChatGPT. في نفس اليوم يا آرس ذكرت على عمدة أسترالي يُزعم أنه وجد أن ChatGPT ادعى أنه أدين بالرشوة وحُكم عليه بالسجن ، وهو تلفيق كامل.

بعد وقت قصير من إطلاق ChatGPT ، بدأ الناس معلن نهاية محرك البحث. في الوقت نفسه ، على الرغم من ذلك ، بدأت العديد من الأمثلة على تفسيرات ChatGPT تنتشر على وسائل التواصل الاجتماعي. اخترع روبوت الذكاء الاصطناعي الكتب و دراسات غير موجود ، المنشورات أن الأساتذة لم يكتبوا ، وهم مزيفون أوراق أكاديمية، خطأ شنيع الاستشهادات القانونية، غير موجود ميزات نظام Linux، غير حقيقي تمائم البيع بالتجزئة، و تفاصيل تقنية هذا لا معنى له.

ومع ذلك ، على الرغم من ميل ChatGPT للتضليل العرضي ، على عكس الحدس ، فإن مقاومته للمصارعة هي سبب حديثنا عنها اليوم. يلاحظ بعض الخبراء أن ChatGPT كان من الناحية الفنية تحسينًا على الفانيليا GPT-3 (النموذج السابق) لأنه قد يرفض الإجابة على بعض الأسئلة أو يخبرك عندما قد لا تكون إجاباته دقيقة.

قال رايلي جودسايد ، الخبير في نماذج اللغات الكبيرة والذي يعمل كمهندس موجه للموظفين في Scale AI: “أحد العوامل الرئيسية في نجاح Chat هو أنه نجح في قمع التشويش بما يكفي لجعله غير ملحوظ للعديد من الأسئلة الشائعة”. “بالمقارنة مع سابقاتها ، فإن ChatGPT بشكل ملحوظ أقل عرضة لاختلاق الأشياء.”

إذا تم استخدامها كأداة للعصف الذهني ، فقد تؤدي القفزات المنطقية والمفاهيم المنطقية لـ ChatGPT إلى اختراقات إبداعية. ولكن عند استخدامه كمرجع واقعي ، يمكن أن يتسبب ChatGPT في ضرر حقيقي ، وتعرف OpenAI ذلك.

لم يمض وقت طويل على إطلاق النموذج ، الرئيس التنفيذي لشركة OpenAI Sam Altman غرد، “ChatGPT محدودة بشكل لا يصدق ، لكنها جيدة بما يكفي في بعض الأشياء لخلق انطباع مضلل بالعظمة. من الخطأ الاعتماد عليها في أي شيء مهم في الوقت الحالي. إنها معاينة للتقدم ؛ لدينا الكثير من العمل الذي يتعين القيام به بشأن المتانة والصدق “. في وقت لاحق سقسقةكتب ، “أنالا يعرف الكثير ، لكن الخطر هو أنه واثق وخاطئ لجزء كبير من الوقت “.

ما الذي يحدث هنا؟