لا عجب أن البعض منهم قد يلجأ إلى أدوات مثل ChatGPT لزيادة أرباحهم المحتملة. لكن كم عددها؟ لمعرفة ذلك ، قام فريق من الباحثين من المعهد الفيدرالي السويسري للتكنولوجيا (EPFL) بتعيين 44 شخصًا على منصة العمل الحفلة Amazon Mechanical Turk لتلخيص 16 مقتطفًا من أوراق البحث الطبي. ثم قاموا بتحليل ردودهم باستخدام نموذج ذكاء اصطناعي قاموا بتدريبه بأنفسهم للبحث عن إشارات منبهة لمخرجات ChatGPT ، مثل عدم وجود تنوع في اختيار الكلمات. قاموا أيضًا باستخراج ضغطات مفاتيح العمال في محاولة لمعرفة ما إذا كانوا قد نسخوا إجاباتهم ولصقوها ، وهو مؤشر على أنهم قاموا بتوليد ردودهم في مكان آخر.
قدروا أن ما بين 33 ٪ و 46 ٪ من العمال استخدموا نماذج الذكاء الاصطناعي مثل ChatGPT من OpenAI. إنها نسبة من المرجح أن تنمو أعلى حيث أصبحت ChatGPT وأنظمة الذكاء الاصطناعي الأخرى أكثر قوة ويمكن الوصول إليها بسهولة ، وفقًا لمؤلفي الدراسة ، التي تمت مشاركتها على arXiv ولم تتم مراجعته بعد من قبل الأقران.
“لا أعتقد أنها نهاية منصات التعهيد الجماعي. يقول روبرت ويست ، الأستاذ المساعد في EPFL ، الذي شارك في تأليف الدراسة ، “إنه يغير الديناميكيات فقط”.
يمكن أن يؤدي استخدام البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتدريب الذكاء الاصطناعي إلى إدخال المزيد من الأخطاء في النماذج المعرضة بالفعل للخطأ. تقدم النماذج اللغوية الكبيرة بانتظام معلومات خاطئة كحقيقة. إذا قاموا بتوليد مخرجات غير صحيحة تُستخدم في حد ذاتها لتدريب نماذج الذكاء الاصطناعي الأخرى ، فيمكن استيعاب الأخطاء بواسطة تلك النماذج وتضخيمها بمرور الوقت ، مما يزيد من صعوبة تحديد أصولهم ، كما يقول إيليا شومايلوف ، زميل أبحاث مبتدئ في الكمبيوتر. العلوم في جامعة أكسفورد ، الذي لم يشارك في المشروع.
والأسوأ من ذلك ، ليس هناك حل بسيط. يقول: “المشكلة هي أنك عندما تستخدم بيانات اصطناعية ، فإنك تكتسب الأخطاء من سوء فهم النماذج والأخطاء الإحصائية”. “تحتاج إلى التأكد من أن أخطائك لا تؤدي إلى تحيز ناتج النماذج الأخرى ، ولا توجد طريقة بسيطة للقيام بذلك.”
تسلط الدراسة الضوء على الحاجة إلى طرق جديدة للتحقق مما إذا كانت البيانات قد تم إنتاجها من قبل البشر أو الذكاء الاصطناعي. كما يسلط الضوء على إحدى المشكلات المتعلقة بميل شركات التكنولوجيا إلى الاعتماد على عمال الوظائف المؤقتة للقيام بالعمل الحيوي المتمثل في تنظيم البيانات المغذية لأنظمة الذكاء الاصطناعي.
يقول ويست: “لا أعتقد أن كل شيء سينهار”. “لكنني أعتقد أن مجتمع الذكاء الاصطناعي سيتعين عليه التحقيق عن كثب في المهام الأكثر عرضة للأتمتة والعمل على إيجاد طرق لمنع ذلك.”