بينما قد يتجنب بعض العمال الذكاء الاصطناعي ، فإن إغراء استخدامه حقيقي للغاية بالنسبة للآخرين. يقول بوب إن هذا المجال يمكن أن يكون “كلابًا تأكل كلبًا” ، مما يجعل أدوات توفير العمالة جذابة. للعثور على العربات ذات الأجور الأعلى ، كثيرًا ما يستخدم العمال الجماعيون البرامج النصية التي تشير إلى المهام المربحة ، أو يبحثون عن مراجعات لطالبي المهام ، أو ينضمون إلى الأنظمة الأساسية ذات الأجور الأفضل التي تفحص العمال والمتقدمين.
بدأت CloudResearch في تطوير كاشف ChatGPT داخلي العام الماضي بعد أن رأى مؤسسوها قدرة التكنولوجيا على تقويض أعمالهم. يقول المؤسس المشارك والمدير الفني للتكنولوجيا جوناثان روبنسون إن الأداة تتضمن التقاط ضغطات المفاتيح ، وطرح الأسئلة التي يستجيب لها ChatGPT بشكل مختلف عن الأشخاص ، وتكرار استجابات البشر لمراجعة الردود النصية ذات الشكل الحر.
يجادل آخرون بأن الباحثين يجب أن يأخذوا على عاتقهم بناء الثقة. يقول جاستن سوليك ، الباحث في العلوم المعرفية في جامعة ميونيخ والذي يستخدم CloudResearch لتزويد المشاركين ، أن الحشمة الأساسية – الراتب العادل والتواصل الصادق – يقطع شوطًا طويلاً. إذا كان العاملون يثقون في أنهم سيظلون مستمرين في الدفع ، فيمكن لمقدمي الطلبات ببساطة أن يسألوا في نهاية الاستبيان عما إذا كان المشترك قد استخدم ChatGPT. يقول سوليك: “أعتقد أنه يتم إلقاء اللوم على العاملين عبر الإنترنت بشكل غير عادل بسبب قيامهم بأشياء قد يقوم بها موظفو المكاتب والأكاديميون طوال الوقت ، وهو ما يجعل سير العمل الخاص بنا أكثر كفاءة”.
يقترح علي الخطيب ، باحث في الحوسبة الاجتماعية ، أنه قد يكون من الأفضل التفكير في الكيفية التي يمكن أن يحفز بها العمال الذين يتقاضون أجورًا زهيدة على استخدام أدوات مثل ChatGPT. يقول: “يحتاج الباحثون إلى خلق بيئة تسمح للعمال بأخذ الوقت والتأمل”. يستشهد الخطيب بعمل الباحثين في جامعة ستانفورد الذين طوروا سطرًا من التعليمات البرمجية يتتبع المدة التي تستغرقها المهمة الدقيقة ، بحيث يمكن للطالبين حساب كيفية دفع الحد الأدنى للأجور.
يمكن أن يساعد تصميم الدراسة الإبداعي أيضًا. عندما أراد سوليك وزملاؤه قياس الوهم الطارئ ، وهو الإيمان بالعلاقة السببية بين الأحداث غير ذات الصلة ، طلبوا من المشاركين تحريك فأر كرتوني حول شبكة ثم تخمين القواعد التي تمنحهم الجبن. اختار هؤلاء المعرضون للوهم المزيد من القواعد الافتراضية. يقول سوليك إن جزءًا من نية التصميم هو إبقاء الأشياء مثيرة للاهتمام ، حتى لا تنفصل البوبز في العالم. “ولن يقوم أحد بتدريب نموذج ذكاء اصطناعي لمجرد لعب لعبتك الصغيرة المحددة.”
يمكن للشك المستوحى من ChatGPT أن يجعل الأمور أكثر صعوبة بالنسبة للعاملين في التجمعات ، الذين يجب أن يبحثوا بالفعل عن عمليات التصيد الاحتيالي التي تجمع البيانات الشخصية من خلال مهام وهمية ويقضون وقتًا غير مدفوع الأجر في إجراء اختبارات التأهيل. بعد الزيادة الطفيفة في البيانات منخفضة الجودة في عام 2018 ، أثار ذعر الروبوتات في Mechanical Turk ، زاد الطلب على أدوات المراقبة للتأكد من أن العمال هم من زعموا.
يقول فيليم برادلي ، الرئيس التنفيذي لشركة Prolific ، وهي منصة عمل جماعية مقرها المملكة المتحدة تقوم بفحص المشاركين والمتقدمين ، إن شركته بدأت العمل على منتج لتحديد مستخدمي ChatGPT وإما تثقيفهم أو إزالتهم. ولكن يتعين عليه البقاء ضمن حدود قوانين الخصوصية الخاصة باللائحة العامة لحماية البيانات في الاتحاد الأوروبي. ويقول إن بعض أدوات الكشف “يمكن أن تكون غازية تمامًا إذا لم يتم إجراؤها بموافقة المشاركين”.