أدوات الذكاء الاصطناعي ليست جديدة على مجال العمل ، ولكن إدخال نماذج لغة كبيرة مدعمة مثل ChatGPT من OpenAI يستعد لتغيير طريقة بحث الشركات عن الموظفين ، وفحصهم ، وتوظيفهم.
في حين أن الوعود بزيادة الكفاءة في هذه العمليات مغرية بشكل لا يصدق للشركات ، فإن المنظمين ومحامي التوظيف يدقون ناقوس الخطر بأن تسليم مسؤوليات التوظيف للآلات محفوف بالمسؤوليات المحتملة لأصحاب العمل.
والفدرالية مستعدة لاتخاذ إجراءات صارمة ضد أصحاب العمل والبائعين مع ازدهار تبني الذكاء الاصطناعي.
أطلقت لجنة تكافؤ فرص العمل (EEOC) مبادرة الذكاء الاصطناعي والإنصاف الحسابي على مستوى الوكالة في عام 2021 لدراسة كيفية تأثير التقنيات على كيفية اتخاذ قرارات التوظيف ، وهي الآن تكثف جهودها لضمان امتثال الشركات للقانون الفيدرالي. تستخدم الشركات الأدوات.
تقول FTC إنها لن “ تتردد في الانهيار ” بشأن الممارسات التجارية الضارة التي تنطوي على الذكاء الاصطناعي
هذا الأسبوع ، انضمت لجنة تكافؤ فرص العمل (EEOC) إلى مكتب الحماية المالية للمستهلك ، وقسم الحقوق المدنية بوزارة العدل ولجنة التجارة الفيدرالية في إصدار بيان مشترك يحذر من أنه “على الرغم من أن العديد من أدوات (AI) هذه تقدم وعودًا بالتقدم ، فإن استخدامها له أيضًا إمكانية إدامة التحيز غير القانوني وأتمتة التمييز غير القانوني وتحقيق نتائج ضارة أخرى “.
وقالت لينا خان ، رئيسة لجنة التجارة الفيدرالية ، في بيان: “نرى بالفعل كيف يمكن لأدوات الذكاء الاصطناعي أن تشحن عمليات الاحتيال وأتمتة التمييز ، ولن نتردد في استخدام النطاق الكامل لسلطاتنا القانونية لحماية الأمريكيين من هذه التهديدات”.
وتابع خان: “يمكن للتقدم التكنولوجي أن يقدم ابتكارات حاسمة ، لكن الادعاءات بالابتكار يجب ألا تكون غطاءً لخرق القانون”. “لا يوجد إعفاء لمنظمة العفو الدولية من القوانين الموجودة في الكتب ، وسوف تقوم لجنة التجارة الفيدرالية (FTC) بإنفاذ القانون بقوة لمكافحة الممارسات غير العادلة أو الخادعة أو أساليب المنافسة غير العادلة”.
كيفن جونسون ، مؤسس شركة المحاماة Johnson Jackson، LLC ، كان محامي توظيف لمدة 30 عامًا وهو رئيس اللجنة الدائمة للتكنولوجيا في نقابة المحامين في فلوريدا.
قضايا برنت بوزيل تحذر من لوائح الذكاء الاصطناعي الخاصة بلجنة التجارة الفيدرالية: “كن خائفًا جدًا جدًا”
يقول إن أصحاب العمل يستخدمون بشكل متزايد أدوات الذكاء الاصطناعي في عملية التوظيف ويشير إلى عدة طرق يمكن أن تكون التكنولوجيا مفيدة بها. يمكن أن توفر الأدوات للإدارة قدرًا كبيرًا من الوقت باستخدام برنامج أحد البائعين لفحص السير الذاتية للعثور على أفضل المرشحين للوظيفة ، ويقول إن هناك عددًا لا حصر له من الطرق التي ستساعد بها التكنولوجيا أصحاب العمل على المضي قدمًا.
لكن جونسون ينصح عملاءه بتوخي الحذر قبل اعتماد التقنيات الجديدة اللامعة.
قال جونسون: “هناك الكثير من الطرق التي لا يزال من الممكن أن يحدث فيها التحيز أو التمييز في عملية التوظيف لأن كل هذه الأشياء هي في الأساس مجرد أداة أخرى”.
يقول جونسون إن الشركات بحاجة إلى التأكد من أن مطوري برامج التوظيف بالذكاء الاصطناعي قد اتخذوا احتياطات كافية لضمان عدم استخدام منتجاتهم لتصنيف المتقدمين أو فصلهم عن عمد بناءً على الخصائص المحمية.
أزمة تسرب بيانات الذكاء الاصطناعي: أداة جديدة تمنع أسرار الشركة من الإرسال إلى الدردشة
يقول المحامي الذي يعمل منذ فترة طويلة إن فرق الموارد البشرية يجب أن تدقق في معايير الاختيار للتأكد من أن الخوارزميات أو روبوتات المحادثة لا تنتج “تأثيرًا متباينًا” على المتقدمين المتنوعين مما قد يجعل صاحب العمل مسؤولًا بموجب الباب السابع أو قوانين أخرى لمكافحة التمييز.
قدم بعض الأمثلة.
إذا استخدم صاحب العمل برنامجًا للذكاء الاصطناعي للعثور على المتقدمين لوظيفة وأدرج في معاييره أنه يبحث عن شخص “قادر بنسبة 100٪ على أداء المتطلبات المادية للوظيفة” ولا يذكر أي شيء عن الإقامة المعقولة ، وأوضح جونسون أنه قد ينتهك قانون الأمريكيين ذوي الإعاقة.
أو إذا كان مطعم ما يبحث عن متقدمين لشغل منصب مضيف ويحد من المعايير لتقتصر على المتقدمات من الإناث اللائي تتراوح أعمارهن بين 17 و 25 عامًا ، على سبيل المثال ، فإن صاحب العمل “يشارك إلى حد كبير في التمييز الجنسي هناك” ، على حد قوله.
يقول جونسون إنه من المهم لأصحاب العمل أداء واجباتهم المدرسية والعثور على بائعي البرامج الذين لديهم أنظمة لن تهبط بهم في الماء الساخن مع المنظمين.
قال لـ FOX Business: “أعتقد ، لأصحاب العمل ، أن أفضل نصيحة هي أن تقرأ بقدر ما تستطيع عن كيفية تطور هذا كله”. “فكر في تأثير الطريقة التي تقترح استخدامها ، وحاول التفكير في ما إذا كان هناك خطأ ما في هذا الاستخدام ، فأين من المرجح أن يحدث خطأ؟”