الذكاء الاصطناعي يغير قواعد التوظيف: هل انتهى زمن العنصر البشري؟

الذكاء الاصطناعي يغير قواعد التوظيف: هل انتهى زمن العنصر البشري؟

لم يعد البحث عن وظيفة اليوم مقتصرا على إرسال السيرة الذاتية أو الإجابة عن أسئلة مدير التوظيف البشري، فقد تحول جزء كبير من هذه العملية إلى صندوق اسود رقمي، حيث أصبحت خوارزميات الذكاء الاصطناعي هي الحارس الأول للبوابة المهنية، ويفتح هذا التحول التقني، الذي تبرره الشركات بحجم الطلبات الهائل، نقاشا حادا حول حدود الأتمتة والعدالة والأخلاقيات الرقمية.

التوظيف في عصر الخوارزميات

كشف تقرير حديث لصحيفة الغارديان البريطانية عن اتساع الفجوة بين طموحات الشركات التقنية وتجارب الباحثين عن عمل، حيث أظهرت البيانات أن نحو 47% من الباحثين عن عمل في المملكة المتحدة قد خضعوا بالفعل لمقابلات توظيف يديرها الذكاء الاصطناعي، والأكثر دلالة هو أن 30% من المرشحين قرروا الانسحاب تماما من عملية التوظيف بمجرد معرفتهم بوجود هذا النوع من المقابلات، مما يشير إلى أزمة ثقة حقيقية بين الطرفين.

ماذا يحدث داخل المقابلة الآلية؟

من الناحية التقنية، لا تكتفي هذه الأنظمة بتسجيل الإجابات، بل تعمل وفق نماذج معقدة متعددة الأبعاد، حيث تحلل الخوارزميات الكلمات المفتاحية، وتماسك الأفكار، وحتى استخدام المصطلحات المهنية المحددة مسبقا، مما يحول المقابلة إلى عملية حشو كلمات بدلا من تقييم للشخصية.

كما تعمل على تحليل النبرة والسمات، حيث تحاول الأنظمة المتقدمة تحليل نبرة الصوت وسرعة الحديث وحتى تعابير الوجه رغم الجدل العلمي حول دقتها، وهذه الأدوات تسعى لتقدير السمات الشخصية مثل الثقة أو الذكاء العاطفي، لكنها غالبا ما تفشل في استيعاب التنوع الثقافي أو الاختلافات في أساليب التواصل.

واشار أحد المشاركين في تحقيق لصحيفة الغارديان إلى أن هذه الأنظمة تعاني من غياب التفاعل الديناميكي، فالذكاء الاصطناعي غالبا ما يفتقر إلى القدرة على فهم الصمت التأملي أو الاستطراد السياقي، حيث تقاطع الأنظمة المرشحين إذا توقفوا للحظة للتفكير، وهو ما يقتل العفوية والعمق في الإجابة.

تحديات تعجز عنها الخوارزميات

تتعدد أوجه الاستياء التي وثقها التقرير، وهي تعكس جوانب تقنية وأخلاقية عميقة، حيث وصف كثيرون التجربة بأنها حديث مع مرآة، حيث يغيب الطرف الآخر الذي يمنح المرشح شعورا بالاعتراف أو التقدير، وهذا الغياب للجانب الإنساني يجعل المقابلة تبدو مهينة لكثير من الكفاءات.

لكن المشكلة الأخطر حسب ما قال بعض المشاركين في التجربة تكمن في أن هذه الخوارزميات تتدرب على بيانات تاريخية قد تحتوي على تحيزات ضد مجموعات معينة، وعندما تستخدم لفلترة المتقدمين، فإنها قد تعيد إنتاج نفس التحيزات بشكل آلي ومستتر، مما يقلل من فرص الأشخاص الذين لا تتطابق بصمتهم الرقمية مع النموذج المثالي الذي حدده المبرمجون.

اضافة إلى العجز عن تقييم غير النمطي، فالتجارب الشخصية، مثل تلك التي ذكرها أحد المشاركين بخصوص الصعوبات التي يواجهها أصحاب التفكير المختلف مثل طيف التوحد مع هذه الأنظمة، تظهر بوضوح أن الذكاء الاصطناعي يفضل الإجابات النمطية المعلبة، ويعاقب أي تفكير إبداعي أو تحليلي يتطلب وقتا أو سياقا خاصا.

إنسان في الحلقة

ويضع التقرير الشركات أمام مسؤولية أخلاقية، وهي أن الأتمتة لغرض الكفاءة يجب ألا تأتي على حساب جودة التوظيف، حيث اوضح أن بعض التوصيات الحالية تتجه نحو الشفافية الكاملة، وأنه يجب على الشركات الإفصاح عن معايير التقييم وكيفية استخدام الذكاء الاصطناعي، وتوفير بديل بشري لمن يجدون صعوبة في التعامل مع الأنظمة الآلية.

اضافة إلى المراجعة البشرية، بحيث يكون استخدام الذكاء الاصطناعي فقط كأداة مساعدة لا لاتخاذ قرار الرفض أو القبول النهائي بشكل أعمى.

وبينما يرى أصحاب العمل حلا سحريا في الأتمتة لزحام الطلبات، يرى المرشحون فيها جدارا رقميا يفتقر للحكمة والإنصاف، فيما يقول المراقبون إن مستقبل التوظيف الناجح لن يكون في أتمتة البشر، بل في استخدام التكنولوجيا لتعزيز القدرة البشرية على الاختيار، لا لاستبدالها.