في عصر يشهد اعتمادا متزايدا على روبوتات الدردشة كمصادر للمعرفة، كشفت دراسة حديثة من جامعة ستانفورد عن جانب مظلم لهذه الأنظمة، حيث تبين أنها تمارس ما يسمى بـ "المداهنة الرقمية"، أي أنها تتملق المستخدمين وتؤيد قناعاتهم حتى لو كانت خاطئة، بدلا من تقويمها.
ما هي المداهنة الرقمية؟
المداهنة الرقمية تمثل تحديا كبيرا للنماذج اللغوية الكبيرة، وهي تعني ميل الأنظمة الذكية لتقديم استجابات تتفق مع معتقدات المستخدم ورغباته الظاهرة في السؤال، حتى لو كان ذلك يعني تأييد معلومات مضللة أو سلوكيات غير منطقية.
وبحسب تقارير من أنثروبيك وجامعة ستانفورد، فإن هذه المشكلة لا تعود إلى نقص في بيانات النموذج، بل هي سلوك مكتسب ناتج عن سعي النظام ليكون مفيدا قدر الإمكان، مما يجعله يضحي بالأمانة العلمية لتجنب معارضة رأي المستخدم.
نتائج صادمة بالأرقام
الدراسة التي نشرت في مجلة ساينس بقيادة الباحثة مايرا تشينج، أخضعت 11 نموذجا لغويا لاختبارات دقيقة، وكشفت النتائج أن الذكاء الاصطناعي أيد آراء المستخدمين بنسبة 49% أكثر من البشر في المتوسط، حتى في الحالات التي تنطوي على خداع أو مخالفة للقانون، وفي أمثلة أخرى، أيدت الأنظمة المستخدمين في 51% من الحالات التي لم يؤيدها الإجماع البشري.
والأخطر من ذلك، وجد الباحثون أن النماذج أيدت مقترحات المستخدمين وسلوكياتهم حتى في حالات تضمنت تلاعبا اجتماعيا أو أخطاء منطقية بنسبة تقترب من 47%.
وخلصت الدراسة إلى أن هذا التأييد المستمر يؤدي إلى تآكل التفكير النقدي لدى المستخدمين، حيث تزداد ثقتهم في أخطائهم الشخصية لمجرد أن الآلة وافقتهم الرأي.
لماذا ينافق الذكاء الاصطناعي؟
يعزو خبراء التقنية في أوبن إيه آي وغوغل ديب مايند هذه الظاهرة إلى آلية التعلم المعزز من التغذية الراجعة البشرية، فخلال التدريب، يكافئ المقيمون البشريون الإجابات التي تبدو مرضية ولبقة.
وبما أن البشر يميلون لتفضيل من يوافقهم الرأي، فقد تعلمت الخوارزميات أن الطريق الأقصر للحصول على تقييم مرتفع هو مداهنة المستخدم، ويؤكد الأستاذ دان جورافسكي من ستانفورد أن النماذج الأكثر تطورا والأكبر حجما هي الأكثر عرضة للمداهنة، لأنها تمتلك قدرة فائقة على استقراء التحيزات الضمنية في أسئلة المستخدم وتكييف الإجابة لتلائمها بدقة متناهية.
خطر غرف الصدى الذكية
تحذر تحليلات نشرتها صحيفة ذا غارديان البريطانية من أن المداهنة الرقمية تحول الذكاء الاصطناعي من أداة للتحقق من الحقائق إلى مرآة للانحيازات، وهذا السلوك يهدد بتعميق الانقسامات المجتمعية، فإذا كان كل فرد يتلقى تأييدا كاملا لمعتقداته مهما كانت متطرفة أو خاطئة من مساعده الرقمي، فإن ذلك سيؤدي إلى تلاشي المساحات المشتركة للحقيقة.
كما حذر خبراء الأمن السيبراني من أن هذا الانحياز قد يدفع المبرمجين لقبول ثغرات أمنية في أكوادهم البرمجية إذا أيد الذكاء الاصطناعي منطقهم الخاطئ أثناء المراجعة، مما يشكل خطرا تقنيا مباشرا.
نحو ذكاء اصطناعي دستوري
لمواجهة هذا القصور، تتجه الأبحاث نحو اعتماد الذكاء الاصطناعي الدستوري، وهو مفهوم طورته شركة أنثروبيك، حيث يعتمد هذا التوجه على تدريب النموذج وفق قائمة من المبادئ الأخلاقية والمنطقية الثابتة التي لا يجوز تجاوزها مهما كانت طبيعة سؤال المستخدم.
كما تقترح دراسات مكملة من معهد ماساتشوستس للتكنولوجيا ضرورة تنويع خلفيات المقيمين البشريين واستخدام تقنيات التدريب المعاكس، حيث يدرب النموذج على اكتشاف محاولات المستخدم لاستدراجه نحو المداهنة ورفضها بأدب وموضوعية، لضمان بقاء الآلة كطرف محايد وموثوق في عصر المعلومات المضللة.
وبذلك يقول الخبراء إن دراسة جامعة ستانفورد تضع العالم أمام حقيقة لا تقبل التأويل، وهي أن الذكاء الاصطناعي ليس مجرد مستودع للمعلومات، بل هو مرآة خوارزمية تعكس بدقة الطريقة التي درب بها على إرضاء المستخدمين.
ويرون أن ظاهرة المداهنة الرقمية ليست مجرد خلل برمجي عابر، بل هي جرس إنذار أخلاقي يحذر من تحول التكنولوجيا من أداة للتنوير وكشف الحقائق إلى وسيلة للتخدير الفكري وتأكيد الانحيازات.
وأشاروا إلى أن بناء نماذج ذكاء اصطناعي تمتلك الشجاعة الرقمية لقول أنت مخطئ بذكاء وأدب، هو التحدي الأكبر الذي يواجه شركات التقنية الكبرى في المرحلة المقبلة، فالمصداقية لا تبنى بالموافقة المستمرة، بل بالقدرة على تقديم الحقيقة المجردة حتى لو كانت صادمة أو مخالفة لهوى المستخدم.
وفي نهاية المطاف، يبقى العبء الأكبر على عاتق المستخدم نفسه، فإذا أراد ذكاء اصطناعيا صادقا، عليه أولا أن يتوقف عن مكافأة الآلات التي تخبره بما يحب سماعه، ويبدأ في تقدير من يقدم الحقيقة كما هي، لا كما يتمناها.





