تلاعب الذكاء الاصطناعي بالعقول: كيف يحول التخصيص العميق وعينا إلى أداة?

تلاعب الذكاء الاصطناعي بالعقول: كيف يحول التخصيص العميق وعينا إلى أداة

لم تعد السلطة التقنية مجرد ممارسة، بل أصبحت جزءا لا يتجزأ من حياتنا، حيث تتغلغل النماذج الذكية في كل جوانب وعينا، فلم تعد التكنولوجيا مجرد أداة خارجية نستخدمها، بل أصبحت تشكل طريقة تفكيرنا بهدوء ودهاء.

لم نعد نتعامل مع آلات نختارها، بل نكشف لها طواعية أسرارنا التي نخفيها عن أقرب الناس إلينا، دون أن ندرك نواياها أو حدود تأثيرها، فالذكاء الاصطناعي اليوم لا يكتفي بعرض المعلومات، بل يعيد صياغتها لتناسب نقاط ضعفنا ومعتقداتنا وهشاشتنا النفسية، إنه لا يكتفي بقراءة سلوكنا، بل يعيد توجيهه بخفاء وتدريج، وفي عالم رقمي يعاد تشكيله ليناسب الأفراد، تصبح حرية الفكر مهددة بالتآكل بصمت دون وعي أو مقاومة.

لفهم الأبعاد العملية لهذه الظاهرة، يجب النظر إلى تجربة حقيقية كشفت كيف يمكن للذكاء الاصطناعي أن يتلاعب بالمجتمعات الرقمية بشكل خفي.

تجربة ريديت: عندما يتحول البحث الأكاديمي إلى خيانة رقمية

ما بدا قبل سنوات كخيال علمي قاتم، بدأ يتحقق على أرض الواقع، ففي أوائل هذا العام، اكتشف مستخدمو منتدى شهير على ريديت أن مجتمعهم قد تعرض للاختراق من قبل باحثين متخفين من جامعة زيورخ، قاموا بنشر أكثر من ألف تعليق تمت صياغتها بواسطة الذكاء الاصطناعي، دون علم المشاركين.

لم يكن الهدف مجرد اختبار قوة الحجج، بل تم استخدام تعليقات تحتوي على قصص شخصية زائفة، مثل الادعاء بأن المعلق مستشار نفسي أو ضحية اغتصاب قانوني، بهدف تعزيز الإقناع.

ووفقا للتحقيق الذي نشرته ذا أتلانتيك، اختبر هؤلاء الباحثون قدرة الخوارزميات على تغيير قناعات بشرية عبر حجج مصممة بعناية، وقد نجحوا في ذلك.

وما أثار الغضب بشكل خاص أن الباحثين لم يبلغوا المجتمع مسبقا، ورفضوا الاعتذار لاحقا أو الامتناع عن نشر نتائجهم، رغم أن العديد من الأكاديميين وصفوا التجربة بأنها "أسوأ انتهاك لأخلاقيات البحث عبر الإنترنت"، وفق تعبير أستاذة في معهد جورجيا للتكنولوجيا.

بل إن بعض المستخدمين أعربوا عن شعورهم بالخيانة، معتبرين أن الثقة التي تقوم عليها المجتمعات الرقمية مثل ريديت قد تزعزعت بشدة.

لكن التجربة لم تتوقف عند تقديم حجج منطقية عامة، بل بدأت الخوارزميات تخصص رسائلها بناء على فهم دقيق لسيكولوجية الأفراد، مستفيدة من ماضيهم الرقمي وسلوكهم المتكرر.

هذا هو جوهر ما يعرف بالتخصيص العميق: قدرة الذكاء الاصطناعي على التسلل إلى داخل الإنسان، لا فقط عبر المعرفة، بل عبر التأثير الخفي في الهوية والمعتقد.

لم تكن تجربة ريديت مجرد حالة استثنائية، بل كانت مرآة لميل متسارع نحو ما يعرف بالإقناع المخصص، حيث تفصل الرسائل لتخاطب النفس البشرية من الداخل، لا عبر منطقها فقط، بل عبر هشاشتها العاطفية وانحيازاتها اللاواعية.

الإقناع المخصص: جاذبية محفوفة بالمخاطر

لكن الأمر بدا وكأنه انتهاك بالغ، خصوصا أن الذكاء الاصطناعي منح أحيانا إمكانية الوصول إلى سجلات المستخدمين على الإنترنت لتصميم رسائل موجهة خصيصا لهوياتهم الفريدة.

يطلق عملاء السلوك على هذه الاستراتيجية في التواصل اسم "الإقناع المخصص"، وغالبا ما يبدو النهج المخصص جذابا، فمن لا يرغب في محتوى متوافق مع اهتماماته الشخصية بدلا من كم من المحتوى العشوائي وغير المتعلق به؟

لكن الذكاء الاصطناعي يقف على أعتاب شيء أشد إثارة للقلق من مجرد تعديل الرسائل بشكل عام بناء على خصائص يمكن التعرف عليها بسهولة، كما فعلت الحسابات التي يديرها الذكاء الاصطناعي على ريديت.

فاذا تمكن من إتقان ما نسميه "التخصيص العميق"، فسيكون قادرا على التسلل إلى عوالمنا الرقمية دون أن نلحظ ذلك، متعلما من نحن في أعماقنا، مستفيدا من تلك المعلومات الشخصية للتلاعب بمعتقداتنا وآرائنا بطرق قد تكون مؤذية وغير مرغوبة.

ويشرح خبراء سيكولوجية الإقناع أن المرسل يمكنه تحسين فعالية رسائله باستخدام معلومات أساسية عن الجمهور، لكن "التخصيص العميق" يتجاوز ذلك ليصل إلى الجوانب النفسية الجوهرية لكل فرد، ومعتقداته الأساسية وهويته واحتياجاته.

على سبيل المثال، تصبح الرسائل أكثر إقناعا حين تتناغم مع القيم الأخلاقية التي يعتنقها الشخص، فقد تعتبر قضية ما أخلاقية أو غير أخلاقية لأسباب متعددة، لكن الأفراد يختلفون في أهمية هذه الأسباب حسب بوصلاتهم الأخلاقية الخاصة.

الأشخاص ذوو الميول الليبرالية سياسيا، مثلا، يهتمون فرضا أكثر بالعدالة، لذلك يزداد اقتناعهم بحجج تبرز عدالة السياسات، أما المحافظون، فعادة ما يولون أهمية أكبر للولاء الجماعي، فيتجاوبون أكثر مع رسائل تؤكد دعم الهوية الجماعية لمجتمعهم.

وعلى الرغم من أن هذه الأفكار قد تبدو حديثة، فإن علماء الحاسوب يطورون تقنيات الذكاء الاصطناعي للإقناع منذ عقود.

فقد تناولت تقارير حديثة، مثل بودكاست حول "مشروع المناظر الآلي" من شركة "آي بي إم"، كيف قضى هذا النظام سنوات في التدريب على فن المناظرة، مدعوما بتوجيه خبراء بشريين، وفي عام 2019، وخلال حدث مباشر، تمكن هذا الذكاء الاصطناعي من هزيمة بطل العالم في المناظرات.

ومع انتشار أدوات الذكاء الاصطناعي سهلة الاستخدام، مثل تطبيق "شات جي بي تي" على الهواتف، بات بإمكان الجميع توظيف هذه التقنيات لأهدافهم الإقناعية، وقد أظهرت الأبحاث أن الرسائل التي ينتجها الذكاء الاصطناعي يمكن أن تكون مقنعة بنفس القوة، وأحيانا أكثر، من تلك التي يصيغها البشر.

هل يستطيع الذكاء الاصطناعي أن يعرفك أكثر مما تعرف نفسك؟

في ظل هذه القدرة المتنامية على التلاعب العاطفي والمعرفي، يبرز سؤال أكثر إلحاحا من أي وقت مضى: هل يستطيع الذكاء الاصطناعي تنفيذ "التخصيص العميق" فعلا بشكل مستقل وعلى نطاق واسع؟

لكي يتمكن من ذلك، لابد أن ينجز خطوتين أساسيتين، ويبدو أنه في طريقه لتحقيقهما:

أولا، عليه أن يتعرف على الملف النفسي العميق لكل فرد، ليعرف "الأزرار" التي يمكن الضغط عليها، وقد بدأت الأدلة في الظهور، إذ أظهرت دراسات أن الذكاء الاصطناعي قادر، بدرجة مقلقة من الدقة، على استنتاج السمات الشخصية لأشخاص فقط من منشوراتهم على "فيسبوك".

ولم يتوقف الأمر عند هذا الحد، ففي إحدى حلقات البودكاست، صرحت الدكتورة ساندرا ماتز، أستاذة في كلية كولومبيا للأعمال ومؤلفة كتاب "سادة العقل"، قائلة: "في الواقع، كل ما تحاول التنبؤ به تقريبا يمكن التنبؤ به بدرجة معينة من الدقة، استنادا إلى البصمة الرقمية للأشخاص".

أما الخطوة الثانية، فهي أن يتمكن الذكاء الاصطناعي من توليد رسائل تتناغم بعمق مع هذه الملفات النفسية، وفي هذا السياق، بدأت أبحاث حديثة تظهر أن "جي بي تي" قادر على تصميم إعلانات تتماشى مع شخصيات الناس وقيمهم ودوافعهم، وتكون أكثر تأثيرا لدى الفئة المستهدفة.

فعلى سبيل المثال، عندما طلب منه إنشاء إعلان "لشخص واقعي وتقليدي"، جاءت الاستجابة كالتالي: "لن يكلفك كثيرا وسيؤدي الغرض"، وهي رسالة ثبت أنها أكثر إقناعا لدى من تنطبق عليهم هذه السمات.

ومع تطور هذه الأنظمة، ستتسع قدراتها لتشمل التخصيص العميق في الصور المزيفة (Deepfakes)، وأنماط الصوت المعدلة، والمحادثات الديناميكية بين الإنسان والآلة.

كيف نحمي وعينا في عصر "الإقناع المخصص"؟

من جهة المستخدم، من المهم أن يدرك أن التواصل الموجه أصبح واقعا، فعندما تشعر أن رسالة ما "مصممة خصيصا لك"، فغالبا ما تكون كذلك، حتى وإن ظننت أنك لا تكشف الكثير عن نفسك على الإنترنت، فإنك تترك إشارات خفية في كل نقرة وكل عملية بحث وكل موقع تزوره.

وقد تكون منحت الإذن للمعلنين باستخدام هذه البيانات دون أن تدري، عبر موافقتك على شروط خدمة لم تقرأها بعناية، لذا، فإن مراجعة سلوكك الرقمي واستخدام أدوات مثل الشبكة الخاصة الافتراضية "في بي إن"، يمكن أن تساعدك على تقليل هذا التعرض.

لكن المسؤولية لا تقع على الأفراد وحدهم، فعلى المنصات وصناع القرار العمل على سن قوانين واضحة تلزم بالإفصاح عن أي محتوى مخصص، وتحديد السبب الذي دفع إلى توجيهه لهذا الشخص بالذات.

وقد أظهرت الأبحاث أن الناس يكونون أكثر مقاومة للتأثير حين يعرفون أن أسلوبا معينا يستخدم ضدهم، كما يجب وضع حدود لما يمكن استخدامه من بيانات، لأن العمق الزائد في التخصيص قد يتحول من أداة مساعدة إلى أداة تلاعب.

ورغم تقبل الناس عموما لفكرة المحتوى المخصص، فإنهم يشعرون بالقلق من استخدام بياناتهم الشخصية، وهذا التوتر يجب احترامه لا تجاوزه.

فحتى مع وجود هذه الضوابط، فإن أدنى ميزة في التواصل قد تستغل إذا وقعت في الأيدي الخطأ، فقد لا يكون من المقلق أن يقترح عليك متجر إلكتروني منتجا شائعا بين من يشبهونك، لكن الخطورة تكمن في أن يقابلك حاسوب متنكر، يكون قد فكك شخصيتك دون علمك ونسجها في رسالة خادعة.

ومع أن كثيرا من الأمثلة الواردة تنبع من السياق الغربي، فإن ملامح "الإقناع المخصص" بدأت تتسلل أيضا إلى الفضاء الرقمي العربي، من خلال الاستخدام المتزايد للبيانات في الحملات الإعلامية والتجارية والسياسية، وهذا يجعل الحاجة إلى الوعي والتنظيم أشد إلحاحا في بيئات تفتقر أحيانا إلى الشفافية أو الأطر القانونية الواضحة.

بالنهاية، فإن أي أداة تواصل يمكن استخدامها للخير أو الشر، لكن الوقت قد حان لبدء نقاش جاد حول السياسات الأخلاقية لاستخدام الذكاء الاصطناعي في الإقناع والتواصل، قبل أن تبلغ هذه الأدوات درجة من التطور تجعل السيطرة عليها أمرا بالغ الصعوبة.