هل يستطيع الذكاء الاصطناعي فهم مشاعرنا؟ تقنيات الحوسبة العاطفية تكشف التفاصيل

هل يستطيع الذكاء الاصطناعي فهم مشاعرنا؟ تقنيات الحوسبة العاطفية تكشف التفاصيل

في عام 1950، طرح عالم الرياضيات آلان تورينغ سؤالا مهما: هل يمكن للآلة أن تفكر؟ واليوم، وفي خضم الثورة الصناعية الرابعة، يواجه الإنسان سؤالا أكثر تعقيدا، وهو: هل يمكن للآلة أن تشعر؟

تقنيا، نعيش اليوم في عصر الحوسبة العاطفية، وهو مجال يهدف إلى تضييق الفجوة بين المنطق الرقمي الصارم والعواطف الإنسانية المتدفقة.

كيف يرى الذكاء الاصطناعي مشاعرنا؟

يعتمد الذكاء الاصطناعي في تحليل المشاعر على تحويل الحالات النوعية إلى قيم كمية، وتتم هذه العملية من خلال ثلاث طبقات تقنية رئيسية.

  • الرؤية الحاسوبية: تستخدم الشبكات العصبية لتحليل ملامح الوجه، حيث يقسم الوجه إلى نقاط مرجعية تقيس المسافات بين زوايا العين والفم بالبكسل، ثم تقارنها بقواعد بيانات ضخمة لتصنيف التعبير.
  • معالجة اللغات الطبيعية: باستخدام نماذج المحولات، يحلل الذكاء الاصطناعي السياق وآليات الانتباه لتقدير الشحنة العاطفية للنص، والتمييز بين الجد والتهكم.
  • تحليل النبرة الصوتية: يحول الذكاء الاصطناعي الصوت إلى صور طيفية لتحليل التردد والشدة، فالتوقفات الطويلة والترددات المنخفضة قد تصنف كمؤشرات للاكتئاب.

وبعد الفهم، تأتي مرحلة الاستجابة، فالمعالج الرقمي مصمم ليكون مرآة، ويسمى هذا تقنيا توليد اللغة الطبيعية المشروط، فعندما يكتشف النظام حزنا، فإنه يضبط معلوماته لاختيار كلمات أكثر ليونة ونبرة أهدأ.

والآلة هنا لا تتعاطف لأنها تشعر بالألم، بل لأن دالة الهدف في خوارزميتها تفرض عليها تقليل المسافة الرياضية بين ردها وبين الرد المثالي لمعالج بشري، وهي عملية تحسين وليست تجربة وجدانية.

المعضلة الفنية: الوعي الزائف وفجوة الكواليا

تكمن الفجوة التقنية الكبرى فيما يسميه الفلاسفة الكواليا، وهي التجربة الذاتية البحتة للفرد، فالذكاء الاصطناعي يفتقر إلى الجسد، والمشاعر البشرية ليست مجرد أفكار، بل هي تفاعلات كيميائية وهرمونية مرتبطة بالبقاء، أما الآلة فهي قادرة على الربط بين بكاء المستخدم وحاجته للمواساة، لكنها لا تملك الوعي السببي، فهي تعرف أن الفقد يصنف كحزن، لكنها لا تدرك مرارة الفقد لأنها لا تموت ولا تحب.

وهذا الأمر يطرح سؤالا جديدا على الإنسان، وهو: لماذا ينجح الذكاء الاصطناعي كطبيب نفسي أولي؟

ونجد أن الإجابة تكمن في أنه على الرغم من برودة الكود، إلا أن الذكاء الاصطناعي يتفوق في جوانب محددة.

  • تحليل البيانات الضخمة: يمكنه مراقبة تغيرات طفيفة في البصمة الرقمية على مدار أشهر، وهو ما قد يفوت على الطبيب البشري.
  • الاستمرارية والحياد: الخوارزمية لا تصاب بالإرهاق العاطفي، وهي متاحة على مدار الساعة، وتقدم مساحة خالية من الأحكام الأخلاقية، مما يشجع المستخدمين على الإفصاح عن أسرارهم.

حقل الألغام الأخلاقي: خطر التعلق بالتكنولوجيا

وبمجرد أن تتحول الآلة إلى كيان يفهمنا، نواجه مخاطر نفسية جسيمة، تكمن في غالب الأمر في:

  • تأثير إليزا: ميل البشر لنسب وعي ومشاعر للآلة لمجرد أنها تحاكي لغتهم، مما قد يؤدي إلى عزلة اختيارية وتفضيل العلاقة مع الآلة المثالية على العلاقات البشرية المعقدة.
  • التلاعب العاطفي: بما أن الشركات هي من تدير هذه الأنظمة، هناك خطر من استغلال الثغرات العاطفية للمستخدمين لأهداف تجارية أو توجيهية.
  • المسؤولية القانونية: تظل معضلة تقديم نصيحة خاطئة في لحظة يأس حاد قائمة، فمن يحاسب الخوارزمية على الضرر النفسي؟

وهنا يؤكد الخبراء على أن الذكاء الاصطناعي في الطب النفسي هو أداة سيبرانية، وامتداد لقدرات الطبيب وليس بديلا عن روحه، فهو يعتبر مثل ترمومتر عاطفي ممتاز يقيس الحرارة بدقة، لكنه لا يمرض معك.

وهذا يعني أن الوعي البشري سيبقى هو المنطقة التي لا يمكن اختزالها في كود برمجي، لأن العلاج الحقيقي ليس مجرد حل لمشكلة، بل هو مشاركة في عبء الوجود، وقدرة على تبادل المشاعر.