تمكنت تقنية التزييف العميق من تقويض الثقة في كل ما نراه ونسمعه، إذ لم تعد الحواس البشرية كافية للتحقق من صحة المعلومات المتداولة.
وكشفت هذه التقنية عن الوجه الآخر للذكاء الاصطناعي، حيث ظهرت ما يسمى بـ"صيدليات التزييف العميق" الرقمية، التي تتيح أدوات تزييف جاهزة للاستخدام حتى لمن لا يملكون خبرة برمجية، الامر الذي ساهم في ظهور جيل جديد من عمليات الاحتيال القائمة على نسخ مزيفة من الأصوات والوجوه.
صيدليات التزييف العميق
وبينت الدراسات أن تقنية التزييف العميق بدأت كتجربة تعتمد على الشبكات العصبية التنافسية، لكنها سرعان ما تطورت لتصبح صناعة متكاملة، مما نقلنا من عصر صناعة المحتوى إلى عصر تزييف الواقع، حيث يكفي بضع ثوان من صوت شخص ما لتدريب نموذج ذكاء اصطناعي قادر على تقليد النبرة والإيقاع واللهجة بدقة، في حين يعتمد تزييف الفيديوهات على لقطات عامة، تجعل حركات العين ورمش الجفون وانعكاس الإضاءة على الجلد تبدو طبيعية تماما.
واضافت التقارير ان أدوات استنساخ الصوت، مثل "إيلفين لابس" و"ريسمبل أيه آي"، أصبحت قادرة على محاكاة المشاعر الإنسانية، بينما تسمح أدوات أخرى، مثل "هايجين" و"راسك أيه آي"، بإنشاء فيديوهات تتحدث بلغات متعددة مع مزامنة دقيقة لحركة الشفاه.
واوضحت التقارير ظهور نماذج لغوية كبيرة مصممة خصيصا لأغراض إجرامية، مثل "وورم جي بي تي" و"كاواي جي بي تي"، مما يمكن المحتالين من صياغة رسائل تصيد عالية التخصيص بلغات متعددة وبسرعة فائقة.
ومع انتشار تقنيات التزييف العميق بأسعار زهيدة عبر الإنترنت المظلم، أكد الخبراء أنه أصبح من السهل إنتاج فيديو مزيف لمدير بنك أو صوت مستنسخ لابنة تطلب المساعدة.
ووفقًا لتقرير مركز شكاوى الجرائم الإلكترونية التابع لـ "مكتب التحقيقات الفيدرالي" (FBI)، تجاوزت الخسائر الناجمة عن الاحتيال المدعوم بالذكاء الاصطناعي نحو 893 مليون دولار في الولايات المتحدة في 2025.
واشار التقرير الى أنه في الربع الأول من 2025، بلغت الخسائر الناتجة عن الاحتيال المعتمد على التزييف العميق أكثر من 200 مليون دولار في أمريكا الشمالية، وشهد عام 2025 زيادة كبيرة في الحالات، حيث شكلت حوادث التزييف العميق نحو 4 من كل 5 حوادث احتيال معتمدة على الذكاء الاصطناعي.
واكدت شركة "مكافي" (McAfee) في تقرير لها، أن الأمريكيين يشاهدون في المتوسط 3 حالات تزييف عميق يوميا، ويعترف واحد من كل 10 بتعرضه لعملية احتيال عبر استنساخ الصوت، كما أن واحدا من كل 4 أمريكيين تلقى مكالمة صوتية مزيفة في العام الماضي، و24% آخرون غير متأكدين من قدرتهم على التمييز.
حين يسرق الذكاء الاصطناعي صوت الأحبة
وبينت الدراسات أن قوة التزييف العميق تكمن في قدرته على اختراق الأصالة المعرفية، حيث أن الدماغ البشري مبرمج للوثوق بنبرة الصوت المألوفة وملامح الوجه المعروفة، خاصة في حالات الطوارئ.
واوضحت الدراسات ان واقعية الصوت المستنسخ تزيل حواجز الشك وتوقف الدفاعات العقلانية عن العمل إذا كان الصوت يبدو مألوفا، ومن خلال عملية تسمى "احتيال الطوارئ العائلية" (Family Emergency Scams)، يتظاهر المحتال بأنه قريب يمر بأزمة طارئة، مثل الاعتقال أو السجن أو حادث سيارة أو حاجة طبية، ويطلب أموالا بشكل عاجل.
واضافت الدراسات ان المحتال يستغل المشاعر ويستخدم تقنيات متطورة لإقناع الضحية التي تتصرف تحت الضغط العاطفي والزمني دون تفكير، ففي إحدى الحالات، تلقت سيدة مكالمة من رقم يشبه رقم ابنتها وسمعت صوتا يبكي يدعي أنه ابنتها ويقول إنها تسببت في حادث سيارة أصابت فيه امرأة حامل، وأنها الآن رهن الاعتقال وتحتاج إلى كفالة.
واشار الخبراء الى ان محتالا آخر انتحل صفة محام وطالبها بمبلغ كبير ككفالة نقدية، وبعد دفعه، اكتشفت السيدة الخدعة وأن ابنتها بخير وأن الصوت مستنسخ بالذكاء الاصطناعي، وتشمل الحالات الأخرى رسائل صوتية تطلب تحويلات عاجلة عبر تطبيقات، مع التركيز على الضغط النفسي.
ويشير استطلاع إلى أن أغلب الناس قد يستجيبون لرسالة صوتية مزيفة من قريب يطلب المال، وخاصة في سيناريوهات الحوادث أو السرقة، ويعد كبار السن هم الأكثر عرضة، حيث تجاوزت خسائرهم من الجرائم الإلكترونية مليارات الدولارات، ومن المتوقع ارتفاعها مع انتشار الذكاء الاصطناعي.
وسجل تقرير "مكتب التحقيقات الفيدرالي" لعام 2025 أكثر من 22 ألف شكوى متعلقة بالذكاء الاصطناعي، بينها ملايين الدولارات من عمليات "احتيال الطوارئ العائلية" التي تستخدم الأصوات المزيفة لعائلات في أزمة.
الشركات في مهب الريح
وأكدت الدراسات أن الهجمات لم تتوقف عند الأفراد، وإنما انتقلت لتهدد عصب الاقتصاد العالمي، ويشمل ذلك الواقعة التي تعرضت لها شركة الهندسة البريطانية العالمية "أروب" (Arup) في هونغ كونغ.
واضافت ان القصة بدأت برسالة بريد إلكتروني من المدير المالي المقيم في لندن يطلب تحويل مالي سري، وهو ما أثار شكوك الموظف في البداية كعملية تصيد تقليدية، ولكن المحتالين كانوا قد أعدوا كمينا بصريا متطورا، حيث دعي الموظف إلى اجتماع فيديو ليجد أمامه المدير المالي وعددا من الزملاء الذين يعرفهم جيدا.
واكدت الدراسات ان الموظف لم يكن يعلم أن جميع الحاضرين في الاجتماع، باستثناءه هو، كانوا نسخا رقمية مولدة عبر التزييف العميق بالاعتماد على فيديوهات سابقة لاجتماعات الشركة، وتحت ضغط الأوامر المباشرة من المدير المالي في الفيديو، نفذ الموظف عمليات التحويل إلى حسابات بنكية مختلفة بقيمة إجمالية كبيرة، ولم تكتشف عملية الاحتيال إلا بعد مدة عندما اتصل الموظف بالمكتب الرئيسي للاستفسار.
وكشفت هذه الحادثة أن الفيديو لم يعد دليلا على الوجود، وعدت مثالا بارزا على كيفية دمج التزييف العميق مع عمليات "اختراق البريد الإلكتروني للعمل" (BEC)، حيث أصبح الاحتيال تجربة بصرية وصوتية متكاملة.
وسجلت حالات مشابهة في شركات أخرى، ويستهدف المحتالون الشركات عبر عمليات احتيال مدعومة بالذكاء الاصطناعي، حيث ينتحلون شخصيات المدراء التنفيذيين من أجل طلب تغيير بيانات الدفع أو إجراء تحويلات سرية.
ويشير تقرير "مكتب التحقيقات الفيدرالي" إلى أن عمليات اختراق البريد الإلكتروني للعمل وحدها تسببت في خسائر كبيرة، مع تزايد استخدام الصوت والفيديو المزيفين، وتجاوزت الخسائر العالمية لعمليات الاحتيال المعتمدة على التزييف العميق مئات الملايين، ومن المتوقع أن يصل الرقم إلى مستويات قياسية بحلول 2027.
سرقة نسختك الرقمية لاستغلالك
اوضح الخبراء انه مع كل فيديو وتسجيل صوتي وصور عالية الدقة تنشرها على منصات التواصل، فإنك تترك بصمة رقمية تمثل مواد خام لتدريب الذكاء الاصطناعي على إنشاء توأم رقمي يقلدك في الصوت والحركات والتعبيرات الوجهية.
واضافوا ان عملية سرقة هويتك تبدأ من خلال جمع البيانات من الحسابات العامة وتزويد نماذج الذكاء الاصطناعي بهذه البيانات لتدريبها على نبرة الصوت وإيماءات الوجه وطريقة الكلام، الأمر الذي يسمح بإنتاج محتوى جديد – صوتي أو مرئي – يبدو حقيقيا.
واكدوا ان المحتالين يستخدمون هذا النموذج في الابتزاز أو طلب قروض باسمك أو الوصول إلى حسابات بنكية إذا كانت أنظمة التحقق الصوتي ضعيفة، مما يعني أن نسختك الرقمية لم تعد ملكك وحدك، وإنما متاحة للبيع والاستغلال في أي وقت.
واشاروا الى انه في بعض الحالات، يستخدم التوأم الرقمي في مكالمات فيديو مزيفة لإقناع زملاء أو شركاء بمعاملات مشبوهة.
دليل البقاء الرقمي
ولمواجهة صيدليات التزييف العميق، نصح الخبراء العائلة باختيار عبارة سرية لا تذكر بشكل علني وطلبها عند ورود أي مكالمة طارئة، مع عدم الوثوق بالصوت أو الصورة وحدهما والتحقق قبل إجراء أي تحويل مالي.
وشددوا على ضرورة تقليل مشاركة البيانات الصوتية والبصرية وجعل حسابات وسائل التواصل خاصة وتجنب نشر الفيديوهات الطويلة أو الرسائل الصوتية الواضحة، مع استخدم فلاتر الخصوصية وأدوات إزالة البيانات من مواقع الوسطاء.
وفيما يتعلق بالشركات، أكد الخبراء أنه يجب التحقق عبر قناة مستقلة تماما من أي طلب مالي غير متوقع بافتراض أن أي طلب هو تهديد محتمل حتى لو كان من داخل الشبكة، وينبغي تدريب الموظفين بانتظام عبر إجراء محاكاة لمكالمات التزييف العميق من أجل أن تعتاد الأذن والعين على اكتشاف الاختلافات الدقيقة في النبرة أو الحركات غير الطبيعية، مع الحد من المحتوى العام للتنفيذيين على الإنترنت ومراقبة الحسابات بحثا عن تسريبات.
كما نصحوا بالاعتماد على تقنيات القياسات الحيوية الصوتية مع كشف الحيوية وأدوات كشف التزييف العميق في مكالمات الفيديو والمصادقة المتعددة العوامل، دون الاعتماد على الصوت أو الفيديو وحدهما للمعاملات الحساسة.
وعلى المستوى العام، أكد الخبراء أنه ينبغي على الشركات التقنية تطوير أدوات كشف جماعية للمحتوى المولد بالذكاء الاصطناعي، فيما تحتاج الحكومات إلى سن قوانين تجرم التزييف العميق وتعتبره نوعا من أنواع انتحال الشخصية، ويفرض قانون الذكاء الاصطناعي في الاتحاد الأوروبي التزامات الشفافية والوسم الإلزامي للمحتوى المزيف، بينما تقدم الولايات المتحدة مشاريع قوانين لمكافحة الاحتيال والمحتوى غير التوافقي.
وختاما، يرى الخبراء أن صيدليات التزييف العميق تهز أسس الثقة في التواصل الرقمي وتجعل من الصعب التمييز بين الحقيقي والمزيف، مما يفتح الباب أمام خسائر مالية وعاطفية تطال العائلات والشركات على حد سواء.
واكدوا انه يمكن تحويل هذه التقنية إلى درع واق عبر التوعية المستمرة والتحقق الدائم والاستثمار في التقنيات الدفاعية والسلوكيات الوقائية، خاصة مع تطور أدوات الكشف عن التزييف العميق بسرعة كبيرة باستخدام الذكاء الاصطناعي نفسه.





