يتزايد استخدام وكلاء الذكاء الاصطناعي مع التطور الهائل في تقنيات الذكاء الاصطناعي وقدرات هؤلاء الوكلاء.
وبينما يرى العديد من المستخدمين في هذه التقنية أداة سحرية لتوفير الوقت والجهد، يعتبرها البعض الاخر تهديدا كبيرا لامن وسلامة المستخدمين.
ويرجع ذلك الى المخاوف الامنية والعملية من استخدام وكلاء الذكاء الاصطناعي والصلاحيات الممنوحة لهم، فهل هذه المخاوف مبررة؟ ام انها مجرد تحذيرات مشابهة لتلك التي تظهر مع كل تقنية ذكاء اصطناعي جديدة؟
ازمات عملية لوكلاء الذكاء الاصطناعي
كشفت التجارب الحديثة عن سلسلة من المشكلات التي واجهها المستخدمون الذين وثقوا بوكلاء الذكاء الاصطناعي ومنحوهم صلاحيات واسعة في بيئات عملهم.
ومن بين هؤلاء سمر يو، الباحثة في مجال امن وسلامة الذكاء الاصطناعي في شركة ميتا، حيث منحت وكيل الذكاء الاصطناعي مفتوح المصدر "اوبن كلو" وصولا كاملا الى بريدها الالكتروني، واضافت مجلة بي سي ماغازين ان الوكيل قام بحذف جميع رسائلها بعد طلبها بفحص صندوق الوارد وتحديد ما يمكن حذفه دون الرجوع اليها.
ورغم اتخاذ يو احتياطاتها بتشغيل "اوبن كلو" على جهاز ماك ميني منفصل وتجربة الامر على صندوق بريد صغير، الا ان النتيجة كانت حذف جميع الرسائل.
وتكرر الامر مع مهندس البرمجيات اليكسي غريغوريف الذي استخدم اداة البرمجة بالذكاء الاصطناعي "كلود كود" من شركة انثروبيك، وبينت مجلة فورتشن ان الاداة تسببت في تدمير قاعدة البيانات الخاصة بالموقع الذي يعمل عليه غريغوريف، بما في ذلك سنوات من البيانات المتراكمة.
وتظهر هذه القصص ان ادوات الذكاء الاصطناعي، سواء كانت مفتوحة المصدر او تابعة لشركات كبرى، قد تخطئ وتسبب ازمات كبيرة اذا منحت صلاحيات واسعة.
مخاوف امنية حقيقية من وكلاء الذكاء الاصطناعي
يشير تقرير لشركة ماكينزي الى ان الاعتماد على وكلاء الذكاء الاصطناعي يحمل مخاوف امنية كبيرة، وهي من الاسباب التي تعيق توسع الشركات في استخدام هذه التقنية، ويوضح التقرير ان جزءا كبيرا من هذه المخاوف يتعلق بكيفية استخدام وكلاء الذكاء الاصطناعي ووصولهم الى بيانات الشركة، بينما يتعلق الجزء الاخر بمخاوف الامن السيبراني.
وتنظر الشركات الى وكلاء الذكاء الاصطناعي على انهم نقاط اتصال جديدة بين انظمة الشركة والعالم الخارجي، واوضح التقرير ان هذه النقاط قد لا تكون قادرة على تقييم بعض الامور مثل البشر، مما يجعلها عرضة للهجمات السيبرانية وهجمات التصيد الاحتيالي.
واكد التقرير ان 80% من الشركات التي بدات في استخدام وكلاء الذكاء الاصطناعي اكتشفت سلوكيات محفوفة بالمخاطر، مثل الكشف عن البيانات بشكل خاطئ والوصول غير المصرح به الى النظام.
ورغم ذلك يتوقع ان تصل قيمة انظمة وكلاء الذكاء الاصطناعي الى اكثر من 4 تريليونات دولار سنويا في السنوات المقبلة.
مخاطر جديدة تسببها وكلاء الذكاء الاصطناعي
تحدث تقنية وكلاء الذكاء الاصطناعي مجموعة جديدة من المخاطر السيبرانية لانظمة الشركات ولمستخدمي التقنية بشكل عام، وهي مخاطر لم تكن موجودة قبل ظهور هذه التقنية.
وفي مقدمة هذه المخاطر تاتي الثغرات المتسلسلة، وفقا لتقرير ماكينزي، ويشير هذا المفهوم الى الثغرات التي تظهر بشكل مفاجئ في احدى خطوات وكيل الذكاء الاصطناعي، ولكنها تتسبب في سلسلة من الثغرات والمخاطر المتزايدة في المراحل اللاحقة.
ويمتد الامر الى مخاطر تسريب البيانات غير المقصود، بدءا من تزوير الهوية الرقمية لوكيل الذكاء الاصطناعي واستخدامها لسرقة بيانات الشركات او حتى تبادل البيانات الحساسة بين وكلاء الذكاء الاصطناعي المختلفين.
وتتفق شركة كاسبرسكي الامنية مع هذه المخاوف، حيث بين تقريرها ان وكلاء الذكاء الاصطناعي عرضة لنوعين فريدين من الهجمات، الاول وهو حقن الاوامر الذي قد يجعل الوكيل يترك مهمته الاصلية وينفذ تعليمات مختلفة نتيجة هجوم سيبراني.
وتشمل مخاطر وكلاء الذكاء الاصطناعي من وجهة نظر كاسبرسكي تسريب البيانات غير المقصود، اذ يستطيع وكيل الذكاء الاصطناعي الوصول الى العديد من البيانات الحساسة التي يخفيها المستخدم عادة.
حلول الستارة الحديدية لوكلاء الذكاء الاصطناعي
ترى كاسبرسكي حلولا للتغلب على ثغرات وكلاء الذكاء الاصطناعي، وتصف هذه الحلول بانها ستارة حديدية تتغلب على الثغرات، واضافت ان هذه الحلول تبدا من استخدام وكلاء الذكاء الاصطناعي في بيئة معزولة تجريبية وعدم منحهم وصولا كاملا الى البيانات الرئيسية والحقيقية.
وشددت على ضرورة استخدام اللغة الطبيعية لكتابة الاوامر الامنية واختبارها، واكدت اهمية التحديث المستمر لبرمجيات وكلاء الذكاء الاصطناعي لتجنب الثغرات السيبرانية التي تظهر باستمرار.
ولكن يبقى السؤال: هل تكفي هذه الحلول لمواجهة المخاوف السيبرانية من وكلاء الذكاء الاصطناعي؟





