اوبن كلو: الذكاء الاصطناعي يثير مخاوف امنية وتحديات تواجه المؤسسات

اوبن كلو: الذكاء الاصطناعي يثير مخاوف امنية وتحديات تواجه المؤسسات

يثير تشغيل وكيل ذكاء اصطناعي قادر على تنفيذ مهام متكاملة على جهازك توجها نحو مستقبل اكثر اتمتة، لكن مع صعود وكيل الذكاء الاصطناعي المفتوح اوبن كلو بدات هذه الخطوة تثير تساؤلات متزايدة حول المخاطر الامنية وحدود التحكم في هذه الانظمة.

فبينما يرى بعض المطورين في هؤلاء الوكلاء نقلة نوعية في طريقة استخدام الذكاء الاصطناعي، يحذر خبراء الامن السيبراني من ان قدرتها على الوصول الى التطبيقات والملفات والانظمة المحلية قد تفتح الباب امام تحديات تتعلق بحماية البيانات والحوكمة التقنية.

وفي المنطقة العربية، يطرح انتشار هؤلاء الوكلاء تساؤلات حول مدى جاهزية المؤسسات للتعامل مع انظمة تعمل بدرجة عالية من الاستقلالية.

من تجربة مفتوحة الى قلق امني

برز اوبن كلو خلال الاشهر الاخيرة كاحد اكثر المشاريع اثارة للاهتمام في عالم الذكاء الاصطناعي، وبدا المشروع الذي طوره المبرمج النمساوي بيتر شتاينبرغر لتمكين المطورين من انشاء وكلاء يعملون مباشرة على اجهزة المستخدمين، لكنه سرعان ما جذب اهتمام المطورين والجمهور وشركات التكنولوجيا.

واطلق المشروع اول مرة في نوفمبر 2025 باسم كلاود بوت قبل ان يعاد تسميته الى مولت بوت ثم اوبن كلو، وزاد الاهتمام به بعد انتقال مطوره شتاينبرغر للعمل مع اوبن اي اي بقيادة سام التمان، وهو ما اعتبره مراقبون مؤشرا على مرحلة جديدة في تطوير الوكلاء الاذكياء.

لكن هذه القدرة على العمل خارج بيئات السحابة التقليدية اثارت قلقا من وصول هؤلاء الوكلاء الى الملفات والتطبيقات والبيانات المحلية، ما قد يفتح الباب امام مخاطر الخصوصية وتسريب المعلومات الحساسة، اضافة الى الطبيعة الاحتمالية لهذه الانظمة التي تجعل التنبؤ الكامل بسلوكها صعبا.

تحديات دمج وكلاء الذكاء الاصطناعي في المؤسسات

قال جاسم حجي رئيس جمعية الذكاء الاصطناعي ورئيس المجموعة الدولية للذكاء الاصطناعي في البحرين ان التحدي الاكبر عند استخدام وكلاء الذكاء الاصطناعي مثل اوبن كلو داخل المؤسسات يظهر عند ربطها بعدة انظمة وخدمات رقمية في الوقت نفسه مثل البريد الالكتروني والرسائل والمتصفح والملفات وواجهات برمجة التطبيقات.

واضاف ان هذا التكامل قد يفتح الباب امام مخاطر مثل الوصول غير المقيد الى الانظمة الداخلية واحتمال تنفيذ اوامر غير مقصودة نتيجة اخطاء في تفسير التعليمات او ما يعرف بظاهرة هلوسة النماذج، كما تظهر تحديات اخرى مرتبطة بادارة الصلاحيات والهويات الرقمية عند ربط الوكيل بعدة خدمات او قواعد بيانات.

واكد حجي ان هذه التحديات مهمة خاصة في المنطقة العربية حيث لا تزال المؤسسات تطور سياسات الحوكمة الخاصة بالذكاء الاصطناعي.

وبين في حديثه للجزيرة نت ان الشركات تحتاج اعتماد ضوابط تقنية واضحة قبل نشر هذه الانظمة في بيئات العمل الفعلية مثل تشغيل الوكلاء في بيئات اختبار معزولة وتطبيق مبدا اقل صلاحية في الوصول الى الانظمة واستخدام انظمة مراقبة وتسجيل للانشطة.

البيانات الحساسة ومخاطر النماذج الاحتمالية

يلفت حجي الى ان الطبيعة الاحتمالية لانظمة الذكاء الاصطناعي التوليدي قد تزيد من تعقيد ادارة البيانات الحساسة داخل المؤسسات، اذ تعتمد هذه النماذج على اليات احصائية قد تنتج استجابات غير متوقعة، ما قد يؤدي في بعض الحالات الى ادخال بيانات حساسة او استرجاع معلومات غير مقصودة من انظمة داخلية.

ولتقليل المخاطر، ينصح حجي المؤسسات بتطبيق ضوابط مثل تصنيف البيانات قبل استخدامها في الانظمة الذكية واستخدام تقنيات تقليل البيانات او اخفائها اضافة الى تطبيق طبقات تحكم واضحة في الوصول الى البيانات.

المخاطر على الاجهزة الشخصية

لا تقتصر التحديات على المؤسسات، فمع تزايد امكانية تشغيل وكلاء الذكاء الاصطناعي مباشرة على الاجهزة الشخصية قد يواجه المستخدمون مخاطر تتعلق بالخصوصية والامن الرقمي.

ويحذر حجي من ان هؤلاء الوكلاء قد يطلبون صلاحيات للوصول الى الملفات المحلية او البريد الالكتروني او الحسابات السحابية، وهو ما قد يؤدي الى كشف معلومات حساسة اذا لم تدر الاذونات بعناية.

كما يوصي بتفعيل المصادقة متعددة العوامل ومراجعة الاذونات بشكل دوري وتجنب ربط الوكلاء بحسابات تحتوي على بيانات حساسة ما لم يكن ذلك ضروريا.

النماذج المحلية ام العالمية؟

مع توسع استخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، يبرز سؤال حول المسار الذي قد تتبعه الشركات العربية تطوير نماذج داخلية ام الاعتماد على الحلول العالمية؟

وفي هذا السياق، يقول حسام الدين الاسود الرئيس التنفيذي لشركة ناشيونال كوانتوم وخبير تكنولوجيا المعلومات ان القرار يعتمد على طبيعة القطاع وحساسية البيانات.

ويشير الى ان تطوير نماذج داخلية يتيح تدريب الانظمة على السياقات الثقافية واللهجات العربية ويمنح المؤسسات السيادة على البيانات حيث تبقى البيانات الحساسة داخل البنية الداخلية للشركة.

ويرى ان تطوير نموذج داخلي يمنح الشركات سيطرة كاملة على بياناتها، وهو امر مهم للقطاعات الحساسة مثل البنوك والرعاية الصحية.

لكن هذا المسار برأيه يواجه تحديات مثل ندرة الكفاءات المتخصصة في تدريب النماذج اللغوية الكبيرة وصعوبة بناء قواعد بيانات تدريب عربية اضافة الى الحاجة لاستثمارات كبيرة في البنية الحاسوبية خصوصا وحدات معالجة الرسومات ما يعني تكاليف راسمالية مرتفعة.

كما تتحمل المؤسسات مسؤولية حماية النماذج من هجمات مثل تسميم البيانات واستخراج النماذج.

وفي المقابل، توفر النماذج العالمية وصولا سريعا الى قدرات تقنية متقدمة دون بناء بنية تحتية خاصة، لكنها قد تخلق التبعية التقنية وارتفاع تكاليف استخدام واجهات البرمجة مع توسع الاستخدام.

ويرى الاسود ان الخيار الاكثر واقعية هو نهج هجين يجمع بين المسارين قائلا ان التوجه الاذكى هو استخدام النماذج العالمية للمهام العامة مثل التلخيص وصياغة الرسائل مع تخصيص نماذج مفتوحة المصدر مثل لاما او فالكون عبر الضبط الدقيق للتعامل مع البيانات الحساسة.

الاطار التنظيمي

لا تتوقف تحديات وكلاء الذكاء الاصطناعي عند الشركات، بل تمتد الى السياسات العامة والحكومات، ويرى الاسود ان الحكومات في الشرق الاوسط مطالبة بايجاد توازن بين دعم الابتكار وحماية المجتمع، مشيرا الى اهمية الاستثمار في البنية التحتية الرقمية السيادية مثل مراكز البيانات والحوسبة السحابية المحلية لدعم تطوير نماذج ذكاء اصطناعي داخل المنطقة.

كما يدعو الى رقمنة وتنظيم المحتوى العربي الموثوق وتوفير قواعد بيانات مفتوحة للمطورين، بما يساعد على تدريب نماذج اكثر ملاءمة للسياق اللغوي والثقافي في المنطقة.

ويضيف ان التشريعات المستقبلية يجب ان تعالج قضايا مثل توطين البيانات وشفافية استخدام الذكاء الاصطناعي، مع وضع اطر واضحة لما يعرف بـ المسؤولية الخوارزمية لتحديد الجهة المسؤولة عندما تتسبب الانظمة الذكية في اضرار.

وفي نهاية المطاف، يبقى التعامل مع وكلاء الذكاء الاصطناعي مثل اوبن كلو اختبارا لموازنة الابتكار والامان، يتطلب سياسات واضحة وحوكمة دقيقة لضمان استخدام مسؤول وامن لهذه التكنولوجيا.