من الممكن أن يُستخدم الذكاء الاصطناعي للتستر على الفساد مثل أي أداة تقنية قوية، فهو سلاح ذو حدّين، فالأمر يعتمد على من يستخدمه وكيف يُستخدم، ومن الأمثلة والاحتمالات على ذلك؛ التلاعب بالبيانات والتقارير؛ حيث يمكن للجهات الفاسدة أن تستخدم أنظمة الذكاء الاصطناعي لتعديل أو توليد تقارير مالية أو إدارية «مقنعة» تخفي الحقائق أو تبرّر قرارات مشبوهة، وكذلك إخفاء الأدلة الرقمية، عبر خوارزميات تحليل البيانات، فقد يُستخدم الذكاء الاصطناعي لتصفية أو حذف بيانات تكشف تجاوزات، أو لتوليد بيانات مزيفة تُستخدم كغطاء، كما يمكن نشر المعلومات المضللة؛ فيمكن توظيف الذكاء الاصطناعي في إنتاج أخبار أو منشورات مزيفة تهدف إلى تشويه سمعة المبلّغين عن الفساد أو تضليل الرأي العام، وكذلك الأمر بما يتعلق بتحليل المخاطر لتجنّب الكشف؛ فقد تستعمل الجهات الفاسدة أدوات ذكاء اصطناعي لتوقّع كيف ومتى يمكن اكتشافها، وبالتالي تطوير أساليب أكثر خفاءً.
لكن في مقابل ذلك، فيمكن استخدام الذكاء الاصطناعي لمحاربة الفساد أيضًا، من خلال تحليل الصفقات والعقود لكشف الأنماط المشبوهة، أو مراقبة الإنفاق العام في الوقت الحقيقي، أو تعزيز الشفافية عبر البيانات المفتوحة والتحقق الآلي.
إذن، فالمسألة ليست في الذكاء الاصطناعي نفسه، بل في حوكمة استخدامه ووجود رقابة مستقلة تضمن توظيفه في مكافحة الفساد لا تغطيته، فيُعدّ الذكاء الاصطناعي من أبرز أدوات العصر الرقمي التي تمتلك قدرة مزدوجة؛ فهو قادر على تعزيز النزاهة والشفافية من جهة، ويمكن في الوقت ذاته أن يتحول إلى وسيلة للتستر على الفساد من جهة أخرى، فعندما يُستخدم في إطار من الحوكمة الرشيدة، يمكن للذكاء الاصطناعي أن يسهم في كشف أنماط الإنفاق غير المبرر، وتحليل العقود والمشتريات الحكومية لاكتشاف المؤشرات الاحتيالية، مما يعزز الرقابة والمساءلة ويحدّ من الهدر المالي.
لكن الخطر يكمن حين يُستغل الذكاء الاصطناعي من قبل أطراف فاسدة تمتلك السيطرة على البيانات والأنظمة، فتقوم بتوظيفه لتزييف الحقائق أو التلاعب بالمعلومات أو إخفاء الأدلة الرقمية التي تكشف الفساد، كما يمكن استخدام تقنيات الذكاء الاصطناعي في نشر الأخبار المضللة وتشويه سمعة المبلّغين عن الانتهاكات، لذلك، فإن التحدي الحقيقي لا يتمثل في التقنية ذاتها، بل في الإطار التشريعي والرقابي الذي يحكم استخدامها، وفي مدى استقلالية المؤسسات الرقابية القادرة على ضمان أن يبقى الذكاء الاصطناعي أداة للشفافية لا وسيلة للتستر.
ولبيان الحوكمة في مجال ضبط الذكاء الاصطناعي، نقول الحوكمة في مجال الذكاء الاصطناعي تعد من القضايا الجوهرية في العصر الرقمي، إذ تهدف إلى وضع الأطر والقواعد التي تضمن استخدام تقنيات الذكاء الاصطناعي بطريقة مسؤولة، آمنة، وشفافة، مع مراعاة القيم الإنسانية وحقوق الإنسان، حيث أن أهم الجوانب المرتبطة بحوكمة وضبط الذكاء الاصطناعي؛ مفهوم الحوكمة في الذكاء الاصطناعي من ناحية؛ حيث يقصد بها مجموعة السياسات والتشريعات والمبادئ التي تنظم تطوير واستخدام أنظمة الذكاء الاصطناعي بما يحقق التوازن بين الابتكار والمساءلة، حيث تسعى الحوكمة إلى ضمان أن تكون هذه الأنظمة عادلة، خاضعة للرقابة البشرية، وتحترم الخصوصية والكرامة الإنسانية.
ومن ناحية ثانية نتحدث عن أهداف الحوكمة في ضبط الذكاء الاصطناعي؛ ومنا الحد من المخاطر المرتبطة بسوء استخدام الذكاء الاصطناعي، كالتزييف العميق والمراقبة غير المشروعة، وضمان الشفافية في كيفية اتخاذ القرارات الآلية وشرحها للمستخدمين، وحماية البيانات الشخصية من الاستغلال أو التسريب، وتعزيز العدالة وعدم التمييز في مخرجات الأنظمة الذكية، وتحديد المسؤولية القانونية عند حدوث أخطاء أو أضرار ناتجة عن استخدام الذكاء الاصطناعي.
ومن حيث آليات الحوكمة والضبطن فهناك التشريعات والقوانين: سنّ قوانين تنظم تطوير واستخدام الذكاء الاصطناعي، مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act)، وهناك أيضاً الرقابة المؤسسية: إنشاء هيئات وطنية متخصصة لمتابعة الامتثال للمعايير الأخلاقية والتقنية، وكذلك المعايير التقنية والأخلاقية: وضع معايير دولية لتصميم الأنظمة الآمنة والعادلة، بالإضافة إلى المساءلة البشرية: إلزام المؤسسات بوجود مسؤول بشري عن قرارات الأنظمة الذكية، وأخيراً التعاون الدولي، مثل تبادل الخبرات ووضع اتفاقيات دولية لمنع الاستخدامات الضارة أو العسكرية للذكاء الاصطناعي.
ومن حيث التحديات التي تواجه حوكمة الذكاء الاصطناعي؛ فهناك العديد من التحديات مثل؛ سرعة التطور التقني مقابل بطء التشريعات، وصعوبة تحديد المسؤولية القانونية عند الخطأ أو التحيز، وتعدد الجهات الفاعلة (شركات، دول، مطورون أفراد)، الاختلاف الثقافي والقيمي في تحديد ما هو «أخلاقي» أو «مقبول»، الخطر الجيوسياسي في توظيف الذكاء الاصطناعي لأغراض التجسس أو السيطرة.
ولضمان السير نحو حوكمة فعالة للذكاء الاصطناعي، يجب علينا تبني نهج تشاركي يجمع بين الحكومات، القطاع الخاص، الأكاديميين، والمجتمع المدني، وتطوير أطر تقييم أثر الذكاء الاصطناعي قبل طرح أي نظام في السوق، ونشر ثقافة الوعي الرقمي للمستخدمين حول حقوقهم الرقمية، ودعم الشفافية المفتوحة في الأكواد والبيانات المستخدمة.
ومن هنا نخلص إلى إن حوكمة الذكاء الاصطناعي ليست تقييداً للابتكار، بل ضمانة لاستدامته وأخلاقيته. فالتقنيات الذكية يمكن أن تصبح أداة للعدالة والتنمية، أو وسيلة للهيمنة والانتهاك، تبعاً لطريقة ضبطها وتوجيهها. ومن هنا، فإن بناء نظام حوكمة شامل يشكل أحد أهم تحديات القرن الحادي والعشرين.