تزايد الحديث مؤخرا عن المخاطر المحتملة لتقنيات الذكاء الاصطناعي في مختلف المجالات، من الأمن السيبراني إلى سوق العمل، حيث يخشى البعض من استبدال البشر بالآلات الذكية.
إلا أن هناك جانبا اخر من المخاطر غالبا ما يتم تجاهله، وهو قدرة الذكاء الاصطناعي على تطوير فيروسات حيوية وأمراض جديدة لا يستطيع الإنسان مواجهتها بالوسائل التقليدية، وفقا لتقرير نشرته مجلة "نيتشر" العلمية.
وفي حين تبدو الفكرة وكأنها مقتبسة من أفلام الخيال العلمي، حيث تتمرد الآلات على صانعيها وتنتج أمراضا فتاكة، إلا أنها أصبحت أقرب إلى الواقع، كما هو الحال مع العديد من التقنيات التي كانت تبدو بعيدة المنال في الماضي.
وتشير دراسات عديدة إلى أن المخاوف من قدرة الذكاء الاصطناعي على إنتاج أمراض وفيروسات وسموم غير معروفة للإنسان ليست في غير محلها، حيث تمكن الذكاء الاصطناعي الذي طورته معامل "غوغل ديب مايند" من توقع آلية وتركيب البروتينات الحيوية المختلفة، وهو ما أهل الشركة للفوز بجائزة نوبل للكيمياء، ما يثبت قدرة الذكاء الاصطناعي على تحقيق ابتكارات غير مسبوقة في المجالات الطبية والكيميائية.
ابتكار سموم مخروطية غير مسبوقة
ويشير تقرير "نيتشر" إلى نوع من الرخويات البحرية القادرة على إنتاج "سموم مخروطية" متنوعة التركيبات والهياكل، بعضها قاتل للجهاز العصبي ولا يوجد له ترياق، والبعض الآخر يستخدم كمركبات أساسية في الأدوية.
ونظرا لهذه الخطورة، أصبحت الدراسات والأبحاث المتعلقة بالسموم المخروطية محظورة في العديد من الدول، وتخضع لقيود صارمة في دول أخرى.
وعندما أعلن فريق علمي صيني عن تطويره لأداة ذكاء اصطناعي قادرة على تصميم السموم المخروطية، أثار ذلك قلقا واسعا في الأوساط العلمية، ووصفه مسؤول كبير في الحكومة الأمريكية بأنه خطر مباشر على الأمن البيولوجي العالمي.
ويرى العلماء أن المخاطر الناتجة عن مثل هذه الأدوات ضئيلة للغاية نظرا لتعقيد آلية صناعة السموم المخروطية وحاجتها إلى معدات كبيرة ومكلفة، لكن هذا القلق يعكس حجم الخطر الذي قد تحمله هذه التقنية.
وتدفع هذه المخاوف المجتمع الدولي إلى التساؤل عن حجم الفوائد الناتجة عن هذه الأبحاث مقارنة بالأضرار التي قد تلحق بالبشرية.
أسوأ سيناريو
وقال جيمس بلاك، باحث الأمن البيولوجي للذكاء الاصطناعي والباحث الزائر في جامعة جونز هوبكنز، إن هناك قلقين رئيسيين بشأن علاقة الذكاء الاصطناعي بالأسلحة البيولوجية.
واضاف بلاك، ان القلق الاول يتمثل في قدرة الأفراد العاملين في المختبرات المنزلية على تطوير أسلحة بيولوجية بمكونات منزلية، مثل الجمرة الخبيثة، أما القلق الثاني فيتعلق بحجم الضرر الذي قد تحدثه الجهات أو الدول التي تملك موارد أكبر وتستطيع الوصول إلى البرمجيات البيولوجية المخصصة لتصميم الأدوية والبروتينات.
وبين بلومفيلد، أستاذ القانون الذي يدرس الأمن البيولوجي في جامعة فوردهام، أن أدوات الذكاء الاصطناعي الحالية يمكنها التنبؤ بتطور الفيروسات والتلاعب بها لإنتاج أمراض فيروسية جديدة أكثر خطورة دون الحاجة إلى تطوير فيروسات جديدة.
مخاوف نظرية أم أقرب إلى الواقع؟
وفي سبتمبر/أيلول، نشرت مجلة "نيتشر" تقريرا عن نجاح مجموعة من العلماء في بناء أول فيروس في العالم باستخدام الذكاء الاصطناعي، ما يعني أن الذكاء الاصطناعي تدخل بشكل مباشر في تصنيع التركيبة الجينية للفيروس.
واوضح التقرير، ان صناعة التركيبة الجينية النظرية للفيروسات في المختبرات لا تشكل مصدر خوف حقيقي، لكن الخطر الحقيقي هو أن 5% من هذه الفيروسات نجح في إصابة بكتيريا "إي كولاي" معمليا.
وبين التقرير، ان الفيروسات التي أنتجها الذكاء الاصطناعي كانت قادرة على العمل وتحقيق المرجو منها بنسبة 5% قبل ظهور النماذج المتطورة الحديثة.
ودفعت هذه المخاوف مجموعة من العلماء في مراكز بحثية مرموقة للمطالبة بوضع قيود مباشرة على الأبحاث البيولوجية المعززة بالذكاء الاصطناعي وحجب مجموعات البيانات المرتبطة بالأمراض المعدية، حتى لا يستطيع الذكاء الاصطناعي استخدامها لتطوير فيروسات قاتلة، حسب تقرير وكالة "أكسيوس" الإخبارية.
ويؤكد تقرير "أكسيوس" أن هؤلاء العلماء يرون أن الوسيلة الأفضل لحماية البشرية من مخاطر الفيروسات المطورة من قبل الذكاء الاصطناعي هي حجب البيانات الخاصة بالفيروسات القاتلة عنه، لقطع طريق التعلم عليه.
كما يرى بعض العلماء أن الطريقة الأفضل لحماية البشرية من مخاطر الأسلحة البيولوجية المطورة من قبل الذكاء الاصطناعي هي تطوير نماذج ذكاء اصطناعي دفاعية استباقية قادرة على إنتاج أدوات دفاعية تقف أمام أسلحة الذكاء الاصطناعي، وفقا لتقرير "نيتشر" الأخير.
ولكن تظل كل هذه الجهود نظرية وخاضعة لأرباح الشركات الرأسمالية التي تتسابق لتطوير تقنيات الذكاء الاصطناعي، لذلك يظل السؤال الجوهري عالقا دون إجابة: ماذا سنفعل إن طور الذكاء الاصطناعي مرضا لا يمكننا مواجهته؟





