مع توجه العالم نحو استثمارات ضخمة في مراكز البيانات والقدرات الحوسبية، يتبادر سؤال أساسي في مختبرات البحث، هل المشكلة تكمن في حجم النماذج أم في طريقة قراءتها لكلماتنا؟
فخلف بريق الذكاء الاصطناعي، توجد عملية تقنية تعرف باسم "الترميز"، وهي البوابة التي تحول لغة البشر إلى أرقام تفهمها الآلة، واليوم، يقدم مشروع بحثي طموح يحمل اسم "الترميز الدلالي السياقي" (سي إس تي/CST) مقاربة ثورية تنطلق من بنية اللغة العربية لتصحيح مسار كفاءة النماذج اللغوية عالميا.
فجوة المعنى في الترميز التقليدي
لا يقرأ الذكاء الاصطناعي النصوص كما نفعل، بل يجزئها أولا إلى وحدات صغيرة تسمى "رموزا"، وفي الأنظمة الشائعة اليوم، يتم هذا غالبا بأساليب إحصائية صرفة، تبني المفردات على أساس الأنماط الحرفية الأكثر تكرارا، ورغم فعالية هذه المقاربة في الضغط الإحصائي، فإنها لا تضمن توافق الوحدات الناتجة مع حدود المعنى أو الصرف.
وبالنسبة للغة العربية، تصبح المسألة أكثر حساسية، فالكلمة العربية تحمل في بنيتها معلومات مكثفة عن الجذر، والوزن، والزمن، والضمائر، وعندما تتعامل أدوات الترميز الإحصائية مع هذه البنية بوصفها مجرد تتابع حروف، فإنها تنتج تسلسلات أطول وتمثيلات أقل وضوحا من الناحية اللغوية، مما يضطر النموذج لبذل جهد أكبر "لفهم" ما يقرأه.
من عبقرية الصرف إلى "الترميز الدلالي"
انطلقت فكرة مشروع "سي إس تي" من ملاحظة في الصرف العربي، حيث يسمح نظام الجذر والوزن بتمثيل العلاقة بين البنية والمعنى بشكل مباشر، فالجذر "ك-ت-ب"، مثلا، يشير إلى حقل الكتابة، ومنه تتولد كلمات "كاتب، وكتاب، ومكتبة، ومكتوب"، وينطلق المشروع من هذه الملاحظة ليعممها إطار عمل عالميا يهدف إلى تحويل الكلمات في لغات مختلفة إلى وحدات دلالية أكثر انتظاما.
وفي هذا المشروع لا تظل الكلمة مجرد شظية حرفية، بل يتم تمثيلها بوصفها مفهوما دلاليا مرتبطا بدور صرفي أو نحوي، فالفكرة هنا ليست استبدال اللغة بقاموس مصطنع، بل تقديم مدخلات أكثر انتظاما للنموذج، بحيث يصبح جزء من العمل اللغوي منظما قبل بدء التدريب، بدلا من تركه كله للاستنتاج الإحصائي اللاحق.
لغة الأرقام: نتائج تتجاوز التوقعات
واثبتت التجارب التي أجريت على نماذج من طراز "جي بي تي-2" (GPT-2) أن هذه المقاربة ليست مجرد نظرية لغوية، بل تفوق تقني ملموس، ففي اختبارات مضبوطة على اللغة الإنجليزية، خفّض "سي إس تي" مقدار المعلومات اللازمة لتمثيل النص، أو مقياس "البتات لكل حرف" (BPC) بنسبة وصلت إلى 35.5%، كما قلّص طول الجملة بنسبة 30%، مما أدى إلى تسريع زمن التدريب بنسبة 36%.
أما في الاختبارات العربية، فكانت النتائج أكثر إذهالا، حيث سجل "سي إس تي" تحسنا في كفاءة التمثيل بنسبة وصلت إلى 46% مقارنة بالمرمزات التقليدية، وهذه النتائج تقترح قراءة عملية واضحة، كلما أصبحت وحدة الإدخال أكثر قربا من البنية اللغوية، أمكن للنموذج تمثيل الجملة بعدد خطوات أقل وكلفة أقل.
لماذا يعد هذا مهما للمنطقة العربية؟
وتتجاوز الأهمية هنا الأروقة الأكاديمية لتصبح مسألة مالية وتشغيلية، ففي بيئة تستثمر بكثافة في الذكاء الاصطناعي، يعني تقليل طول التسلسل ورفع جودة التمثيل خفض تكلفة التدريب وزيادة سرعة الاستدلال، وهذا الأمر حيوي لقطاعات مثل الخدمات الحكومية، والتعليم، والرعاية الصحية، حيث لا تكون الأولوية دائما لأكبر نموذج ممكن، بل للنموذج الأكثر دقة وامتثالا لغويا وأقل كلفة.
كما ينسجم بناء أدوات تأسيسية تنطلق من العربية والإنجليزية مع التوجه الإقليمي نحو تطوير قدرات محلية أصيلة في الذكاء الاصطناعي، بدلا من الاكتفاء باستهلاك النماذج الجاهزة التي قد لا تراعي خصوصية لغاتنا.
نحو ذكاء اصطناعي "محلي" وعملي
ويعمل المشروع حاليا على تحويل "سي إس تي" من فكرة بحثية إلى أداة عملية، مع التركيز على تشغيل النماذج على الأجهزة المحلية أو داخل المتصفح، والفكرة هي أنه مع تقنيات الضغط والتحسين، قد يساعد مشروع "سي إس تي" على جعل النماذج اللغوية أخف وأكثر قابلية للاستخدام اليومي دون الحاجة لبنية سحابية ثقيلة.
فهذا المشروع يطرح مسارا مختلفا، فبدلا من النظر إلى الأداء بوصفه نتيجة للتوسع في الحوسبة وحده، يركز هذا المسار على جودة التمثيل منذ الخطوة الأولى، وإذا استمرت النتائج في هذا الاتجاه، فقد يصبح هذا التصميم عاملا حاسما في بناء نماذج أكثر كفاءة، وقابلية للتطبيق، واستدامة في منطقتنا والعالم.
كما أن تطوير أدوات تنطلق من خصوصية اللغة العربية، مع قابلية التوسع إلى لغات أخرى، ينسجم مع توجه أوسع نحو بناء قدرات محلية في هذا المجال، بدل الاعتماد الكامل على نماذج مستوردة.
ومع ذلك، لا يزال من المبكر اعتبار "سي إس تي" بديلا نهائيا لأساليب الترميز الحالية، لكنه يقدم مؤشرا قويا على أن تحسين "مدخلات" النموذج قد يكون بنفس أهمية تحسين بنيته أو زيادة حجمه، ومع استمرار التجارب وتوسيع نطاق التطبيق، قد يتحول هذا النهج إلى أحد المسارات الرئيسية في تطوير النماذج اللغوية.
في النهاية، يطرح المشروع سؤالا بسيطا لكنه عميق، ماذا لو لم يكن مفتاح الذكاء الاصطناعي في المزيد من الحوسبة فقط، بل في فهم أفضل للكلمة منذ البداية؟





