في عصرٍ أصبحت فيه التكنولوجيا محور الحياة اليومية، تحوّل الفضاء الرقمي إلى بيئة أساسية لنمو الأطفال وتفاعلهم الاجتماعي والتعليمي. غير أنّ هذا الفضاء المفتوح لا يخلو من مخاطر جدية تتعلق بالعنف الإلكتروني، والتنمر، والاستغلال الجنسي، والمحتوى غير الأخلاقي، ما يطرح تساؤلًا جوهريًا: من يتحمّل المسؤولية القانونية عن حماية الطفل رقميًا؟ هل هو المستخدم الذي ينشر المحتوى، أم المنصة التي تسمح بانتشاره؟
يُظهر الإطار التشريعي الأردني سعيًا جادًا لمواكبة التحولات الرقمية، إذ نصّ قانون حقوق الطفل لسنة 2022 على حق الطفل في الحماية من جميع أشكال الاستغلال، بما في ذلك الرقمي، وألزم أولياء الأمور والمؤسسات التعليمية بتوفير بيئة رقمية آمنة. إلا أنّ القانون لم يُحدّد بدقة مفهوم «المحتوى الضار»، ما يترك مساحة للتأويل عند التطبيق، كما أنّ المادة 12 التي أوصت بمنع وصول الطفل إلى المحتوى غير المناسب لم تضع آليات رقابية رقمية واضحة.
أما قانون الجرائم الإلكترونية رقم 17 لسنة 2023، فقد أرسى أساسًا مهمًا للحماية القانونية، فنصّت المادة 7 على تجريم نشر أو التحريض على مواد تهدد سلامة الأطفال النفسية أو الجسدية، بينما عالجت المادة 10 قضايا الاستدراج والاستغلال عبر الوسائط الرقمية. غير أنّ القانون ركّز على ملاحقة الأفراد أكثر من المنصات، دون وضع تعريف محدد لمسؤولية الأخيرة أو التزامها بإزالة المحتوى الضار فور الإخطار، كما هو معمول به في التجارب المقارنة.
ففي الاتحاد الأوروبي، رسّخ قانون الخدمات الرقمية لعام 2022 (DSA) مبدأ «الإخطار والإزالة»، ملزمًا المنصات الكبرى بحذف المحتوى غير القانوني فور التبليغ، مع فرض معايير صارمة لحماية القُصّر من التصميمات التي تشجّع الإدمان. وفي المقابل، تمنح المادة 230 من قانون الاتصالات الأمريكي لعام 1996 المنصات حصانة واسعة من المسؤولية عن محتوى المستخدمين، ما لم تكن متورطة في إنتاجه أو تعديله. أما أستراليا وفرنسا فقد تبنتا نهجًا وقائيًا يلزم المنصات بالتحقق من عمر المستخدمين وفرض قيود عمرية صارمة على الاستخدام، بينما اتجهت دول عربية مثل الإمارات والسعودية إلى الرقابة الوقائية والتصفية المسبقة للمحتوى، في حين حظرت دول أخرى مثل قطر وسلطنة عمان بعض التطبيقات بعد ثبوت ضررها على الأطفال.
وعلى الصعيد الدولي، شكّل قرار مجلس حقوق الإنسان الصادر في 8 تموز 2025 محطة مهمة في إرساء التزام عالمي بحماية الأطفال في الفضاء الرقمي، مستندًا إلى مبادرة المملكة العربية السعودية في هذا المجال، وداعيًا الدول إلى تطوير أطر تشريعية موحّدة، وتبادل الخبرات في الرصد والمساءلة الرقمية.
أما في الأردن، ورغم الجهود الملموسة للمؤسسات الوطنية، ما تزال آليات الحماية بحاجة إلى تطوير مؤسسي منسق. فقد برز المركز الوطني للأمن السيبراني كجهة رئيسية في التعامل مع الحوادث الرقمية، إذ تعامل عام 2024 مع أكثر من 6,700 حادثة سيبرانية، وأطلق حملات توعية متخصصة، غير أن تركيزه لا يزال عامًا ولا يتناول حماية الطفل بوصفها محورًا مستقلاً. كما قدّم المجلس الوطني لشؤون الأسرة دراسات نوعية حول السلامة الرقمية للأطفال، أظهرت ارتفاع نسب تعرضهم للتنمر والاستغلال عبر الإنترنت، فيما تلعب منظمات المجتمع المدني دورًا تكامليًا في حملات التوعية، لكنها تفتقر إلى مظلة وطنية جامعة.
ويُلاحظ أن الأردن يفتقر حتى الآن إلى وحدة وطنية مختصة برصد المحتوى الموجه للأطفال أو خوارزميات وطنية ترصد الانتهاكات الرقمية بحقهم، كما لم تُنشأ «نيابة رقمية متخصصة» بقضايا القُصّر، وهو ما يحدّ من فاعلية الملاحقة القضائية في هذا المجال.
ومن هنا، تبرز الحاجة إلى إطار وطني متكامل للحماية الرقمية يوازن بين القانون والتقنية والثقافة، ويحوّل الجهود المتفرقة إلى منظومة مؤسسية شاملة. هذا الإطار يمكن أن يقوم على صياغة مدوّنة سلوك رقمية وطنية تُلزم المنصات بالتعاون مع الجهات الرقابية في إزالة المحتوى الضار بسرعة دون تقييد التعبير، وإنشاء مرصد وطني للمحتوى الرقمي يعتمد معايير دينية وأخلاقية وثقافية واضحة ويعمل بشراكة شفافة بين المؤسسات الرسمية والمجتمع المدني. كما ينبغي دمج التربية الرقمية في المناهج التعليمية لترسيخ مهارات التعامل الآمن مع الإنترنت والوعي بالخصوصية منذ الصغر، إلى جانب تبني سياسة التصنيف العمري للمحتوى على غرار ما هو معمول به في الإعلام المرئي.
بهذه الخطوات، يمكن للأردن أن يبلور نموذجًا وطنيًا متوازنًا يجمع بين صرامة التشريع ومرونة التنفيذ، ويجعل حماية الطفل الرقمية مسؤولية مشتركة بين الدولة والمنصة والأسرة والمدرسة. فالقانون مهما بلغت صرامته لا يكفي وحده إن لم يُترجم إلى وعي رقمي وثقافة حماية وقائية تُحصّن الأجيال دون أن تعزلها عن العالم.