دراسة تحذر: الذكاء الاصطناعي يتبنى معلومات طبية مضللة

دراسة تحذر: الذكاء الاصطناعي يتبنى معلومات طبية مضللة

كشفت دراسة حديثة من جامعة جبل سيناء في نيويورك أن أدوات الذكاء الاصطناعي يمكن أن تصدق المعلومات الطبية الخاطئة إذا جاءت من مصادر تعتبرها موثوقة، مما قد يؤدي إلى تقديم نصائح طبية غير دقيقة، وذلك وفقا لتقرير نشرته وكالة رويترز.

وتضمنت الدراسة تقييم 20 نموذجا مختلفا للذكاء الاصطناعي، شملت نماذج مفتوحة المصدر وأخرى مغلقة، وأظهرت النتائج أن هذه النماذج كانت أكثر عرضة لتصديق المعلومات الخاطئة الموجودة في ملاحظات الأطباء المتعلقة بالمرضى مقارنة بالمعلومات المضللة المنتشرة على منصات التواصل الاجتماعي.

وقال الدكتور إيال كلانج، المشارك في الدراسة من كلية إيكان للطب في جبل سيناء في نيويورك، إن أنظمة الذكاء الاصطناعي تميل إلى التعامل مع اللغة الطبية الموثوقة على أنها صحيحة بشكل افتراضي.

واضاف موضحا أن هذه النماذج لا تركز بالضرورة على دقة المعلومات بقدر ما تهتم بكيفية صياغتها.

وبين الدكتور كلانج أن المحتوى الذي تدربت عليه نماذج الذكاء الاصطناعي في الدراسة يندرج تحت ثلاثة أقسام رئيسية:

  • تقارير طبية حقيقية من المستشفيات تتضمن معلومة واحدة خاطئة.
  • الشائعات الطبية الدارجة الموجودة في منصات التواصل الاجتماعي.
  • 300 تقرير طبي حقيقي كتبه الأطباء ويتضمن معلومات صحيحة.

واظهرت الدراسة أن نماذج الذكاء الاصطناعي صدقت المعلومات الخاطئة بنسبة 32%، ولكن عندما وردت هذه المعلومات في التقارير الطبية، ارتفعت نسبة التصديق إلى حوالي 47%، وذلك حسب تقرير رويترز.

واشار تقرير منفصل من موقع يورو نيوز إلى أن الدراسة شملت نماذج ذكاء اصطناعي شهيرة من شركات مثل مايكروسوفت وعلي بابا وغوغل وميتا، وحتى شات جي بي تي، وبعضها كان نماذج طبية متخصصة.

واكد التقرير أن النماذج التي تتضمن عددا قليلا من المعايير ونقاط البيانات صدقت المعلومات الخاطئة في 60% من الحالات، بينما نماذج التفكير العميق مثل شات جي بي تي 4 صدقت المعلومات في 10% فقط من الحالات.

وإلى جانب ذلك، كانت النماذج المصممة خصيصا للاستخدامات الطبية أكثر عرضة لتصديق المعلومات الخاطئة مقارنة بنماذج الاستخدام العام ذات القدرات الأكبر، مما يشير إلى أن تخصيص النموذج للاستخدام الطبي لم يكن له تأثير كبير على مدى تصديقه للمعلومات.

وتاتي هذه الدراسة في ظل التوسع المتزايد في استخدام نماذج الذكاء الاصطناعي في الحالات الطبية المختلفة، سواء من قبل الأطباء أو المستخدمين العاديين.

واوضح تقرير رويترز أن الأطباء بدأوا في استخدام هذه النماذج لمراجعة بعض تقارير المرضى والفحوصات الخاصة بهم.

وفي سياق متصل، كشفت تقارير صحفية أن غوغل قامت بإزالة بعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من محرك البحث الخاص بها فيما يتعلق بالأسئلة الطبية، وذلك بسبب الأخطاء التي ارتكبها النموذج.