هشاشة برمجيات كشف النصوص بالذكاء الاصطناعي


يتسع نطاق الجدل حول أدوات كشف النصوص بواسطة الذكاء الاصطناعي، بالتحاق كتّاب وباحثين باحتجاجات الطلاب والمهنيين والإعلاميين. من هؤلاء، الكاتبة الأمريكية جانيل شين، مؤلفة «أنت تشبه شيئا وأنا أحبك»، التي فوجئت بأنظمة كشف تصنف نصوصا كتبتها بيدها على أنها من تأليف الذكاء الاصطناعي. معاناة شين وهؤلاء جميعا ليست استثناء، بل انعكاسٌ لخللٍ منهجي أكّدته دراسات حديثة، تُوثّق ارتفاع معدلات النتائج الإيجابية الخاطئة ووجود تحيّز فيها. تثير هذه الأدلة العلمية علاماتِ استفهامٍ كبرى حول موثوقية هذه البرامج، وجدوى الاستمرار في استخدامها في ضوء إخفاقها المزدوج: تقنيا وأخلاقيا.

قراءة في نتائج دراسات ميريلاند والسلطان قابوس
تكشف الأبحاث الحديثة أن برامج كشف الكتابة بالذكاء الاصطناعي أقل موثوقية بكثير مما هو شائع. ففي دراسة أكاديمية بعنوان «شبه ذكاء اصطناعي، شبه بشري: تحدي كشف الكتابة المصقولة بالذكاء الاصطناعي»، عرض الباحثان شوميك ساها وسهيل فيزي من جامعة ميريلاند نتائج صادمة، جاء فيها: «تُظهر هذه الأنظمة معدلات إنذار خاطئ مرتفعة ومثيرة للقلق، إذ غالبا ما تُصنّف النصوص المصقولة صقلا طفيفا جدا، على أنها مُولَّدة بالذكاء الاصطناعي. فالصقل البسيط باستخدام GPT-4o قد يُؤدي إلى معدلات كشف تتراوح بين 10% و75%، حسب نوع النظام».
تعزّز هذه النتائجَ دراسةٌ أخرى أجراها باحثون من جامعة السلطان قابوس (محمد حضرة، كارلين كامبريدج، مصطفى مصباح) عام 2026، إذ قدّمت بيانات ملموسة حول محدودية موثوقية هذه الأنظمة، مسجّلة معدلات دقة إجمالية بلغت 69% و61% فقط، مع انخفاض الأداء على النصوص الهجينة (البشرية ـ الآلية) إلى ما يقارب الصفر. كما كشفت الدراسة عن تحيّز واضح، إذ انخفضت دقة تحديد هوية المؤلفين في النصوص العلمية بمقدار 28 ـ 38 نقطة مئوية مقارنة بالنصوص البشرية، ما يجعل هذه الأدوات غير موثوقة، بل وغير مناسبة أساسا لتحديد الهوية التأليفية بدقة.

عدم اتساق أدوات كشف الذكاء الاصطناعي

إلى جانب عدم الموثوقية، يُضعف عدم الاتساق مصداقية كاشفات النصوص العاملة بالذكاء الاصطناعي. فحسب الباحثين ساها وفيزي، تخضع موثوقية هذه الأدوات لنموذج اللغة المستخدم في التحسين؛ إذ تُصنَّف النصوص المُعدّلة بنماذج أصغر أو أقدم على أنها مولّدة آليا بمعدلات أعلى، مقارنة بالنصوص المحسّنة عبر أنظمة أحدث. فعلى سبيل المثال، صُنّف نحو نصف المقاطع المعدّلة باستخدام برنامج لاما–2 على أنها مولّدة بالذكاء الاصطناعي، مقابل نحو ربع المقاطع المحسّنة بنموذج ديب سيك. وتختلف الدقة أيضا تبعا لمجال الكتابة؛ فالمحتوى الحواري أكثر عرضة للتصنيف الخاطئ، والكتابة الأكاديمية تبدو أكثر مقاومة نسبيا. وفي دراسة أخرى بعنوان «هل تعمل كاشفات الذكاء الاصطناعي بكفاءة كافية للوثوق بها؟» أجراها برايان جاباريان وأليكس إيماس من كلية بوث للأعمال في جامعة شيكاغو (2025)، تبيّن أن دقة الكشف تتباين وفق الأداة، وطول النص، ونموذج التوليد، وعتبة القرار. وخلصت الدراسة إلى أن أداء الأدوات الرائدة مثل «جي بي تي زيرو» و»أوريجيناليتي.آي» و»بانغرام» يختلف بشكل واضح حيث وصلت نسبة السلبية الخاطئة في أوريجيناليتي. آي إلى حد 40%، ولم تتجاوز 4% لدى بانغرام. يكشف هذا التباين أن الموثوقية تخضع للأداة أكثر من النص نفسه، وهو ما يثبت غياب معيار موضوعي موحد.

فشل في التمييز بين النصوص الأكاديمية البشرية والمولّدة

ويُقدّم بحث نُشر عام 2025 في مجلة «أكتا نيوروكيرورجيكا» دليلا إضافيا على محدودية أدوات كشف النصوص المُولّدة بالذكاء الاصطناعي. فقد قيّم الباحثون قدرة هذه الأدوات على التمييز بين النثر الأكاديمي البشري والنصوص العلمية المنتَجة آليا، عبر تحليل ألف نص أكاديمي: 250 مقالا موثقا من تأليف بشري و750 مقالا مُولّدا بالذكاء الاصطناعي. أظهر التحليل محدودية هذه الأدوات وارتفاع معدلات النتائج الإيجابية الخاطئة، حيث صُنّفت نسبة كبيرة من المقالات البشرية خطأ على أنها مُنتَجة بالذكاء الاصطناعي؛ بل إن إحدى الأدوات نسبت 30.4% من هذه المقالات البشرية إلى الذكاء الاصطناعي!
كما كشفت الدراسة عن وجود تباين كبير بين أدوات الكشف نفسها، إذ تراوحت تقديرات احتمال الذكاء الاصطناعي للنصوص البشرية بين 5.9% و36.9%، في حين سجّلت النصوص المُولّدة آليا درجات مرتفعة وصلت إلى 80–99% تبعا للأداة المستخدمة. يشير ذلك إلى أن تصميم نظام الكشف ومعاييره هو العامل الرئيس في تحديد النتائج، وليس هوية مؤلف النص. وأوضحت الدراسة أيضا أن الملخصات المُنتجة بالذكاء الاصطناعي اجتازت اختبارات كشف الانتحال بدرجات عالية، ما يدل على أن الكتابة العلمية المحكمة البناء، قادرة على تجاوز أنظمة الكشف بسهولة. تؤكد هذه النتائج مجتمعة أن الوسائل التقنية الحالية لا تزال عاجزة عن التمييز الدقيق بين النص البشري والنص المُولّد آليا.

التحيز المنهجي في صميم أنظمة كشف الذكاء الاصطناعي

لا تقتصر عيوب أنظمة كشف نصوص الذكاء الاصطناعي على الجوانب التقنية، بل تشمل أيضا جوانب منهجية وتنظيمية، مُبرِزة خللا أعمق في تصميمها وتوظيفها داخل المؤسسات. فقد كشفت دراسة نُشرت عام 2025 في مجلة «إنفورميشن» أن قصور أنظمة كشف كتابات الذكاء الاصطناعي يتجاوز حدود الأخطاء التقنية المعتادة، ليعكس تحيزا منهجيا أعمق في طريقة بناء هذه الأدوات وتوظيفها داخل المؤسسات التعليمية. فالدراسات التي شملها البحث تُظهر أن أدوات الكشف واسعة الاستخدام، مثل «تيرنيتن إيه آي» و«جي بي تي زيرو» و«كوبي ليكس»، تُفرز نتائج متناقضة ونسبا لافتة من الإيجابيات الكاذبة، خصوصا عند التعامل مع نماذج لغوية متقدمة. ويُعزى هذا التفاوت إلى غياب الشفافية بشأن آليات اتخاذ القرار، وعدم وضوح عتبات الترجيح، والتأثير غير المفهوم للفروق اللغوية في تشكيل النتائج.
ولا تقف المشكلة عند حدود الأداء التقني. فالاعتماد المؤسسي المتزايد على أنظمة الكشف في اتخاذ قرارات أكاديمية حساسة يجعل النتائج الاحتمالية مصدرا للتمييز غير المقصود، خاصة بالنسبة للطلاب متعددي اللغات، أو أصحاب الأساليب الكتابية غير النمطية. ومع أن هذه الأنظمة تقوم على تقديرات احتمالية بالأساس، فإن نتائجها كثيرا ما تُعامل على أنها الحقيقة، ما يفتح الباب أمام أحكام غير محايدة وعواقب قد تمس العدالة الأكاديمية. وتشير الدراسة أيضا إلى ثغرات في السياسات المؤسسية، وتفاوت في تطبيق اللوائح، فضلا عن نقص في فهم إمكانات أدوات الكشف وحدودها. تُظهر هذه العناصر مجتمعة أن المشكلة ليست في دقة الأداة وحدها، بل في كيفية قراءة النتائج وإدراجها في الممارسات التعليمية. يتّضح من ذلك أنّ المعضلةَ الجوهرية في أنظمة كشف الذكاء الاصطناعي مسألةٌ منهجية متشابكة، تنبع من القيود الخوارزمية والاعتبارات الأخلاقية والبنى المؤسسية والسياقات الاجتماعية التي تعمل فيها هذه التقنيات.

ضرر واسع النطاق وانهيار الثقة المؤسسية

إلى جانب هذه العيوب، تُظهر البيانات أن أنظمة كشف النصوص، تُحدث أضرارا بالغة، لاسيما بالفئات الأكثر ضعفا في الوسط الأكاديمي، وفي مقدمتهم الطلاب غير الناطقين بالإنكليزية. فقد أبرزت دراسات أجرتها جامعتا ستانفورد وأريزونا، أن هذه الأنظمة ترتكب أخطاء منهجية خطيرة؛ إذ صنّفت 61.22% من مقالات اختبار «التوفل»، التي كتبها متحدثون غير أصليين على أنها منتَجة بالذكاء الاصطناعي، ما يعكس تحيزا لافتا ضد أنماط الكتابة غير المعيارية. يُحدث ذلك تأثيرا بالغا في نفوس الطلاب المتهمين زورا. تراهم يعانون من نوبات هلع واكتئاب واضطرابات تستدعي تدخلا. ويُساهم أيضا في تفاقم أزمة اللامساواة التعليمية لدى الطلاب الدوليين، الذين يواجهون أصلا حواجز لغوية وثقافية، وضغوطا مالية المالية وقانونية نتيجة الاتهامات الباطلة.
وعلى المستوى الكمي، فإن حجم التصنيف الخاطئ كبير، فحتى مع افتراض معدل إنذارات كاذبة لا يتجاوز 1% ـ وهو أقل من المعدلات الفعلية ـ قد يؤدي ذلك إلى اتهام أكثر من 223.500 طالب جامعي أمريكي سنويا نتيجة استخدام تقنيات خاطئة. ومع معدلات الخطأ المرتفعة التي تصل أحيانا إلى أكثر من 60%، يُرجَّح أن يكون العدد الحقيقي أكبر بكثير، مما يستدعي إعادة تقييم جادة لاستخدام هذه الأدوات في المؤسسات التعليمية.

حاجةٌ مُلحة إلى تجاوز كاشفات الذكاء الاصطناعي

لم تكن التحذيرات التي أطلقها الطلاب والمهنيون والمؤلفون عن كاشفات الذكاء الاصطناعي، مجرد مخاوف نظرية، أو إنذارات عابرة، بل إشارات مبكرة إلى مشكلة عميقة: عجز بنيوي في هذه الأنظمة يجعلها غير قادرة على التمييز الدقيق بين الإبداع البشري والتوليد الآلي. واليوم، تؤكد الدراسات الحديثة هذا القصور بأدلة دامغة، إذ تكشف عن تناقضات صارخة وانحيازات مدمجة في خوارزميات هذه الكاشفات. تتجلى الآثار السلبية لدى الطلاب في هدر فرص أكاديمية ومهنية، فضلا عن تدهور الصحة النفسية. ومع تراكم هذه الشهادات والأدلة، يحق لنا التساؤل: كيف للمؤسسات أن تظل متمسكة بأدوات تثبت قصورها؟ لقد سبقت جامعات مرموقة غيرها في استخلاص الدروس؛ فجامعات كورنيل وفاندربيلت وبيتسبرغ وآيوا، لم تتردد في إيقاف هذه الأنظمة بالكامل، مدركة أن المخاطر والعيوب تفوق المزايا والفوائد.
إن التخلي عن كاشفات الذكاء الاصطناعي لم يعد مجرد قرار إداري، وإنما ضرورة واختبارا حقيقيا لالتزام المؤسسات التعليمية بقيمها. فالإصرار على استخدامها يعني السماح لآلات غير موثوقة بإصدار أحكام على صحة الإبداع البشري، ومعاملة الإنسان وفق منطق جائر: «المتهم مذنب حتى تثبت براءته». ويعني أيضا إلحاق مزيد من الأذى بالطلاب والمهنيين والمؤلفين، وهو أذى لا مبرر له، والبشرية في غنى عنه، لتوافر وسائل أخرى لتمييز النصوص غير الأصلية، وضمان الجوة وحفظ الإبداع، يمكننا أن نتناولها في تحقيقات مقبلة.

كاتب جزائري



Source link

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *