يدخل الطلاب نوعًا جديدًا من النزاعات حول النزاهة الأكاديمية
أدى انتشار الذكاء الاصطناعي التوليدي إلى تحدٍّ واضح للمدارس: كيف تمنع الطلاب من إسناد الواجبات إلى روبوتات الدردشة؟ لكن هناك مشكلة موازية أصبح من الصعب تجاهلها. بعض الطلاب يُتهمون بالغش بمساعدة الذكاء الاصطناعي حتى عندما يقولون إنهم أنجزوا العمل بأنفسهم، وقد يكون إثبات البراءة أمرًا صعبًا على نحو غير متوقع.
تقرير لموقع Mashable نُشر في 27 أبريل يلتقط هذا الواقع الجديد من خلال نصائح خبراء موجّهة إلى الطلاب الذين يواجهون اتهامات. نبرة المقال عملية، لكن القصة الكامنة فيه ثقافية بقدر ما هي إجرائية. تحاول المؤسسات التعليمية تطبيق أنظمة نزاهة قديمة على بيئة تقنية جديدة أصبح فيها تحديد المؤلف الحقيقي أصعب، ولا تزال أدوات الكشف مثيرة للجدل، وكثير من الطلاب غير واضحين بشأن ما يُعد غشًا فعلًا.
عبء الإثبات تحوّل بطرق غير مريحة
من أكثر النقاط لفتًا للنظر في النص المصدر المرفق مدى صعوبة تبرئة طالب بريء. وينقل Mashable عن خبراء قولهم إنه من دون دليل مقنع للغاية، قد يصل إلى مستوى الأدلة الجنائية الحاسوبية، يصبح تبرئة المتهم شبه مستحيلة. وهذا معيار مذهل للحياة الأكاديمية العادية.
تقليديًا، كانت نزاعات الانتحال تدور حول المقاطع المنسوخة أو التعاون غير المصرح به أو عدم تطابق المصادر. أما الذكاء الاصطناعي التوليدي فيعقّد كل ذلك. يمكن لروبوت دردشة أن ينتج نصًا يبدو أصليًا عند الطلب. ويمكن للطالب أيضًا أن يكتب بنفسه نصًا يراه الأستاذ مصقولًا أو عامًا بشكل مريب. في مثل هذه البيئة، تصبح حالة عدم اليقين نفسها دليلًا، وهذا تحوّل خطير.
وينقل المقال عن Julie Schell من جامعة تكساس في أوستن وصفها للطلاب الأبرياء بأنهم في “ورطة حقيقية” عندما يُتهمون. هذه الصياغة دالّة. فالمشكلة ليست فقط ما إذا كان الطلاب قد غشّوا، بل ما إذا كانت المؤسسات قد وضعت معايير تحقيق عادلة عندما تكون اليقين منخفضًا والتقنية منتشرة على نطاق واسع.






