শিক্ষার্থীরা এক নতুন ধরনের academic integrity বিতর্কে প্রবেশ করছে

generative AI-এর বিস্তার স্কুলগুলোর জন্য একটি স্পষ্ট চ্যালেঞ্জ তৈরি করেছে: শিক্ষার্থীরা যেন chatbot-এর কাছে অ্যাসাইনমেন্ট outsource না করতে পারে, তা কীভাবে আটকানো যাবে? কিন্তু এর পাশাপাশি আরেকটি সমস্যা উপেক্ষা করা এখন আরও কঠিন হয়ে উঠছে। কিছু শিক্ষার্থীর বিরুদ্ধে AI-assisted cheating-এর অভিযোগ উঠছে, যদিও তারা বলছে কাজটি তারাই করেছে, আর নিজেদের নির্দোষ প্রমাণ করা অপ্রত্যাশিতভাবে কঠিন হতে পারে।

এপ্রিল 27-এ প্রকাশিত একটি Mashable রিপোর্ট এই নতুন বাস্তবতাকে এমন বিশেষজ্ঞ পরামর্শের মাধ্যমে তুলে ধরে, যা অভিযোগের মুখে পড়া শিক্ষার্থীদের জন্য। লেখাটির সুর বাস্তবমুখী, কিন্তু এর অন্তর্নিহিত গল্প কেবল প্রক্রিয়াগত নয়, সাংস্কৃতিকও। শিক্ষাপ্রতিষ্ঠানগুলো পুরনো integrity systems-কে নতুন technology পরিবেশে প্রয়োগ করার চেষ্টা করছে, যেখানে authorship যাচাই করা কঠিন, detection tools বিতর্কিত, আর অনেক শিক্ষার্থীই জানে না আসলে cheating কাকে বলে।

প্রমাণের ভার অস্বস্তিকরভাবে সরে গেছে

প্রদত্ত source text-এর সবচেয়ে উল্লেখযোগ্য দিকগুলোর একটি হলো, নির্দোষ শিক্ষার্থীর পক্ষে নিজের নাম পরিষ্কার করা কতটা কঠিন হতে পারে। Mashable এমন experts-দের উদ্ধৃত করেছে, যারা বলেছেন, computer forensics-এর স্তরের মতো অত্যন্ত শক্তিশালী প্রমাণ ছাড়া acquittal প্রায় অসম্ভব হতে পারে। এটি সাধারণ শিক্ষাজীবনের জন্য এক অসাধারণ মানদণ্ড।

ঐতিহ্যগতভাবে plagiarism বিতর্কগুলো copied passages, unauthorized collaboration, বা mismatched sources ঘিরে থাকত। Generative AI এগুলো সবকিছুকেই জটিল করে তোলে। একটি chatbot চাহিদামতো original-looking prose তৈরি করতে পারে। একজন শিক্ষার্থীও স্বাধীনভাবে এমন prose লিখতে পারে, যা instructor-এর কাছে suspiciously polished বা generic মনে হয়। এমন পরিবেশে uncertainty-ই evidence হয়ে ওঠে, আর সেটি বিপজ্জনক পরিবর্তন।

Article-এ University of Texas at Austin-এর Julie Schell-কে উদ্ধৃত করা হয়েছে, যিনি বলেছেন নির্দোষ শিক্ষার্থীরা অভিযোগের মুখে “real bind”-এ পড়ে যায়। এই কথাটি তাৎপর্যপূর্ণ। সমস্যা শুধু শিক্ষার্থীরা cheating করেছে কি না, তা নয়। সমস্যা হলো, uncertainty বেশি আর technology সর্বত্র উপস্থিত থাকলে প্রতিষ্ঠানগুলো কি ন্যায্য investigation standards তৈরি করেছে কি না।