AI-উৎপাদিত যোগাযোগ নিয়ে মানুষের মূল্যায়নে এক প্রকাশ্য বিরোধ

জেনারেটিভ AI যখন দৈনন্দিন লেখালিখিতে ছড়িয়ে পড়ছে, তখন একটি মৌলিক সামাজিক প্রশ্নের উত্তর দেওয়া কঠিন হয়ে যাচ্ছে: কোনো ব্যক্তিগত বার্তা যদি মেশিন লিখে থাকে, মানুষ তখন কীভাবে প্রতিক্রিয়া দেখায়? Fast Company-তে আলোচিত দুটি নতুন পরীক্ষা দেখায়, এর উত্তর অনেকের ধারণার চেয়ে বেশি বিরোধপূর্ণ। মানুষ যখন জানে যে ব্যক্তিগত বার্তাটি AI-উৎপাদিত, তখন তারা সেটিকে কঠোরভাবে শাস্তি দেয়; কিন্তু সাধারণভাবে তারা AI-কে ডিফল্ট সন্দেহের চোখে দেখে না, এমনকি তারা যে লেখা পড়ছে তা কোনো মডেল তৈরি করেছে হলেও.

১৮ থেকে ৮৪ বছর বয়সী ১,৩০০-রও বেশি মার্কিন অংশগ্রহণকারীর ওপর করা এই গবেষণায় দেখা হয়েছে, ইমেল বা টেক্সটের মাধ্যমে পাঠানো ক্ষমাপ্রার্থনার মতো বার্তার ভিত্তিতে প্রাপকরা প্রেরককে কীভাবে বিচার করেন। অংশগ্রহণকারীদের চারটি দলে ভাগ করা হয়েছিল। কেউ বার্তাগুলো কোনো লেখক-সংক্রান্ত তথ্য ছাড়াই দেখেছেন। অন্যদের জানানো হয়েছে, বার্তাগুলো নিশ্চিতভাবেই মানুষ লিখেছে, নিশ্চিতভাবেই AI তৈরি করেছে, অথবা দুইয়ের যেকোনো একটি হতে পারে.

ফলাফলে AI লেখকত্ব প্রকাশের সঙ্গে যুক্ত একটি স্পষ্ট সামাজিক শাস্তি দেখা যায়। মানুষ যখন জানত বার্তাটি AI-উৎপাদিত, তখন তারা প্রেরককে আরও নেতিবাচকভাবে মূল্যায়ন করে, এবং তাকে অলস, অসৎ ও কম পরিশ্রমী বলে বর্ণনা করে। একই লেখা মানুষ লিখেছে বলে বিশ্বাস করলে তারা সেটিকে আন্তরিক, কৃতজ্ঞ এবং মনোযোগী বলে বর্ণনা করেছে.

সবচেয়ে চমকপ্রদ বিষয়: অধিকাংশ মানুষ সন্দেহপ্রবণ নয়

সবচেয়ে আশ্চর্যজনক ফলাফল ছিল না যে প্রকাশিত AI মতামত বদলেছে। বরং, অপ্রকাশিত AI-ও মতামত বদলায়নি। লেখকত্ব সম্পর্কে কোনো তথ্য না পাওয়া অংশগ্রহণকারীরা ঠিক ততটাই ইতিবাচক ধারণা গড়ে তোলেন, যতটা তারা গড়ে তুলেছিলেন যখন স্পষ্টভাবে বলা হয়েছিল যে বার্তাটি মানুষ লিখেছে.

এটি বর্তমান যোগাযোগ পরিবেশে একটি গুরুত্বপূর্ণ অসমতাকে তুলে ধরে। অনেকেই AI ব্যবহারের বিষয়টি দৃশ্যমান হলে শাস্তি দিতে প্রস্তুত, কিন্তু তারা এখনও ব্যক্তিগত লেখাকে মৌলিক সন্দেহের চোখে দেখছে না। দৈনন্দিন জীবনে, হৃদয়গ্রাহী শোনায় এমন বার্তাকেও প্রাপকরা এখনও ব্যক্তির নিজস্ব প্রচেষ্টার ফল বলেই ধরে নিতে পারেন, যদিও AI সিস্টেম বিস্তারিত ও আবেগগতভাবে উপযুক্ত লেখা তৈরি করতে সক্ষম.

গবেষকরা হয়তো আশা করেছিলেন, জেনারেটিভ AI সম্পর্কে ক্রমবর্ধমান জনপরিচিতি মানুষকে আগেই আরও সতর্ক করে তুলছে। কিন্তু ডিফল্ট ধারণা স্পষ্টভাবেই মানবিক রইল। ব্যবহারিক অর্থে, এর মানে AI তার ভূমিকা প্রকাশ না পেলে সামাজিক বিচারকে প্রভাবিত করতে পারে.