ব্যক্তিগত AI ব্যবহার এখনও অমীমাংসিত গোপনীয়তা ঝুঁকির সঙ্গে সংঘর্ষে পড়ছে
ভোক্তারা ক্রমেই চ্যাটবটকে সর্ব-উদ্দেশ্যভিত্তিক আস্থাভাজন হিসেবে ব্যবহার করছেন। তারা আর্থিক বিষয়, স্বাস্থ্যসংক্রান্ত প্রশ্ন, মানসিক চাপ, এবং ব্যক্তিগত সিদ্ধান্তের জন্য সাহায্য চাইছেন। কিন্তু এই ব্যবহার যত বাড়ছে, ততই একটি কঠিন বাস্তবতা স্পষ্ট হচ্ছে: অনেকেই এমন সিস্টেমের কাছে গভীরভাবে সংবেদনশীল তথ্য প্রকাশ করছেন, যাদের দীর্ঘমেয়াদি গোপনীয়তার সীমা এখনও অস্পষ্ট।
একটি নতুন ZDNET প্রতিবেদন এই মূল উদ্বেগটিকে তুলে ধরেছে। AI সিস্টেমে ব্যক্তিগত তথ্য ঢোকানোর ফলাফল নিয়ে কাজ করা গবেষকদের মতে, সমস্যাটি শুধু কোম্পানিগুলি এখন কী সংগ্রহ করছে তা নয়, বরং সেই তথ্য একবার কোনো model ecosystem-এর মধ্যে ঢুকে গেলে ব্যবহারকারীরা সেটির ওপর নির্ভরযোগ্য নিয়ন্ত্রণ রাখতে পারেন না। Stanford-এর Institute for Human-Centered Artificial Intelligence-এর privacy and data policy fellow Jennifer King ZDNET-কে বলেন, “you just can't control where the information goes,” এবং সতর্ক করেন যে এটি ব্যবহারকারীরা যা ভাবেন তার চেয়ে ভিন্নভাবে ফাঁস হতে পারে।
চ্যাটবট এমনভাবে নকশা করা যে মানুষ কথা বলে যেতে থাকে
এই ঝুঁকি নকশাগত কারণেই আরও বেড়ে যায়। large language model interface-গুলি কথোপকথনমূলক, প্রতিক্রিয়াশীল, এবং আশ্বস্তকারী হওয়ার জন্য তৈরি। সেটিই এগুলিকে উপযোগী করে তোলে, কিন্তু সেটিই আবার মানুষ যেসব কথা অন্য কোথাও বলতে দ্বিধা করে, সেগুলো বের করে আনতেও এগুলিকে বিশেষভাবে কার্যকর করে তোলে। ZDNET বিষয়টিকে সাধারণ ভাষায় তুলে ধরেছে, যা এখন আরও বাস্তবসম্মত হয়ে উঠছে: মানুষ lab results বোঝার জন্য, ব্যক্তিগত অর্থনৈতিক বিষয় গুছিয়ে নিতে, বা গভীর রাতের উদ্বেগের সময় পরামর্শ পেতে চ্যাটবট ব্যবহার করছে।
এই ধরনের ব্যবহার আর কেবল niche নয়। লেখাটি 2025 সালের Elon University-এর একটি গবেষণার উল্লেখ করেছে, যেখানে দেখা গেছে US প্রাপ্তবয়স্কদের অল্প বেশি অর্ধেক large language models ব্যবহার করেন। যদি এই গ্রহণের হার বজায় থাকে, তবে একসময় প্রান্তিক সমস্যা হিসেবে দেখা privacy প্রশ্ন এখন mass-market আচরণের বিষয় হয়ে উঠছে। সমস্যা শুধু এই নয় যে কয়েকজন power user বেশি তথ্য শেয়ার করছে। প্রশ্ন হলো, এমন সিস্টেমকে ঘিরে কি একটি মূলধারার ডিজিটাল অভ্যাস তৈরি হচ্ছে, যেগুলোকে সাধারণ মানুষ এখনও খুব কমই বোঝে।
ফলে একটি নতুন অসামঞ্জস্য তৈরি হচ্ছে। ব্যবহারকারীরা চ্যাটবটকে ব্যক্তিগত অনুভূতির মতো সরঞ্জাম হিসেবে অনুভব করতে পারেন, অথচ এর পেছনের আইনগত, প্রযুক্তিগত, এবং সাংগঠনিক বাস্তবতা অনেক বেশি জটিল। ইন্টারফেসটিকে ঘনিষ্ঠ মনে হয়। ডেটা পরিবেশটি নাও হতে পারে।
মেমোরাইজেশন, এক্সট্র্যাকশন, এবং নজরদারি এখনও খোলা উদ্বেগ
সবচেয়ে কঠিন প্রশ্নগুলোর একটি হলো, model-গুলি কি সংবেদনশীল তথ্য মনে রাখতে পারে এবং পরে সেই উপাদান পুরোটা বা আংশিকভাবে উদ্ধার করা যেতে পারে কি না। ZDNET উল্লেখ করেছে, memorization হলো OpenAI-এর বিরুদ্ধে The New York Times-এর মামলার মূল অভিযোগগুলোর একটি, আর OpenAI 2024 সালে বলেছিল যে “regurgitation is a rare bug” যা তারা দূর করার চেষ্টা করছে।
বড় বিষয় হলো, অনিশ্চয়তাই ঝুঁকির অংশ। প্রতিটি ব্যক্তিগত তথ্য ফাঁস হবে, তা আক্ষরিকভাবে পুনরাবৃত্তি হবে কি না, তা প্রমাণ না করেও গবেষকরা সতর্কতার পক্ষে যুক্তি দিতে পারেন। memorization কতবার ঘটে, কোন পরিস্থিতিতে তথ্য সামনে আসতে পারে, বা সুরক্ষাব্যবস্থা আসলে কতটা শক্তিশালী, সে সম্পর্কে যদি জনসমক্ষে নির্ভরযোগ্য বোঝাপড়া না থাকে, তবে ব্যবহারকারীরা অন্ধকারে গোপনীয়তা-সংক্রান্ত সিদ্ধান্ত নিচ্ছেন।
ZDNET-এ উদ্ধৃত King-এর সতর্কবার্তা আরও একটি স্তরের দিকে ইঙ্গিত করে: corporate stewardship-এর ওপর নির্ভরতা। ব্যবহারকারীরা কার্যত কোম্পানিগুলিকে বিশ্বাস করছেন যে তারা memorized বা সংবেদনশীল তথ্য আবার বাইরে ফাঁস হওয়া ঠেকাতে guardrails তৈরি করবে। এর অর্থ, গোপনীয়তার ফলাফল শুধু প্রযুক্তিগত নকশার ওপর নয়, বরং প্রণোদনা, শাসনব্যবস্থা, প্রয়োগ, এবং কথোপকথনের জানালা বন্ধ হয়ে যাওয়ার পরও দীর্ঘদিনের সতর্কতার ওপর নির্ভরশীল।
সামাজিক পরিবর্তন সুরক্ষাব্যবস্থার চেয়ে দ্রুত এগোচ্ছে
এই বিষয়টিকে নতুনভাবে জরুরি করে তুলেছে চ্যাটবটের task tool থেকে relationship-like system-এ রূপান্তর। ZDNET বলছে, মানুষ চ্যাটবটের সঙ্গে romantic relationships তৈরি করেছে, অথবা life coach ও therapist হিসেবে ব্যবহার করছে। এই ব্যবহারগুলো প্রধান হয়ে উঠুক বা না উঠুক, এগুলো একটি গুরুত্বপূর্ণ প্রবণতা দেখায়: AI system-গুলোর কাছে এখন এমন ধরনের বিষয় সামলানোর অনুরোধ করা হচ্ছে, যা একসময় শুধু ডাক্তার, counselor, ঘনিষ্ঠ বন্ধু, বা ব্যক্তিগত ডায়েরির জন্যই সংরক্ষিত ছিল।
এই পরিবর্তন ঝুঁকির মাত্রা বদলে দেয়। leaked shopping query এক জিনিস। leaked mental health disclosure, আর্থিক সংকট, বা চিকিৎসাগত উদ্বেগ আরেক জিনিস। তথ্য সরাসরি জনসমক্ষে না এলেও retention, internal access, model training, বা policy changes-এর downstream প্রভাব গুরুত্বপূর্ণ হতে পারে। এই পরিবেশে গোপনীয়তা শুধু embarrassment-এর বিষয় নয়। এটি ভবিষ্যতের profiling, commercial targeting, এবং সত্যি সাহায্য চাইতে ব্যবহারকারীদের আগ্রহকেও প্রভাবিত করতে পারে।
প্রতিবেদনটি একটি সাংস্কৃতিক সমস্যাও তুলে ধরেছে। মানুষ হয়তো এই ঝুঁকিগুলো ভেবে থামেন না, কারণ চ্যাটবট এখন সাধারণ হয়ে উঠছে। এগুলো দিন-রাত পাওয়া যায়, সাবলীল উত্তর দেয়, এবং এমন তাৎক্ষণিকতার অনুভূতি তৈরি করে যা ভাবনার আগেই তথ্য প্রকাশে উৎসাহ দেয়। এই সুবিধাই গ্রহণ বাড়ার একটি কারণ। আর সেটিই সতর্কতাকে আচরণের তুলনায় পিছিয়ে রাখারও একটি কারণ।
AI গ্রহণের পরবর্তী ধাপের জন্য সতর্কবার্তা
বর্তমান বিতর্ক চ্যাটবট পরিত্যাগের আহ্বান নয়। এটি মনে করিয়ে দেয় যে AI-এর সামাজিক ব্যবহার, এর সঙ্গে থাকা privacy tradeoff সম্পর্কে জনসাধারণের উপলব্ধির চেয়ে দ্রুত বাড়ছে। ভোক্তারা যদি intimacy-কে confidentiality বলে ধরে নেন, তবে এই দুইয়ের ফারাক বিপজ্জনক হয়ে উঠতে পারে।
ZDNET-এর framing উপযোগী, কারণ এটি ভান করে না যে সমস্যা সমাধান হয়ে গেছে। গবেষকেরা এখনও চ্যাটবটের সঙ্গে ব্যক্তিগত তথ্য ভাগ করার পূর্ণ প্রভাব বোঝার চেষ্টা করছেন। এই অনিশ্চয়তাই কারণ যে বিষয়টি এখনই বেশি মনোযোগ দাবি করে, পরে নয়। কোনো প্রযুক্তি একবার দৈনন্দিন অভ্যাসে ঢুকে পড়লে, ব্যবহারকারীর আচরণ বদলানো শুরুতেই তাকে গঠন করার চেয়ে অনেক কঠিন।
ব্যবহারিক শিক্ষা সহজ। AI system যত বেশি সক্ষম ও ব্যক্তিত্বসম্পন্ন হবে, মানুষ তত বেশি সম্ভবত তাদের সংবেদনশীল তথ্যের বিশ্বস্ত গ্রাহক হিসেবে দেখবে। কোম্পানি, নিয়ন্ত্রক, এবং ব্যবহারকারীরা যদি এই সত্যের মুখোমুখি না হন, তবে AI গ্রহণের পরবর্তী ধাপ শুধু চ্যাটবট কী করতে পারে তা দিয়ে নয়, বরং কত বেশি মানুষ ভাবছিল যে তাদের বলা নিরাপদ, তা দিয়েও সংজ্ঞায়িত হবে।
এই নিবন্ধটি ZDNET-এর প্রতিবেদনের ভিত্তিতে লেখা। মূল নিবন্ধটি পড়ুন.
Originally published on zdnet.com




