হুইসেলব্লোয়িং বৈশ্বিক রূপ নিচ্ছে

সাম্প্রতিক সপ্তাহগুলিতে AI শিল্প তার নিজস্ব সারি থেকে একটি ক্রমবর্ধমান প্রকাশ্য অসন্তোষের ঢেউ প্রত্যক্ষ করেছে। OpenAI ও Anthropic সহ বিশ্বের সবচেয়ে বিশিষ্ট AI কোম্পানিগুলোর সাবেক সেফটি কর্মী ও গবেষকরা তাদের নিয়োগকর্তারা কীভাবে সেফটি পরীক্ষা পরিচালনা করেন, মডেল মোতায়েন করেন এবং সম্ভাব্য ঝুঁকি সম্পর্কে অভ্যন্তরীণ সতর্কতায় সাড়া দেন সে সম্পর্কে উদ্বেগ প্রকাশ্যে জানিয়েছেন। এই প্রকাশগুলো AI সেফটি অনুশীলনের পর্যাপ্ততা এবং শিল্পের দ্রুত উন্নয়নের গতি শক্তিশালী সিস্টেম দায়িত্বশীলভাবে মোতায়েন নিশ্চিত করার ক্ষমতাকে ছাড়িয়ে যাচ্ছে কিনা তা নিয়ে তীব্র বিতর্ক উসকে দিয়েছে।

এখন একটি নতুন উদ্যোগ বৈশ্বিক স্কেলে এই ধরনের অভ্যন্তরীণ রিপোর্টিং আনুষ্ঠানিক ও সুরক্ষিত করার চেষ্টা করছে। Psst, একটি ডিজিটাল নিরাপদ রিপোর্টিং প্ল্যাটফর্ম, বিশ্বের যেকোনো প্রান্তের AI কর্মীদের শক্তিশালী হুইসেলব্লোয়ার সুরক্ষা আইনের অভাব রয়েছে এমন এখতিয়ারে থাকলেও একটি সুরক্ষিত চ্যানেলের মাধ্যমে সেফটি উদ্বেগ নথিভুক্ত ও জমা দেওয়ার সুযোগ দেয়। প্ল্যাটফর্মের প্রতিষ্ঠাতা বোর্ড সদস্য, অ্যাটর্নি Mary Inman বলেছেন, লক্ষ্য হলো AI কোম্পানির কর্মীরা যেখানেই থাকুন না কেন, প্রতিশোধের ভয় ছাড়াই সম্ভাব্য ক্ষতি সম্পর্কে কথা বলতে পারেন তা নিশ্চিত করা।

ভূগোল কেন গুরুত্বপূর্ণ

হুইসেলব্লোয়ার সুরক্ষা দেশে দেশে ব্যাপকভাবে পরিবর্তিত হয়। মার্কিন যুক্তরাষ্ট্রে, ফেডারেল ও রাজ্য আইনগুলি অন্যায় রিপোর্টকারী কর্মীদের কিছু সুরক্ষা প্রদান করে, যদিও তাদের কার্যকারিতা ও পরিধি চলমান বিতর্কের বিষয়। ইউরোপীয় ইউনিয়নে, ২০১৯ সালে গৃহীত একটি হুইসেলব্লোয়ার নির্দেশিকা সদস্য রাজ্যগুলোতে সুরক্ষার একটি ভিত্তি প্রদান করে, যদিও বাস্তবায়ন অসম হয়েছে।

কিন্তু AI উন্নয়ন একটি বৈশ্বিক কার্যক্রম। প্রধান AI ল্যাবগুলো ডজনখানেক দেশে গবেষণা অফিস পরিচালনা করে এবং প্রতিভা নিয়োগ করে, যার মধ্যে অনেকেরই ন্যূনতম বা কোনো হুইসেলব্লোয়ার সুরক্ষা আইন নেই। সিঙ্গাপুর, ভারত বা সংযুক্ত আরব আমিরাতের একজন সেফটি গবেষক যদি তার নিয়োগকর্তার কাছে উদ্বেগজনক অনুশীলন আবিষ্কার করেন, তার ক্যারিয়ার ঝুঁকিতে না ফেলে সেই উদ্বেগগুলি জানানোর কোনো আইনি পথ নাও থাকতে পারে।

Psst একটি শাসন সমস্যার প্রযুক্তি-ভিত্তিক সমাধান প্রদান করে এই ফাঁক পূরণ করার জন্য ডিজাইন করা হয়েছে। যেকোনো দেশ থেকে অ্যাক্সেসযোগ্য এনক্রিপ্টেড, বেনামী রিপোর্টিং চ্যানেল অফার করে, প্ল্যাটফর্মটি যেকোনো জাতীয় আইনি কাঠামো থেকে স্বাধীনভাবে পরিচালিত একটি সেফটি নেট তৈরি করার লক্ষ্য রাখে। প্ল্যাটফর্মের মাধ্যমে জমা দেওয়া রিপোর্টগুলো উদ্বেগের প্রকৃতি ও তীব্রতার উপর নির্ভর করে উপযুক্ত নিয়ন্ত্রক সংস্থা, একাডেমিক গবেষক বা জনস্বার্থ সংস্থায় পাঠানো যেতে পারে।

AI সেফটি প্রকাশের ঢেউ

Psst-এর আবির্ভাবের সময়টি তাৎপর্যপূর্ণ। গত বছর শীর্ষ AI কোম্পানিগুলির বর্তমান ও সাবেক কর্মীদের দ্বারা অভূতপূর্ব পরিমাণে প্রকাশ্য প্রকাশ দেখা গেছে। Mrinank Sharma-র Anthropic থেকে প্রস্থান এবং পরবর্তী সেফটি অনুশীলন সম্পর্কে প্রকাশ্য বিবৃতি ব্যাপক মনোযোগ আকর্ষণ করেছিল, যেমনটা একাধিক সাবেক OpenAI কর্মীরাও করেছেন যারা প্রশ্ন তুলেছিলেন কোম্পানির বাণিজ্যিক চাপ তার সেফটি প্রতিশ্রুতির সাথে আপোষ করছে কিনা।

এই প্রকাশগুলো সাধারণত এমন ব্যক্তিদের কাছ থেকে আসে যাদের সাহসিকভাবে কথা বলার ব্যক্তিগত খরচ বহন করার আর্থিক নিরাপত্তা, অভিবাসন মর্যাদা এবং পেশাদার সুনাম রয়েছে। অনুরূপ উদ্বেগ পোষণকারী AI কর্মীদের বিশাল সংখ্যাগরিষ্ঠ এই সুরক্ষাগুলো থেকে বঞ্চিত এবং নীরব থাকেন। Psst-এর তত্ত্ব হলো প্রকাশিত উদ্বেগগুলো একটি হিমশৈলের চূড়া মাত্র এবং একটি সুরক্ষিত রিপোর্টিং প্রক্রিয়া শিল্পজুড়ে সেফটি সমস্যার আরও বিস্তৃত চিত্র উন্মোচন করতে পারে।

যাচাইয়ের চ্যালেঞ্জ

যেকোনো হুইসেলব্লোয়ার প্ল্যাটফর্মের মুখোমুখি একটি মৌলিক চ্যালেঞ্জ হলো যাচাই। বেনামী রিপোর্টগুলো রিপোর্টকারীকে সুরক্ষিত করলেও যাচাই করা কঠিন এবং উড়িয়ে দেওয়া সহজ হতে পারে। সেফটি লঙ্ঘনে অভিযুক্ত কোম্পানিগুলো যুক্তি দিতে পারে যে বেনামী দাবির বিশ্বাসযোগ্যতার অভাব রয়েছে, আবার নামযুক্ত অভিযোগকারীর অনুপস্থিতি নিয়ন্ত্রকদের বা সাংবাদিকদের তদন্ত করা কঠিন করে তোলে।

Psst রিপোর্টারের পরিচয় প্রকাশ না করেই রিপোর্টের বিশ্বাসযোগ্যতা মূল্যায়ন করতে পারে এমন বিশ্বস্ত মধ্যস্থতাকারীদের সাথে সম্পর্ক গড়ে এটি মোকাবেলার চেষ্টা করছে। প্ল্যাটফর্মটি কর্মীদের নথিপত্র জমা দিতেও উৎসাহিত করে — অভ্যন্তরীণ ইমেইল, পরীক্ষার ফলাফল, সভার নোট, নীতিমালার নথি — যা তাদের ব্যক্তিগত সাক্ষ্য নির্বিশেষে তাদের উদ্বেগগুলো সমর্থন করতে পারে।

শিল্প ও নিয়ন্ত্রক প্রতিক্রিয়া

ক্রমবর্ধমান হুইসেলব্লোয়ার আন্দোলনের প্রতি AI কোম্পানিগুলির প্রতিক্রিয়া মিশ্র হয়েছে। কিছু সংস্থা প্রকাশ্যে প্রতিশ্রুতি দিয়েছে যে অভ্যন্তরীণ চ্যানেলের মাধ্যমে সেফটি উদ্বেগ উত্থাপনকারী কর্মীদের সুরক্ষা দেওয়া হবে, অন্যদিকে অন্যরা অ-প্রকাশ চুক্তি এবং অন্যান্য আইনি যন্ত্র ব্যবহার করেছে যা সমালোচকরা বলছেন অভ্যন্তরীণ মতবিরোধের উপর শীতল প্রভাব ফেলে।

নিয়ন্ত্রকরা সতর্কভাবে পর্যবেক্ষণ করছেন। ইউরোপীয় ইউনিয়নের AI আইনে স্বচ্ছতা ও জবাবদিহিতা সম্পর্কিত বিধান রয়েছে যা সেফটি রিপোর্টিংয়ের জন্য আনুষ্ঠানিক চ্যানেল তৈরি করতে পারে। মার্কিন যুক্তরাষ্ট্রে, AI সেফটির উপর কংগ্রেসনাল শুনানি AI শিল্পের জন্য নির্দিষ্ট হুইসেলব্লোয়ার সুরক্ষার প্রয়োজনীয়তা স্পর্শ করেছে, যদিও কোনো ব্যাপক আইন প্রণীত হয়নি।

AI উন্নয়নের জন্য এর অর্থ

নিবেদিত AI হুইসেলব্লোয়ার পরিকাঠামোর উদ্ভব বিমূর্ত দার্শনিক আলোচনা থেকে ব্যবহারিক শাসন প্রশ্নে AI সেফটি বিতর্কের পরিপক্কতাকে প্রতিফলিত করে। AI সিস্টেমগুলো আরও শক্তিশালী হয়ে ওঠার সাথে সাথে এবং গুরুত্বপূর্ণ অবকাঠামো, স্বাস্থ্যসেবা, অর্থায়ন এবং প্রতিরক্ষা অ্যাপ্লিকেশনে আরও গভীরভাবে সমন্বিত হওয়ার সাথে সাথে অপর্যাপ্ত সেফটি অনুশীলনের পরিণতি ক্রমশ গুরুতর হয়ে উঠছে।

Psst এবং অনুরূপ উদ্যোগগুলো এই স্বীকৃতির প্রতিনিধিত্ব করে যে কার্যকর AI শাসন কেবল কোম্পানিগুলোর নিজেদের পুলিশিং বা সরকারগুলির বাইরে থেকে নিয়ন্ত্রণের উপর নির্ভর করতে পারে না। এটির জন্য এমন প্রক্রিয়া প্রয়োজন যা প্রযুক্তির সবচেয়ে কাছের মানুষদের — এই সিস্টেমগুলো তৈরিকারী গবেষক ও প্রকৌশলীদের — নিজেদের ক্যারিয়ার ধ্বংস না করেই সমস্যা দেখলে সতর্কবার্তা দেওয়ার ক্ষমতা দেয়।

এই ধরনের প্ল্যাটফর্মগুলো শিল্পের আচরণকে অর্থপূর্ণভাবে প্রভাবিত করতে পারে কিনা তা দেখার বিষয়। কিন্তু যে যুগে AI উন্নয়নের গতি AI নিয়ন্ত্রণের গতিকে ধারাবাহিকভাবে ছাড়িয়ে যায়, হুইসেলব্লোয়ার প্ল্যাটফর্মগুলো একটি গুরুত্বপূর্ণ প্রাথমিক সতর্কতা ব্যবস্থা হিসেবে কাজ করতে পারে, এমন উদ্বেগগুলো উন্মোচন করে যা অন্যথায় বাস্তব-বিশ্বের ক্ষতি হিসাবে প্রকাশ না পাওয়া পর্যন্ত লুকিয়ে থাকতে পারে।