অস্টিনের স্কুলবাস-সংক্রান্ত ঘটনাগুলি স্বয়ংক্রিয় শেখার দাবির পরীক্ষা হয়ে উঠেছে
Waymo দীর্ঘদিন ধরে স্বায়ত্তশাসিত চালনার একটি মূল প্রতিশ্রুতি সামনে এনেছে: স্ব-চালিত যানবাহনের একটি ফ্লিট সমষ্টিগত অভিজ্ঞতা থেকে শিখতে পারে, এবং প্রতিটি edge case বা ত্রুটির পর উন্নত হতে পারে। কিন্তু টেক্সাসের অস্টিনে ঘটনার একটি ধারাবাহিকতা দেখাচ্ছে যে বাস্তবে সেই প্রতিশ্রুতি কীভাবে বোঝা উচিত, তা নিয়ে প্রশ্ন রয়েছে।
পাবলিক রেকর্ড এবং ফেডারেল তদন্তের ভিত্তিতে প্রকাশিত প্রতিবেদনের মতে, অস্টিনে Waymo যানবাহনগুলি স্কুলবাসের জন্য থামতে মাসের পর মাস হিমশিম খেয়েছে, যখন লাল আলো জ্বলছিল এবং স্টপ আর্ম প্রসারিত ছিল। Austin Independent School District-এর কর্মকর্তারা অভিযোগ করেছেন যে শিক্ষার্থী ওঠানামার সময় অন্তত 19টি ক্ষেত্রে যানবাহনগুলি অবৈধ ও বিপজ্জনকভাবে বাসগুলোকে অতিক্রম করেছে।
সমস্যাটি এতটাই গুরুতর ছিল যে Waymo ডিসেম্বরের শুরুতে একটি ফেডারেল রিকল জারি করে, যা National Highway Traffic Safety Administration-এ রিপোর্ট করা অন্তত 12টি ঘটনার সঙ্গে যুক্ত ছিল। কোম্পানিটি নিয়ন্ত্রকদের জানিয়েছিল, ওই আচরণ মোকাবিলার জন্য তারা ইতিমধ্যে সফটওয়্যার পরিবর্তন তৈরি করেছে। তবু সমস্যা সঙ্গে সঙ্গে মিলিয়ে যায়নি।
রিকলের পরও ঘটনাগুলি নাকি চলতে থাকে
প্রতিবেদনে উদ্ধৃত নথি দেখায় যে অস্টিনের স্কুল কর্মকর্তারা এবং Waymo সাধারণ ট্রাবলশুটিং-এর সীমা ছাড়িয়ে গিয়েছিল। ডিসেম্বরের মাঝামাঝি, স্কুল জেলা একটি পার্কিং লটে অর্ধদিবসের ডেটা-সংগ্রহ অনুষ্ঠান আয়োজন করে, যেখানে বাস এবং স্টপ-আর্ম সরঞ্জাম জড়ো করা হয়, যাতে Waymo ঝলমলে সতর্কতা ব্যবস্থার আশেপাশে যানবাহনের আচরণ সম্পর্কে অতিরিক্ত তথ্য সংগ্রহ করতে পারে।
এই ধরনের সমন্বয় ইঙ্গিত দেয় যে উভয় পক্ষই বিষয়টিকে প্রযুক্তিগতভাবে সমাধানযোগ্য এবং জরুরি বলে দেখেছিল। স্কুলবাস কঠোর নিরাপত্তা ব্যবস্থার অধীনে চলে, কারণ শিশুরা অনিয়মিতভাবে রাস্তা পার হতে পারে, তাই স্টপ সংকেত মানা বাধ্যতামূলক। ওই প্রেক্ষাপটে বারবার ব্যর্থ হওয়া একটি চালকবিহীন ব্যবস্থা কেবল অপূর্ণ নয়। এটি আইনগত ও জননিরাপত্তার সীমার নিচে কাজ করছে।
এই পর্বটিকে বিশেষভাবে উল্লেখযোগ্য করে তোলে যে রিকল এবং লক্ষ্যভিত্তিক তথ্য-সংগ্রহের পরও নাকি ঘটনাগুলি চলতে থাকে। জানুয়ারির মাঝামাঝি পর্যন্ত, স্কুল জেলা আরও অন্তত চারটি স্কুলবাস-অতিক্রমের ঘটনা রিপোর্ট করেছিল। জেলার পুলিশ বিভাগের এক কর্মকর্তা স্পষ্টভাবে বলেন, মানব লঙ্ঘনকারীরা প্রায়ই একবারের চালান পাওয়ার পর শিখে যায়, কিন্তু স্বয়ংক্রিয় ড্রাইভিং সিস্টেম তার সফটওয়্যার আপডেট বা রিকল পদক্ষেপের মাধ্যমে একইভাবে শিখছে বলে মনে হয়নি।
গভীর প্রশ্ন হলো “শেখা” আসলে কী বোঝায়
স্বায়ত্তশাসিত যানবাহন সংস্থাগুলি প্রায়ই ফ্লিট-স্তরের শেখাকে মানব চালকদের তুলনায় একটি বড় সুবিধা হিসেবে বর্ণনা করে। ধারণাটি আকর্ষণীয়: একটি গাড়ির ভুল তাত্ত্বিকভাবে প্রতিটি গাড়ির জন্য শিক্ষা হয়ে উঠতে পারে। কিন্তু অস্টিনের অভিজ্ঞতা দেখায়, এই প্রক্রিয়া মার্কেটিংয়ের সংক্ষিপ্ত ভাষায় যা বোঝানো হয় তার চেয়ে ধীর, সীমিত বা আরও ভঙ্গুর হতে পারে।
বাস্তব ট্র্যাফিক নানা বিরল সংকেত, পরিবেশ, আলো-পরিস্থিতি, স্থানীয় সরঞ্জামের ভিন্নতা এবং আচরণগত প্রত্যাশার অস্বাভাবিক সমন্বয়ে ভরা। স্কুলবাস একটি বিশেষভাবে সংবেদনশীল উদাহরণ, কারণ এতে আইনি সংকেত, অস্বাভাবিক যানবিন্যাস, এবং উচ্চঝুঁকির রাস্তার ধারের পরিস্থিতি একত্রে থাকে। একটি স্বায়ত্তশাসিত সিস্টেমের শুধু আরও উদাহরণ নয়, বরং সঠিক ধরনের উদাহরণ, সঠিক লেবেল, এবং যথেষ্ট শক্তিশালী মডেল আপডেট প্রয়োজন হতে পারে, যাতে সমস্যা পুরো ফ্লিটে অর্থপূর্ণভাবে সমাধান হয়।
তাত্ত্বিক শেখা এবং কার্যকরী অভিযোজনের মধ্যে এই ফাঁকটাই এখন অস্টিন কেসের কেন্দ্রে রয়েছে। যদি একটি কোম্পানি সমস্যা শনাক্ত করে, রিকল জারি করে, নির্দিষ্ট স্থানীয় ডেটা সংগ্রহ করে, এবং তবু ঘটনা চলতেই থাকে, তাহলে নিয়ন্ত্রক ও সাধারণ মানুষ প্রশ্ন তুলবে যে স্বায়ত্তশাসিত শেখার দাবিগুলি কীভাবে পরিমাপ ও অডিট করা উচিত।
অস্টিনের বাইরেও কেন এটি গুরুত্বপূর্ণ
অস্টিনের ঘটনাগুলি বিস্তৃত স্বয়ংচালিত যান খাতের জন্য অস্বস্তিকর সময়ে এসেছে। রোবোট্যাক্সি নির্মাতারা বাণিজ্যিকভাবে সম্প্রসারণ করছে এবং রাজনৈতিকভাবে দাবি করছে যে তাদের সিস্টেম শেষ পর্যন্ত নিরাপত্তায় মানুষের চেয়ে এগিয়ে যেতে পারে। কিন্তু সেই যুক্তি কেবল গড়-পারফরম্যান্সের ওপর নয়, বিরল ও উচ্চ-পরিণতির পরিস্থিতি সামলানোর ওপরও নির্ভরশীল।
স্কুলবাস-সম্মতি এমনই একটি পরিস্থিতি। এটি জনগণের কাছে স্পষ্ট, কঠোরভাবে নিয়ন্ত্রিত, এবং আবেগঘন কারণ এতে শিশুরা জড়িত। তাই বারবার ব্যর্থতা আস্থার জন্য বিশেষভাবে ক্ষতিকর। এমনকি এই ধরনের ঘটনা মোট চালিত মাইলের একটি ছোট অংশ হলেও, প্রস্তুতি সম্পর্কে জনমতের ক্ষেত্রে এদের ওজন অনেক বেশি।
এই পর্বটি আরও ইঙ্গিত দেয় যে সফটওয়্যার ফিক্স থেকে বাস্তব জগতের সমাধানে যাওয়ার পথ বাইরের লোকেরা যতটা ভাবেন, ততটা তৎক্ষণাৎ নাও হতে পারে। মেশিন লার্নিং সিস্টেম মানুষের মতো “শেখে” না। তারা ইঞ্জিনিয়ারিং পাইপলাইন, যাচাই কাজ, সিমুলেশন, ডিপ্লয়মেন্ট সময়সূচি এবং সুরক্ষা গেটের ওপর নির্ভরশীল। অর্থাৎ ডেটার অস্তিত্ব আর উন্নতির অস্তিত্ব এক নয়।
Waymo-র জন্য, অস্টিন সমস্যা কেবল স্থানীয় অপারেশনাল সমস্যা নয়। এটি পরীক্ষা করছে, পুনরাবৃত্ত edge-case ব্যর্থতা জনসমক্ষে চলতে থাকলে স্কেলযোগ্য শেখা নিয়ে স্বায়ত্তশাসিত চালনার কেন্দ্রীয় বর্ণনা টিকে থাকতে পারে কি না। নিয়ন্ত্রকদের জন্য, এটি মনে করিয়ে দেয় যে রিকল-সংক্রান্ত ভাষা এবং শেখার দাবিকে সাধারণ সফটওয়্যার আপডেট আশ্বাসের চেয়ে বেশি নিবিড়ভাবে পর্যালোচনা করতে হতে পারে।
বিস্তৃত স্বয়ংচালিত বাজার এটি নিবিড়ভাবে দেখবে। যদি স্ব-চালিত সিস্টেম স্থায়ী জনআস্থা অর্জন করতে চায়, তাহলে তাদের শুধু দেখাতে হবে না যে তারা ভুলের পরে ডেটা সংগ্রহ করে, বরং সেই ডেটাকে সময়মতো, যাচাইযোগ্য আচরণগত পরিবর্তনে রূপ দিতে পারে, যেখানে নিরাপত্তা সবচেয়ে বেশি গুরুত্বপূর্ণ।
এই নিবন্ধটি Wired-এর প্রতিবেদনের ভিত্তিতে লেখা। মূল নিবন্ধটি পড়ুন.




