ऑस्टिनमधील स्कूल-बस घटना स्वायत्त शिकण्याच्या दाव्यांची कसोटी ठरल्या आहेत

Waymo ने दीर्घकाळ स्वायत्त वाहनचालनेचे एक मुख्य आश्वासन पुढे रेटले आहे: स्वयंचलित वाहनांचा फ्लीट सामूहिक अनुभवातून शिकू शकतो, आणि प्रत्येक edge case किंवा त्रुटीनंतर सुधारू शकतो. पण टेक्सासमधील ऑस्टिनमध्ये घडलेल्या घटनांच्या मालिकेमुळे ते आश्वासन प्रत्यक्षात कसे समजले जाते, यावर प्रश्नचिन्ह निर्माण झाले आहे.

सार्वजनिक नोंदी आणि फेडरल तपासांवर आधारित अहवालांनुसार, ऑस्टिनमधील Waymo वाहनांना लाल दिवे चमकत असताना आणि stop arms बाहेर आलेले असताना स्कूल बसांसाठी थांबण्यात महिन्यांभर अडचण आली. Austin Independent School District मधील अधिकाऱ्यांनी आरोप केला की किमान 19 प्रकरणांमध्ये या वाहनांनी विद्यार्थ्यांच्या चढ-उताराच्या वेळी बसांना बेकायदेशीर आणि धोकादायक पद्धतीने ओलांडले.

ही समस्या इतकी गंभीर होती की Waymo ने डिसेंबरच्या सुरुवातीला एक फेडरल रिकॉल जारी केला, जो National Highway Traffic Safety Administration कडे नोंदवलेल्या किमान 12 घटनांशी संबंधित होता. कंपनीने नियामकांना सांगितले की हे वर्तन सुधारण्यासाठी आवश्यक सॉफ्टवेअर बदल आधीच विकसित केले आहेत. तरीही समस्या लगेच नाहीशी झाली नाही.

रिकॉलनंतरही घटना सुरूच राहिल्याचे सांगितले गेले

अहवालात उद्धृत केलेल्या नोंदी दर्शवतात की ऑस्टिनच्या शालेय अधिकाऱ्यांनी आणि Waymo ने साध्या troubleshooting च्या पलीकडे जाऊन काम केले. डिसेंबरच्या मध्यात, शाळा जिल्ह्याने एका parking lot मध्ये अर्ध्या दिवसाचा डेटा-संकलन उपक्रम आयोजित केला, ज्यामध्ये बस आणि stop-arm उपकरणे एकत्र करण्यात आली, जेणेकरून Waymo चमकणाऱ्या चेतावणी प्रणालींच्या आसपास वाहनांच्या वर्तनाविषयी अतिरिक्त माहिती गोळा करू शकेल.

अशा प्रकारचे समन्वय सूचित करतात की दोन्ही बाजूंनी या समस्येला तांत्रिकदृष्ट्या सोडवता येण्यासारखे आणि तातडीचे मानले. शाळा बसांवर कडक सुरक्षा व्यवस्था लागू असते, कारण मुले अनपेक्षितपणे रस्ता ओलांडू शकतात, त्यामुळे stop signals चे पालन बंधनकारक आहे. त्या संदर्भात वारंवार अपयशी ठरणारी driverless system फक्त अपूर्ण नाही. ती कायदेशीर आणि सार्वजनिक-सुरक्षा मर्यादेखाली कार्य करत आहे.

या प्रकरणाला विशेष उल्लेखनीय बनवणारी गोष्ट म्हणजे रिकॉल आणि या लक्ष्यित माहिती-संकलन उपक्रमानंतरही घटना सुरूच राहिल्याचे सांगितले गेले. जानेवारीच्या मध्यापर्यंत, शाळा जिल्ह्याने स्कूल बसांना ओलांडण्याच्या किमान चार अतिरिक्त घटना नोंदवल्या होत्या. जिल्ह्याच्या पोलिस विभागातील एका अधिकाऱ्याने फरक स्पष्ट करत सांगितले की मानवी उल्लंघन करणारे बहुतेक वेळा एक citation मिळाल्यानंतर शिकतात, पण automated driving system आपल्या software updates किंवा recall actions मधून त्याच पद्धतीने शिकत आहे असे दिसत नव्हते.

खरा प्रश्न म्हणजे “शिकणे” याचा अर्थ नेमका काय

स्वायत्त वाहन कंपन्या अनेकदा fleet-level learning ला मानवी चालकांवरील एक मोठा फायदा म्हणून मांडतात. ही कल्पना आकर्षक आहे: एका वाहनाची चूक सैद्धांतिकदृष्ट्या सर्व वाहनांसाठी धडा बनू शकते. पण ऑस्टिनचा अनुभव दाखवतो की ही प्रक्रिया विपणनातील सोप्या भाषेपेक्षा धीमी, संकुचित किंवा अधिक नाजूक असू शकते.

वास्तविक वाहतुकीत सिग्नल, वातावरण, प्रकाशस्थिती, स्थानिक उपकरणांतील बदल, आणि वर्तनात्मक अपेक्षा यांच्या दुर्मीळ संयोजना भरपूर असतात. स्कूल बस हे विशेष संवेदनशील उदाहरण आहे, कारण त्यात कायदेशीर संकेत, वाहनाची असामान्य रचना, आणि उच्च-धोका असलेली रस्त्याच्या कडची परिस्थिती एकत्र येते. स्वायत्त प्रणालीला फक्त अधिक उदाहरणांचीच नव्हे, तर योग्य प्रकारची उदाहरणे, योग्य labels, आणि पुरेसे मजबूत model updates यांचीही गरज भासू शकते, तेव्हाच संपूर्ण फ्लीटमध्ये समस्या अर्थपूर्णरीत्या सुटू शकते.

सैद्धांतिक शिकणे आणि कार्यात्मक adaptation यांच्यातील ही दरी आता ऑस्टिन प्रकरणाच्या केंद्रस्थानी आहे. जर एखाद्या कंपनीने समस्या ओळखली, रिकॉल जारी केला, समर्पित स्थानिक डेटा गोळा केला, आणि तरीही घटना सुरूच राहिल्या, तर नियामक आणि जनता विचारतील की स्वायत्त शिकण्याच्या दाव्यांचे मोजमाप आणि audit कसे करावे.

ऑस्टिनपलीकडे हे का महत्त्वाचे आहे

ऑस्टिनमधील घटना व्यापक autonomous vehicle sector साठी अस्वस्थ करणाऱ्या काळात घडल्या आहेत. robotaxi विकसित करणाऱ्या कंपन्या व्यावसायिकरीत्या विस्तारत आहेत आणि राजकीय पातळीवर असा युक्तिवाद करत आहेत की त्यांच्या प्रणाली शेवटी सुरक्षिततेत माणसांपेक्षा चांगल्या ठरू शकतात. पण हे युक्तिवाद केवळ सरासरी कामगिरीवर नव्हे, तर दुर्मीळ, उच्च-परिणामकारक परिस्थिती हाताळण्यावर अवलंबून आहेत.

school-bus compliance ही अशीच एक परिस्थिती आहे. ती सर्वसामान्यांना सहज समजणारी, काटेकोरपणे नियमन केलेली, आणि मुलांचा सहभाग असल्यामुळे भावनिकदृष्ट्या प्रभावी आहे. त्यामुळे वारंवार अपयश विश्वासासाठी विशेषतः हानिकारक ठरते. अशा घटना एकूण चाललेल्या मैलांच्या तुलनेत लहान वाटू शकतात, तरी readiness विषयीच्या सार्वजनिक मतावर त्यांचा अनुलक्ष्यपणे मोठा प्रभाव पडतो.

या प्रकरणातून हेही सूचित होते की software fix पासून प्रत्यक्ष जगातील निराकरणापर्यंतचा मार्ग बाहेरच्यांना वाटतो तितका लगेच नसू शकतो. मशीन लर्निंग प्रणाली मानवी अर्थाने “शिकत” नाहीत. त्या engineering pipelines, validation work, simulation, deployment schedules, आणि safety gates यांवर अवलंबून असतात. म्हणजेच डेटा अस्तित्वात असणे आणि सुधारणा अस्तित्वात असणे या एकच गोष्ट नाहीत.

Waymo साठी, ऑस्टिनची समस्या फक्त स्थानिक operational issue नाही. वारंवार होणाऱ्या edge-case failures सार्वजनिकपणे सुरू राहिल्या तर autonomous driving ची scale होऊ शकणाऱ्या learning बद्दलची मध्यवर्ती कथा तपासणीला तोंड देऊ शकेल का, याची ही कसोटी आहे. नियामकांसाठी, recall language आणि learning claims यांची standard software update assurances पेक्षा अधिक बारकाईने तपासणी करणे आवश्यक ठरू शकते, याची ही आठवण आहे.

व्यापक autonomous vehicle market हे लक्षपूर्वक पाहणार आहे. स्व-चालित प्रणालींना टिकाऊ सार्वजनिक विश्वास मिळवायचा असेल, तर त्यांनी फक्त चुका झाल्यावर डेटा गोळा करतो, हे नव्हे, तर तो डेटा सुरक्षिततेला सर्वाधिक महत्त्व असलेल्या ठिकाणी वेळेत, पडताळता येण्याजोग्या वर्तनबदलात रूपांतरित करू शकतो, हेही दाखवावे लागेल.

हा लेख Wired च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.