أصبحت حوادث حافلات المدارس في أوستن اختبارًا لادعاءات التعلّم الذاتي
لطالما روّجت Waymo لأحد الوعود الأساسية للقيادة الذاتية: أن أسطولًا من المركبات ذاتية القيادة يمكنه التعلّم من الخبرة الجماعية والتحسن بعد كل حالة استثنائية أو خطأ. لكن سلسلة من الحوادث في أوستن بولاية تكساس تتحدى الطريقة التي يُفهم بها هذا الوعد عمليًا.
وبحسب تقارير تستند إلى سجلات عامة وتحقيقات فيدرالية، واجهت مركبات Waymo في أوستن صعوبة لعدة أشهر في التوقف لحافلات المدارس عندما كانت الأضواء الحمراء تومض وذراع التوقف ممتدة. وادعى مسؤولو منطقة أوستن التعليمية المستقلة أن المركبات، في ما لا يقل عن 19 حالة، تجاوزت الحافلات بشكل غير قانوني وخطير أثناء عمليات صعود الطلاب ونزولهم.
وكانت المشكلة خطيرة إلى حد دفع Waymo إلى إصدار استدعاء فيدرالي في أوائل ديسمبر مرتبط بما لا يقل عن 12 حادثة أُبلغ عنها إلى الإدارة الوطنية لسلامة المرور على الطرق السريعة. وأبلغت الشركة الجهات التنظيمية بأنها طوّرت بالفعل تعديلات برمجية تهدف إلى معالجة هذا السلوك. ومع ذلك، لم تختفِ المشكلة على الفور.
حتى بعد الاستدعاء، استمرت الحوادث على ما يبدو
تُظهر السجلات التي استند إليها التقرير أن مسؤولي مدارس أوستن وWaymo تجاوزوا أساليب استكشاف الأخطاء المعتادة. ففي منتصف ديسمبر، استضافت المنطقة التعليمية فعالية لجمع البيانات استمرت نصف يوم في موقف سيارات، حيث جُمعت حافلات ومعدات ذراع التوقف حتى تتمكن Waymo من جمع معلومات إضافية عن سلوك المركبات حول أنظمة التحذير الوامضة.
يشير هذا النوع من التنسيق إلى أن الطرفين اعتبرا المشكلة قابلة للحل تقنيًا وعاجلة في الوقت نفسه. تعمل حافلات المدارس ضمن نظام سلامة صارم لأن الأطفال قد يعبرون الشوارع بشكل غير متوقع، ما يجعل الامتثال لإشارات التوقف أمرًا غير قابل للتفاوض. وأي نظام بلا سائق يفشل مرارًا في هذا السياق لا يكون مجرد نظام غير مثالي، بل يعمل دون الحد القانوني وحد السلامة العامة.
وما يجعل الحادثة لافتة بشكل خاص هو أن التقارير تفيد باستمرار الحوادث حتى بعد الاستدعاء وبعد هذا الجهد المستهدف لجمع المعلومات. وبحلول منتصف يناير، كانت المنطقة التعليمية قد أبلغت عن أربع حوادث إضافية على الأقل لتجاوز حافلات المدارس. وقال مسؤول في قسم شرطة المنطقة بوضوح إن المخالفين من البشر غالبًا ما يتعلمون بعد مخالفة واحدة، لكن لم يكن يبدو أن نظام القيادة الآلية يتعلم بالطريقة نفسها عبر تحديثاته البرمجية أو إجراءات الاستدعاء.
السؤال الأعمق هو ما الذي يعنيه “التعلّم” فعلًا
غالبًا ما تصف شركات المركبات الذاتية القيادة التعلّم على مستوى الأسطول بأنه ميزة رئيسية مقارنة بالسائقين البشر. الفكرة جذابة: يمكن نظريًا أن يصبح خطأ مركبة واحدة درسًا لكل المركبات. لكن تجربة أوستن توضح أن هذه العملية قد تكون أبطأ أو أضيق نطاقًا أو أكثر هشاشة مما توحي به الصياغة التسويقية.
فالمرور الواقعي مليء بتوليفات نادرة من الإشارات والبيئات وظروف الإضاءة والاختلافات المحلية في المعدات وتوقعات السلوك. وتُعد حافلات المدارس مثالًا حساسًا بشكل خاص لأنها تجمع بين إشارات قانونية، وهندسة غير مألوفة للمركبة، ومواقف عالية المخاطر على جانب الطريق. وقد يحتاج النظام الذاتي إلى أكثر من مجرد عدد أكبر من الأمثلة؛ قد يحتاج إلى الأنواع الصحيحة من الأمثلة، والوسوم الصحيحة، وتحديثات نموذجية متينة بما يكفي قبل أن تُحل المشكلة بصورة ملموسة عبر الأسطول كله.
وتقع هذه الفجوة بين التعلّم النظري والتكيف التشغيلي الآن في قلب قضية أوستن. فإذا كانت شركة ما قد حددت المشكلة، وأصدرت استدعاء، وجمعت بيانات محلية مخصصة، وما زالت ترى حوادث متواصلة، فمن المرجح أن يسأل المنظمون والجمهور عن كيفية قياس ادعاءات التعلّم في أنظمة القيادة الذاتية وكيفية تدقيقها.
لماذا يتجاوز الأمر أوستن
تأتي حوادث أوستن في وقت غير مريح لقطاع المركبات الذاتية القيادة الأوسع. فمطورو سيارات الأجرة الروبوتية يتوسعون تجاريًا ويجادلون سياسيًا بأن أنظمتهم يمكنها في النهاية أن تتفوق على البشر في السلامة. لكن هذه الحجج لا تعتمد فقط على الأداء المتوسط، بل أيضًا على التعامل مع الحالات النادرة ذات العواقب الكبيرة.
والالتزام تجاه حافلات المدارس هو أحد هذه الحالات. فهو واضح جدًا للجمهور، وخاضع لتنظيم شديد، ويحمل صدى عاطفيًا قويًا لأنه يتعلق بالأطفال. وهذا يجعل الفشل المتكرر ضارًا بالثقة بشكل خاص. وحتى إذا مثلت هذه الحالات جزءًا صغيرًا من إجمالي الأميال المقطوعة، فإن وزنها في الحكم العام على الجاهزية يكون غير متناسب.
ويشير الحادث أيضًا إلى أن الطريق من إصلاح البرمجيات إلى الحل في العالم الحقيقي قد لا يكون مباشرًا كما يتصور من هم خارج المجال. فأنظمة التعلّم الآلي لا “تتعلم” بالمعنى البشري اليومي. إنها تعتمد على سلاسل هندسية، وأعمال تحقق، ومحاكاة، وجداول نشر، وبوابات أمان. وهذا يعني أن وجود البيانات ووجود التحسن ليسا الشيء نفسه.
بالنسبة إلى Waymo، فإن مشكلة أوستن ليست مجرد قضية تشغيلية محلية. إنها اختبار لمدى قدرة السردية الأساسية للقيادة الذاتية حول التعلّم القابل للتوسع على الصمود أمام التدقيق عندما تستمر حالات الفشل المتكررة في الحالات الاستثنائية أمام الجمهور. وبالنسبة إلى الجهات التنظيمية، فهي تذكير بأن لغة الاستدعاء وادعاءات التعلّم قد تحتاج إلى تمحيص أدق مما توحي به ضمانات تحديث البرمجيات المعتادة.
وسيكون سوق المركبات الذاتية الأوسع يراقب عن كثب. وإذا أرادت أنظمة القيادة الذاتية كسب ثقة عامة دائمة، فسيتعين عليها إثبات أنها لا تجمع البيانات بعد الأخطاء فحسب، بل إنها قادرة أيضًا على تحويل تلك البيانات إلى تغييرات سلوكية سريعة وقابلة للتحقق في الأماكن التي تهم فيها السلامة أكثر من غيرها.
يعتمد هذا المقال على تقرير من Wired. اقرأ المقال الأصلي.



