การแจ้งเบาะแสกลายเป็นเรื่องระดับโลก

ในช่วงไม่กี่สัปดาห์ที่ผ่านมา อุตสาหกรรม AI ได้เห็นคลื่นความไม่เห็นด้วยต่อสาธารณะที่เพิ่มขึ้นจากภายในแถวของตนเอง พนักงานด้านความปลอดภัยและนักวิจัยเดิมจากบางบริษัท AI ที่โด่งดังที่สุดของโลก รวมถึง OpenAI และ Anthropic ออกมาพูดต่อสาธารณะเกี่ยวกับความกังวลเกี่ยวกับวิธีที่นายจ้างของพวกเขาจัดการกับการทดสอบความปลอดภัย การปรับใช้โมเดล และการตอบสนองต่อคำเตือนภายในเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้น การเปิดเผยเหล่านี้จุดประกายการถกเถียงอย่างเข้มข้นเกี่ยวกับความเพียงพอของแนวปฏิบัติด้านความปลอดภัย AI และว่าความเร็วในการพัฒนาของอุตสาหกรรมกำลังแซงหน้าความสามารถในการรับรองว่าระบบที่ทรงพลังได้รับการปรับใช้อย่างรับผิดชอบหรือไม่

ขณะนี้มีโครงการริเริ่มใหม่พยายามที่จะทำให้การรายงานภายในแบบนี้เป็นทางการและได้รับการปกป้องในระดับโลก Psst แพลตฟอร์มการรายงานที่ปลอดภัยแบบดิจิทัล ช่วยให้พนักงาน AI ทุกที่ในโลกสามารถบันทึกและส่งความกังวลด้านความปลอดภัยผ่านช่องทางที่ปลอดภัยได้ แม้แต่ในเขตอำนาจศาลที่ขาดกฎหมายคุ้มครองผู้แจ้งเบาะแสที่เข้มแข็ง สมาชิกคณะกรรมการผู้ก่อตั้งแพลตฟอร์ม ทนายความ Mary Inman กล่าวว่าเป้าหมายคือการรับรองว่าพนักงานในบริษัท AI สามารถพูดออกมาเกี่ยวกับอันตรายที่อาจเกิดขึ้นได้โดยไม่ต้องกลัวการตอบโต้ ไม่ว่าพวกเขาจะอยู่ที่ใด

ทำไมภูมิศาสตร์จึงสำคัญ

การคุ้มครองผู้แจ้งเบาะแสแตกต่างกันอย่างมากในแต่ละประเทศ ในสหรัฐอเมริกา กฎหมายระดับรัฐบาลกลางและรัฐให้การคุ้มครองบางอย่างแก่พนักงานที่รายงานความผิด แม้ว่าประสิทธิภาพและขอบเขตของกฎหมายเหล่านี้เป็นหัวข้อของการถกเถียงอย่างต่อเนื่อง ในสหภาพยุโรป คำสั่งผู้แจ้งเบาะแสที่นำมาใช้ในปี 2019 ให้การคุ้มครองพื้นฐานทั่วทั้งประเทศสมาชิก แม้ว่าการนำไปปฏิบัติจะไม่สม่ำเสมอ

แต่การพัฒนา AI เป็นกิจกรรมระดับโลก ห้องปฏิบัติการ AI หลักๆ ดำเนินการสำนักงานวิจัยและจ้างบุคลากรในหลายสิบประเทศ โดยหลายประเทศมีกฎหมายคุ้มครองผู้แจ้งเบาะแสเพียงเล็กน้อยหรือไม่มีเลย นักวิจัยด้านความปลอดภัยในสิงคโปร์ อินเดีย หรือสหรัฐอาหรับเอมิเรตส์ที่ค้นพบแนวปฏิบัติที่น่าเป็นห่วงของนายจ้างอาจไม่มีช่องทางทางกฎหมายในการรายงานความกังวลเหล่านั้นโดยไม่เสี่ยงต่ออาชีพของตน

Psst ได้รับการออกแบบมาเพื่อเติมเต็มช่องว่างนี้โดยจัดหาโซลูชันที่ใช้เทคโนโลยีสำหรับปัญหาการกำกับดูแล โดยการนำเสนอช่องทางการรายงานที่เข้ารหัสและไม่เปิดเผยตัวตนซึ่งเข้าถึงได้จากทุกประเทศ แพลตฟอร์มนี้มีเป้าหมายที่จะสร้างตาข่ายนิรภัยที่ทำงานอย่างอิสระจากกรอบกฎหมายระดับชาติใดๆ รายงานที่ส่งผ่านแพลตฟอร์มสามารถนำทางไปยังหน่วยงานกำกับดูแลที่เหมาะสม นักวิจัยทางวิชาการ หรือองค์กรที่มีผลประโยชน์สาธารณะ ขึ้นอยู่กับลักษณะและความรุนแรงของความกังวล

คลื่นการเปิดเผยความปลอดภัย AI

เวลาที่ Psst ปรากฏขึ้นมีความสำคัญ ปีที่ผ่านมาได้เห็นปริมาณการเปิดเผยต่อสาธารณะที่ไม่เคยมีมาก่อนโดยพนักงานปัจจุบันและอดีตของบริษัท AI ชั้นนำ การออกจาก Anthropic ของ Mrinank Sharma และคำแถลงต่อสาธารณะในเวลาต่อมาเกี่ยวกับแนวปฏิบัติด้านความปลอดภัยได้รับความสนใจอย่างกว้างขวาง เช่นเดียวกับอดีตพนักงาน OpenAI หลายคนที่ตั้งคำถามว่าแรงกดดันทางการค้าของบริษัทกำลังประนีประนอมกับพันธกรณีด้านความปลอดภัยหรือไม่

การเปิดเผยเหล่านี้มักมาจากบุคคลที่มีความมั่นคงทางการเงิน สถานะการย้ายถิ่นฐาน และชื่อเสียงในอาชีพที่จะรับต้นทุนส่วนตัวในการพูดออกมา คนงาน AI ส่วนใหญ่ที่มีความกังวลคล้ายกันขาดการปกป้องเหล่านี้และยังคงนิ่งเงียบอยู่ สมมติฐานของ Psst คือความกังวลที่เปิดเผยออกมาเป็นเพียงปลายของภูเขาน้ำแข็ง และกลไกการรายงานที่ปลอดภัยสามารถเปิดเผยภาพที่กว้างขึ้นมากของปัญหาความปลอดภัยทั่วทั้งอุตสาหกรรม

ความท้าทายในการตรวจสอบ

หนึ่งในความท้าทายพื้นฐานที่แพลตฟอร์มผู้แจ้งเบาะแสใดๆ ต้องเผชิญคือการตรวจสอบ รายงานที่ไม่เปิดเผยตัวตน แม้จะปกป้องผู้รายงาน แต่อาจยืนยันได้ยากและปฏิเสธได้ง่าย บริษัทที่ถูกกล่าวหาว่ามีการละเลยความปลอดภัยสามารถโต้แย้งได้ว่าการอ้างสิทธิ์ที่ไม่เปิดเผยตัวตนขาดความน่าเชื่อถือ ในขณะที่การไม่มีผู้กล่าวหาที่มีชื่อทำให้หน่วยงานกำกับดูแลหรือนักข่าวสืบสวนได้ยากขึ้น

Psst กำลังพยายามแก้ไขปัญหานี้โดยการสร้างความสัมพันธ์กับคนกลางที่เชื่อถือได้ซึ่งสามารถประเมินความน่าเชื่อถือของรายงานโดยไม่เปิดเผยตัวตนของผู้รายงาน แพลตฟอร์มยังสนับสนุนให้คนงานส่งเอกสาร — อีเมลภายใน ผลการทดสอบ บันทึกการประชุม เอกสารนโยบาย — ที่สามารถยืนยันความกังวลของพวกเขาได้อย่างอิสระจากคำให้การส่วนตัวของพวกเขา

การตอบสนองของอุตสาหกรรมและหน่วยงานกำกับดูแล

ปฏิกิริยาจากบริษัท AI ต่อขบวนการผู้แจ้งเบาะแสที่เติบโตขึ้นนั้นมีทั้งแบบผสม บางบริษัทได้ให้คำมั่นสัญญาต่อสาธารณะในการปกป้องพนักงานที่ยกประเด็นความกังวลด้านความปลอดภัยผ่านช่องทางภายใน ในขณะที่บางบริษัทได้ใช้ข้อตกลงไม่เปิดเผยข้อมูลและเครื่องมือทางกฎหมายอื่นๆ ที่นักวิจารณ์กล่าวว่ามีผลทำให้ความไม่เห็นด้วยภายในเย็นลง

หน่วยงานกำกับดูแลกำลังจับตาดูอย่างใกล้ชิด กฎหมาย AI ของสหภาพยุโรปประกอบด้วยบทบัญญัติเกี่ยวกับความโปร่งใสและความรับผิดชอบที่อาจสร้างช่องทางอย่างเป็นทางการสำหรับการรายงานความปลอดภัย ในสหรัฐอเมริกา การพิจารณาคดีของรัฐสภาเกี่ยวกับความปลอดภัย AI ได้กล่าวถึงความจำเป็นในการคุ้มครองผู้แจ้งเบาะแสที่เฉพาะเจาะจงสำหรับอุตสาหกรรม AI แม้ว่าจะยังไม่มีการออกกฎหมายที่ครอบคลุม

ความหมายต่อการพัฒนา AI

การเกิดขึ้นของโครงสร้างพื้นฐานการแจ้งเบาะแส AI เฉพาะทางสะท้อนให้เห็นถึงการเติบโตของการถกเถียงเรื่องความปลอดภัย AI จากการอภิปรายเชิงปรัชญาที่เป็นนามธรรมไปสู่คำถามเรื่องการกำกับดูแลเชิงปฏิบัติ เมื่อระบบ AI มีความทรงพลังมากขึ้นและผสานรวมเข้ากับโครงสร้างพื้นฐานที่สำคัญ การดูแลสุขภาพ การเงิน และการใช้งานด้านการป้องกันประเทศมากขึ้น ผลที่ตามมาจากแนวปฏิบัติด้านความปลอดภัยที่ไม่เพียงพอก็ยิ่งรุนแรงมากขึ้น

Psst และโครงการริเริ่มที่คล้ายกันเป็นตัวแทนของการยอมรับว่าการกำกับดูแล AI ที่มีประสิทธิภาพไม่สามารถพึ่งพาบริษัทต่างๆ ในการควบคุมตัวเองเพียงอย่างเดียวหรือรัฐบาลในการควบคุมจากภายนอกเท่านั้น แต่ต้องการกลไกที่ให้อำนาจแก่ผู้ที่ใกล้ชิดกับเทคโนโลยีมากที่สุด — นักวิจัยและวิศวกรที่สร้างระบบเหล่านี้ — ในการส่งสัญญาณเตือนเมื่อพวกเขาเห็นปัญหา โดยไม่ทำลายอาชีพของตัวเองในกระบวนการ

ว่าแพลตฟอร์มดังกล่าวจะสามารถมีอิทธิพลต่อพฤติกรรมของอุตสาหกรรมได้อย่างมีนัยสำคัญหรือไม่นั้นยังคงต้องรอดูกัน แต่ในยุคที่ความเร็วในการพัฒนา AI มักเกินกว่าความเร็วในการควบคุม AI อย่างต่อเนื่อง แพลตฟอร์มผู้แจ้งเบาะแสอาจทำหน้าที่เป็นระบบเตือนภัยล่วงหน้าที่สำคัญ เปิดเผยความกังวลที่อาจยังคงซ่อนอยู่จนกว่าจะแสดงออกมาเป็นอันตรายในโลกแห่งความเป็นจริง