Разоблачения Выходят на Глобальный Уровень
В последние недели в индустрии ИИ наблюдается нарастающая волна публичного несогласия изнутри. Бывшие специалисты по безопасности и исследователи из ряда ведущих компаний ИИ мира, включая OpenAI и Anthropic, открыто заявляют об озабоченности тем, как их работодатели подходят к тестированию безопасности, развёртыванию моделей и реагированию на внутренние предупреждения о потенциальных рисках. Эти разоблачения вызвали острые дискуссии о достаточности практик безопасности ИИ и о том, не превышает ли стремительный темп развития отрасли её способность обеспечивать ответственное внедрение мощных систем.
Теперь новая инициатива пытается формализовать и защитить подобные внутренние сообщения в глобальном масштабе. Psst — цифровая платформа безопасного информирования — позволяет работникам сферы ИИ в любой точке мира документировать и передавать опасения по безопасности через защищённый канал, даже в юрисдикциях, где отсутствуют надёжные законы о защите информаторов. Основатель совета директоров платформы, адвокат Мэри Инман, говорит, что цель — гарантировать работникам ИИ-компаний возможность открыто говорить о потенциальных вредах без страха мести, независимо от места их нахождения.
Почему Важна География
Защита информаторов колоссально различается в разных странах. В Соединённых Штатах федеральные законы и законы штатов предоставляют некоторую защиту сотрудникам, сообщающим о нарушениях, хотя их эффективность и сфера применения остаются предметом постоянных дискуссий. В Европейском союзе директива о защите информаторов, принятая в 2019 году, устанавливает базовый уровень защиты во всех государствах-членах, однако реализация остаётся неравномерной.
Но разработка ИИ — это глобальная деятельность. Ведущие ИИ-лаборатории работают в исследовательских офисах и привлекают таланты в десятках стран, многие из которых имеют минимальную или вовсе отсутствующую законодательную защиту информаторов. Исследователь безопасности в Сингапуре, Индии или Объединённых Арабских Эмиратах, обнаруживший тревожные практики у работодателя, может не иметь никакого правового способа сообщить об этих опасениях, не рискуя карьерой — или чем-то худшим.
Psst призван заполнить этот пробел, предложив технологическое решение проблемы управления. Обеспечивая зашифрованные, анонимные каналы отчётности, доступные из любой страны, платформа стремится создать систему безопасности, работающую независимо от любых национальных правовых рамок. Поступившие через платформу сообщения могут быть направлены в соответствующие регуляторные органы, научных исследователей или организации, действующие в общественных интересах, — в зависимости от характера и серьёзности опасений.
Волна Разоблачений о Безопасности ИИ
Время появления Psst весьма значимо. В прошлом году был зафиксирован беспрецедентный объём публичных разоблачений со стороны нынешних и бывших сотрудников ведущих ИИ-компаний. Уход Мринанка Шармы из Anthropic и его последующие публичные заявления о практиках безопасности привлекли широкое внимание, как и высказывания нескольких бывших сотрудников OpenAI, усомнившихся в том, не подрывает ли коммерческое давление компании её обязательства в сфере безопасности.
Как правило, подобные разоблачения исходят от людей, обладающих финансовой стабильностью, иммиграционным статусом и профессиональной репутацией, позволяющими выдержать личные издержки публичных заявлений. Подавляющее большинство работников ИИ, разделяющих схожие опасения, лишены этих гарантий и хранят молчание. Тезис Psst состоит в том, что озвученные опасения — лишь вершина айсберга, и что безопасный механизм отчётности мог бы открыть гораздо более широкую картину проблем безопасности в отрасли.
Проблема Верификации
Один из фундаментальных вызовов для любой платформы информаторов — это верификация. Анонимные сообщения, хотя и защищают отправителя, сложно поддаются подтверждению и легко отвергаются. Компании, обвинённые в нарушениях безопасности, могут утверждать, что анонимные заявления лишены достоверности, а отсутствие названного обвинителя затрудняет расследование со стороны регуляторов или журналистов.
Psst пытается решить эту проблему, выстраивая отношения с надёжными посредниками, способными оценивать достоверность сообщений, не раскрывая личность информатора. Платформа также поощряет работников к передаче документов — внутренних электронных писем, результатов тестирования, протоколов совещаний, политических документов, — которые могут обосновать их опасения независимо от личных показаний.
Реакция Отрасли и Регуляторов
Реакция ИИ-компаний на растущее движение информаторов оказалась неоднозначной. Одни компании публично заявили о готовности защищать сотрудников, поднимающих вопросы безопасности по внутренним каналам, другие прибегают к соглашениям о неразглашении и иным правовым инструментам, которые критики называют сдерживающим фактором для внутреннего инакомыслия.
Регуляторы внимательно наблюдают. Закон ЕС об ИИ включает положения о прозрачности и подотчётности, которые могут создать официальные каналы для сообщений о безопасности. В Соединённых Штатах слушания в Конгрессе по безопасности ИИ затрагивали необходимость специальной защиты информаторов в индустрии ИИ, хотя никакого всеобъемлющего законодательства принято не было.
Что Это Означает для Развития ИИ
Появление специализированной инфраструктуры для информаторов в сфере ИИ отражает взросление дискуссии о безопасности ИИ — переход от абстрактных философских рассуждений к практическим вопросам управления. По мере того как системы ИИ становятся мощнее и глубже интегрируются в критическую инфраструктуру, здравоохранение, финансы и оборонные приложения, последствия недостаточных практик безопасности становятся всё более серьёзными.
Psst и подобные инициативы свидетельствуют о признании того, что эффективное управление ИИ не может опираться исключительно на самоконтроль компаний или внешнее государственное регулирование. Для этого нужны механизмы, наделяющие полномочиями людей, ближайших к технологиям, — исследователей и инженеров, создающих эти системы, — чтобы они могли бить тревогу, когда замечают проблемы, не разрушая при этом собственную карьеру.
Смогут ли подобные платформы реально влиять на поведение отрасли — покажет время. Но в эпоху, когда темп развития ИИ неизменно опережает темп его регулирования, платформы для информаторов могут стать важной системой раннего оповещения, выявляя проблемы, которые иначе могли бы оставаться скрытыми, пока не обернутся реальным ущербом.
Эта статья основана на репортаже Rest of World. Читать оригинал.


