Китайские цензоры внедряют социалистические идеалы в ИИ
Государственная канцелярия интернет-информации КНР (CAC) потребовала крупные технологические компании и стартапы в области ИИ, принять участие в правительственном тестировании их моделей. Процедура включает в себя комплексную оценку того, как большие языковые модели (БЯМ) отвечают на широкий круг вопросов. Многие из этих запросов касаются чувствительных политических тем, включая упоминания о президенте Си Цзиньпине. Внимание уделяется не только ответам больших языковых моделей, но и их обучающим данным и общим протоколами безопасности. Процесс аудита строгий и занимает много времени. Компании обязаны принимать у себя представителей CAC, которые проводят детальные проверки их моделей.
Нередки случаи, когда БЯМ не проходят проверку с первого раза. Тогда требуется их доработка с учетом замечаний CAC и консультаций с коллегами по отрасли. Это может занять месяцы. Жесткие требования властей подталкивают китайские ИИ-компании к разработке и внедрению изощренных механизмов цензуры, чтобы гарантировать соответствие продукции государственным стандартам. Одним из главных камней преткновения, по словам инженеров и отраслевых специалистов, является необходимость сочетать высокую производительность больших языковых моделей с цензурой. БЯМ обрабатывают огромные массивы данных, часто на английском языке. Это мешает им соответствовать строгим требованиям китайского регулирования.
В феврале правительство Китая выпустило руководящие принципы, обязывающие ИИ-компании, собирать и фильтровать тысячи чувствительных ключевых слов и вопросов, которые могут нарушать «основные социалистические ценности». Руководящие принципы регулярно обновляются в ответ на меняющуюся политическую обстановку.
Ужесточение регулирования китайского ИИ напрямую сказывается на общении с чат-ботами. Вопросы о чувствительных исторических событиях (например, на площади Тяньаньмэнь в 1989 году) или шутки о президенте Си Цзиньпине блокируются. Вместо ответов чат-боты Baidu Ernie и Alibaba Tongyi Qianwen предлагают сменить тему или ссылаются на ограничения. Вместе с тем, Пекин запустил альтернативный чат-бот, который основывает свои ответы на трудах Си Цзиньпина и другой официальной литературе, представленной канцелярией интернет-информации.
Китайские чиновники считают, что одной цензуры недостаточно — ИИ должен быть готов обсуждать любые политические темы. Согласно текущим стандартам, большая языковая модель должна отклонять не более 5% вопросов.
Хотя чиновники проводят строгие испытания больших языковых моделей перед их запуском, после выхода в свет их особо не контролируют. Несмотря на это, в некоторые модели ИИ внедряется самоцензура. БЯМ полностью блокируют обсуждение определенных тем, связанных с китайским политическим руководством, чтобы избежать потенциальных проблем с регуляторами. Разработчики добавляют дополнительные уровни фильтрации и модификации ответов в реальном времени. Этот подход использует классификаторы, похожие на спам-фильтры, которые позволяют ранжировать ответы больших языковых моделей. Если ответ может быть проблемным, его заменяют более безопасной альтернативой. Это помогает минимизировать риски несоответствия требованиям.
ByteDance, известная своей платформой TikTok, особенно отличилась в приведении своих моделей в соответствие с государственной повесткой Китая. Исследование Университета Фудань присвоило БЯМ ByteDance высший рейтинг безопасности в 66,4 %. Для сравнения, OpenAI GPT-4o в том же тесте набрала лишь 7,1%.
Китайские власти стремятся и дальше улучшать протоколы безопасности для больших языковых моделей. Фан Биньсин, создатель «Великого китайского файрволла», подчеркнул необходимость внедрения надежных систем мониторинга в режиме реального времени, чтобы дополнить существующие меры безопасности. Это подчеркивает приверженность Китая разработке уникальной технологической структуры, отвечающей как нормативным требованиям, так и стратегическим национальным интересам.