OpenAI: политики безопасности для подростков и gpt-oss-safeguard для разработчиков

OpenAI опубликовала набор политик безопасности для подростков, рассчитанный на разработчиков, которые встраивают модели в продукты. Речь о том, как через промпты и сопутствующие правила задавать границы поведения системы для аудитории до 18 лет и снижать типичные риски — от неуместного контента до сценариев, где модель может навредить уязвимому пользователю.
В связке с этим упоминается gpt-oss-safeguard: инструмент, который помогает модерировать ответы с учётом возрастных ограничений и политик, чтобы ответы и сценарии использования лучше соответствовали ожидаемому уровню защиты для несовершеннолетних.
Для инди-команд и продуктовых разработчиков это сигнал: безопасность подростков в AI всё чаще требует не только «общих» guardrails, а явных политик и проверяемых механизмов на уровне стека. Имеет смысл заранее заложить это в архитектуру чатов, ассистентов и встроенных помощников.
Источник: OpenAI