Code execution для AI-агентов: зачем нужен sandbox и что уже есть

LLM хорошо генерируют код, но главное — не только ассистенты для разработчиков. Модели можно использовать для аутсорса рассуждений: формулировать задачу как последовательность инструкций и получать алгоритм. Проблема в том, что для этого нужно выполнять сгенерированный код, а он по умолчанию недоверенный — в продакшене это риск.
Sandbox для AI-агентов решает задачу: код выполняется в изолированной среде, ошибки и эксперименты не ломают систему. Уже появляются решения: open-interpreter, implicit code execution в Bard, API для выполнения кода агентами. Это открывает сценарии не только для инженеров — любой продукт может делегировать рассуждения модели через безопасный запуск кода.
Если собираете агентов с code execution — имеет смысл посмотреть, как это делают на уровне API и sandbox.