Контекст-инжиниринг: промпт — только начало

На демо всё блестит: агент отвечает вежливо, ссылается на ваш регламент, даже шутит в пределах brand voice. На третий день в проде он предлагает «упростить архитектуру» и выкинуть кусок домена, потому что в окне не оказалось нужного файла — зато торчала устаревшая выжимка из Confluence. System prompt при этом вы читали вслух на синке: он безупречен. Знакомо?
Промпт-инжиниринг — про то, как сказать. Контекст-инжиниринг — про то, что лежит перед моделью целиком: системные инструкции, few-shot, логи, вызовы инструментов, вытащенные документы, память, MCP. Летом 2025-го термин подхватили Карпатый и Тоби Лютке; в сентябре Anthropic выпустил гайд, который быстро стал настольным у многих команд. К апрелю 2026-го спорить о важности окна уже неловко — осталось научиться им управлять.
Две дисциплины, один пайплайн
Без лекции. Вот ось, по которой мы сами дебажим инциденты (структура близка к Fordel Studios, ячейки перефразированы):
| Что сравниваем | Промпт-инжиниринг | Контекст-инжиниринг |
|---|---|---|
| Объект настройки | Текст инструкции и примеры | Весь набор сигналов в окне |
| Типичный факап | Неверно понята задача | Не попал нужный факт / «выпал» из ранней части сессии |
| Где искать баг | Строки system | Токенный дамп шага, порядок чанков, состав тулов |
Моя ставка простая: плохой промпт убьёт хороший контекст. Хороший промпт не спасёт окно, если туда свален хаос. Обе дисциплины живут в одной команде, но ответственность разная.
Когда «ещё чуть подкрутим промпт» обречён
Одношаговый completion — это лампочка: включил, получил. Агент — это вечерний сервис с очередью: инструменты, RAG, ретраи, субагенты. Промпт в такой системе — не дирижёр, а один из музыкантов.
Обзоры связывают большую долю продакшн-инцидентов LLM-приложений с контекстом, а не с «слабой моделью»; Fordel Studios пишет про порядка 70 %+ контекстных ошибок. Другой частый сюжет — пилоты в enterprise, которые валятся из-за архитектуры, а не из-за формулировки welcome-message; Towards AI цитирует ~95 % провалов пилотов и до +64 % solve rate при нормальной работе с контекстом. Это не аксиомы физики — но сигнал громкий: если единственный рычаг — переписать абзац в system, вы экономите на неверной вещи.
Два класса поломок, которые я вижу чаще всего:
Перегруз и «провал» середины. Огромное окно ≠ равномерное внимание; про середину контекста говорят в связке с Lost in the Middle. Симптом: в шаге 22 агент игнорирует то, что вы сказали в шаге 2.
Однообразная траектория. Повторяющийся паттерн сообщений кормит модель одним сюжетом — ответы выравниваются в шаблон. Fordel называет это «mode collapse» по аналогии с GAN; честно: речь не про обучение сети, а про поведение при inference.
Цитата, которую любят пересказывать: у DeepMind формулируют мысль, что большинство сбоев агентов — про контекст, а не про веса. Звучит резко. На практике это значит: открыть trace раньше, чем Notion с «улучшенным промптом v11».
Пять рычагов — не законы, а стартовый набор
Сводка опирается на State of Context Engineering in 2026. У каждого рычага есть счётчик в виде latency, денег или риска.
Progressive disclosure. Не заливайте в старт сессии свод правил на тысячи токенов. Покажите каркас, раскрывайте детали по триггеру. В Cursor близкий паттерн — Skills: короткий discovery, полный SKILL.md по необходимости. Скелет:
---
name: incident-triage
description: >
Triage production incidents from logs and alerts.
Use when user reports outage, SLO breach, or error spike.
---
# Incident Triage
- Identify blast radius
- Pinpoint first failing dependency
- Propose rollback vs hotfix with tradeoffs
В Claude Code ту же идею часто несёт CLAUDE.md — если вы осознанно решаете, когда он влезает в окно.
Compression. История растёт — режьте и суммируйте. Совет из цепочки Manus → обзор Towards AI: не выкидывайте при сжатии свежие ошибки и последние tool calls — там плотность сигнала выше. Плата: деньги на суммаризацию и потеря мелких деталей.
Routing и субагенты. Разные домены — разные пакеты контекста. Anthropic подталкивает к субагентам с изолированными окнами. Плата: ошибся классификатор — получили блестящий ответ не на тот запрос.
Эволюция retrieval. Статичный RAG тащит одни и те же чанки. Agentic / Graph / Self-RAG — агент сам решает, когда идти за знаниями. LangGraph и Zep чаще всего всплывают как примеры инфраструктуры. Плата: сложнее отладка и риск зацикливания на поиске.
Бюджет описаний инструментов. Жирный JSON Schema = сотни токенов; десятки MCP-тулов = тысячи токенов до первой команды. Тот же обзор Towards AI предлагает динамически подгружать описания. Плата: агент мог не знать, что тул существует, пока вы его не показали; смена набора инструментов бьёт по кешу (KV-cache — в том же тексте).
Первая неделя: куда смотреть
Не героизм — симптом и один шаг.
- Сессия длинная, «забывает» начало → compression + не трогать свежие ошибки и tool calls.
- Один агент и бухгалтерия, и саппорт → routing или отдельные субагенты.
- MCP раздул счёт до первого вызова → аудит схем, ленивая загрузка описаний.
- Каждый чат тащит простыню инструкций → skills / progressive disclosure.
- RAG врёт уверенно → чинить пайплайн извлечения, а не только строку «будь честным» в system.
Универсальный ноль: экспортировать контекст плохого шага и посчитать токены до первого полезного действия. Часто дешёвая модель с чистым окном обходит дорогую в свалке текста.
Промпт мёртв? Нет. Главный рычаг? Тоже нет.
Третий слой, который удобно держать в голове отдельно, — harness engineering: как вы доставляете контекст, где версионируете скиллы, какие лимиты на длину траектории ставите. Хорошее разведение трёх дисциплин — на dev.to.
Ограничение честное: если после чистки окна качество плоское, виноваты могут быть данные, доступы или сама постановка задачи. Контекст-инжиниринг — сильная рычаговая группа, не волшебная палочка.
Последний трюк, который я делаю перед эскалацией: в trace скрываю глазами блок system и читаю только остальное. Если там каша — никакой перфекционизм в формулировке инструкции это не заменит.
Источники
- Anthropic — Effective Context Engineering for AI Agents
- State of Context Engineering in 2026 (Towards AI)
- Fordel Studios — Why Your AI Agent Fails
- Context Engineering for AI-Assisted Coding (dev.to)
- From Prompt Engineering to Context Engineering (Promplify)
- Prompt Engineering Gets Attention, Context Engineering Gets Results
- The Decoder — контекст vs промпт
- Prompt vs Context vs Harness Engineering (dev.to)
- Paperclipped — Context Engineering guide