AI Vibe Craft
← Назад к AI Vibe News

7 апреля 2026 · Редакция AI Vibe

Статьи

Контекст-инжиниринг: промпт — только начало

Контекстное окно агента: маленький блок промпта и крупные зоны данных, инструментов и истории

На демо всё блестит: агент отвечает вежливо, ссылается на ваш регламент, даже шутит в пределах brand voice. На третий день в проде он предлагает «упростить архитектуру» и выкинуть кусок домена, потому что в окне не оказалось нужного файла — зато торчала устаревшая выжимка из Confluence. System prompt при этом вы читали вслух на синке: он безупречен. Знакомо?

Промпт-инжиниринг — про то, как сказать. Контекст-инжиниринг — про то, что лежит перед моделью целиком: системные инструкции, few-shot, логи, вызовы инструментов, вытащенные документы, память, MCP. Летом 2025-го термин подхватили Карпатый и Тоби Лютке; в сентябре Anthropic выпустил гайд, который быстро стал настольным у многих команд. К апрелю 2026-го спорить о важности окна уже неловко — осталось научиться им управлять.

Две дисциплины, один пайплайн

Без лекции. Вот ось, по которой мы сами дебажим инциденты (структура близка к Fordel Studios, ячейки перефразированы):

Что сравниваем Промпт-инжиниринг Контекст-инжиниринг
Объект настройки Текст инструкции и примеры Весь набор сигналов в окне
Типичный факап Неверно понята задача Не попал нужный факт / «выпал» из ранней части сессии
Где искать баг Строки system Токенный дамп шага, порядок чанков, состав тулов

Моя ставка простая: плохой промпт убьёт хороший контекст. Хороший промпт не спасёт окно, если туда свален хаос. Обе дисциплины живут в одной команде, но ответственность разная.

Когда «ещё чуть подкрутим промпт» обречён

Одношаговый completion — это лампочка: включил, получил. Агент — это вечерний сервис с очередью: инструменты, RAG, ретраи, субагенты. Промпт в такой системе — не дирижёр, а один из музыкантов.

Обзоры связывают большую долю продакшн-инцидентов LLM-приложений с контекстом, а не с «слабой моделью»; Fordel Studios пишет про порядка 70 %+ контекстных ошибок. Другой частый сюжет — пилоты в enterprise, которые валятся из-за архитектуры, а не из-за формулировки welcome-message; Towards AI цитирует ~95 % провалов пилотов и до +64 % solve rate при нормальной работе с контекстом. Это не аксиомы физики — но сигнал громкий: если единственный рычаг — переписать абзац в system, вы экономите на неверной вещи.

Два класса поломок, которые я вижу чаще всего:

Перегруз и «провал» середины. Огромное окно ≠ равномерное внимание; про середину контекста говорят в связке с Lost in the Middle. Симптом: в шаге 22 агент игнорирует то, что вы сказали в шаге 2.

Однообразная траектория. Повторяющийся паттерн сообщений кормит модель одним сюжетом — ответы выравниваются в шаблон. Fordel называет это «mode collapse» по аналогии с GAN; честно: речь не про обучение сети, а про поведение при inference.

Цитата, которую любят пересказывать: у DeepMind формулируют мысль, что большинство сбоев агентов — про контекст, а не про веса. Звучит резко. На практике это значит: открыть trace раньше, чем Notion с «улучшенным промптом v11».

Пять рычагов — не законы, а стартовый набор

Сводка опирается на State of Context Engineering in 2026. У каждого рычага есть счётчик в виде latency, денег или риска.

Progressive disclosure. Не заливайте в старт сессии свод правил на тысячи токенов. Покажите каркас, раскрывайте детали по триггеру. В Cursor близкий паттерн — Skills: короткий discovery, полный SKILL.md по необходимости. Скелет:

---
name: incident-triage
description: >
  Triage production incidents from logs and alerts.
  Use when user reports outage, SLO breach, or error spike.
---

# Incident Triage
- Identify blast radius
- Pinpoint first failing dependency
- Propose rollback vs hotfix with tradeoffs

В Claude Code ту же идею часто несёт CLAUDE.md — если вы осознанно решаете, когда он влезает в окно.

Compression. История растёт — режьте и суммируйте. Совет из цепочки Manus → обзор Towards AI: не выкидывайте при сжатии свежие ошибки и последние tool calls — там плотность сигнала выше. Плата: деньги на суммаризацию и потеря мелких деталей.

Routing и субагенты. Разные домены — разные пакеты контекста. Anthropic подталкивает к субагентам с изолированными окнами. Плата: ошибся классификатор — получили блестящий ответ не на тот запрос.

Эволюция retrieval. Статичный RAG тащит одни и те же чанки. Agentic / Graph / Self-RAG — агент сам решает, когда идти за знаниями. LangGraph и Zep чаще всего всплывают как примеры инфраструктуры. Плата: сложнее отладка и риск зацикливания на поиске.

Бюджет описаний инструментов. Жирный JSON Schema = сотни токенов; десятки MCP-тулов = тысячи токенов до первой команды. Тот же обзор Towards AI предлагает динамически подгружать описания. Плата: агент мог не знать, что тул существует, пока вы его не показали; смена набора инструментов бьёт по кешу (KV-cache — в том же тексте).

Первая неделя: куда смотреть

Не героизм — симптом и один шаг.

  • Сессия длинная, «забывает» начало → compression + не трогать свежие ошибки и tool calls.
  • Один агент и бухгалтерия, и саппорт → routing или отдельные субагенты.
  • MCP раздул счёт до первого вызова → аудит схем, ленивая загрузка описаний.
  • Каждый чат тащит простыню инструкций → skills / progressive disclosure.
  • RAG врёт уверенно → чинить пайплайн извлечения, а не только строку «будь честным» в system.

Универсальный ноль: экспортировать контекст плохого шага и посчитать токены до первого полезного действия. Часто дешёвая модель с чистым окном обходит дорогую в свалке текста.

Промпт мёртв? Нет. Главный рычаг? Тоже нет.

Третий слой, который удобно держать в голове отдельно, — harness engineering: как вы доставляете контекст, где версионируете скиллы, какие лимиты на длину траектории ставите. Хорошее разведение трёх дисциплин — на dev.to.

Ограничение честное: если после чистки окна качество плоское, виноваты могут быть данные, доступы или сама постановка задачи. Контекст-инжиниринг — сильная рычаговая группа, не волшебная палочка.

Последний трюк, который я делаю перед эскалацией: в trace скрываю глазами блок system и читаю только остальное. Если там каша — никакой перфекционизм в формулировке инструкции это не заменит.

Источники

  • Anthropic — Effective Context Engineering for AI Agents
  • State of Context Engineering in 2026 (Towards AI)
  • Fordel Studios — Why Your AI Agent Fails
  • Context Engineering for AI-Assisted Coding (dev.to)
  • From Prompt Engineering to Context Engineering (Promplify)
  • Prompt Engineering Gets Attention, Context Engineering Gets Results
  • The Decoder — контекст vs промпт
  • Prompt vs Context vs Harness Engineering (dev.to)
  • Paperclipped — Context Engineering guide