AI Vibe Craft
← Назад к AI Vibe News

Редакция 22 апреля 2026 г.

Разборы

Наблюдаемость ИИ-агентов в продакшене: когда ломается не «модель», а видимость

Наблюдаемость ИИ-агентов в продакшене: когда ломается не «модель», а видимость. ИИ-агент в разработке может вести себя предсказуемо на ноутбуке и тихо рассыпаться после выклада. В статье Alex Cloudstar на Dev.to сдвиг объясняется не в первую очередь качеством LLM, а тем, что в продакшене не видно це

ИИ-агент в разработке может вести себя предсказуемо на ноутбуке и тихо рассыпаться после выклада. В статье Alex Cloudstar на Dev.to сдвиг объясняется не в первую очередь качеством LLM, а тем, что в продакшене не видно цепочки действий агента: промежуточные вызовы инструментов, повторы, запасные ветки и усечение контекста остаются за кадром привычного веб-логирования. Отсюда — аргумент в пользу отдельного стека наблюдаемости для агентных цепочек: session traces (трассы сессий), учёт токенов и стоимости, eval-наборы, которые крутятся в реальном проде, а не только в CI накануне релиза.

Почему классические логи плохо ложатся на цепочку событий агента

Автор противопоставляет привычную наблюдаемость HTTP-сервисов и каузальную цепь шагов агента: отдельные записи в логе могут выглядеть «успешными», а итог — неверным, потому что ошибка сидит в связке шагов, а не в одной строке access-лога. Для команд, которые строят AI-assisted сценарии с инструментами и оркестраторами, это смещает фокус с «ответил 200» к полному пути решения задачи внутри агента.

Session traces: без этого в проде почти нечего отлаживать

В оригинале session traces выведены в центр: единая нить, по которой видно, что агент делал между запросом пользователя и ответом. Без неё картинка вроде «галлюцинация» в итоговом саммари при непрозрачных tool calls, retries, fallback и truncation контекста остаётся неочевидной постфактум. Для тех, кто опирается на агентов в IDE и цепочки промптов, трассировка сессии — аналог того, что в классическом бэкенде дают корреляционные ID и структурированные логи, но с семантикой именно шага агента.

Что стоит класть в каждую трассу

По статье — практичный перечень того, что логировать на уровне шага: контекст запроса, выбор инструментов, входы и выходы вызовов, промежуточные рассуждения — там, где это допускает политика, — ошибки и повторы, финальный ответ и ссылки на внешние системы. Это напрямую кормит отладку агента и разбор инцидентов без ручного восстановления «что модель имела в виду».

Именование и структура трасс, чтобы ловить сбои, а не шум

Следующий слой — дисциплина именования и иерархии span-записей, фильтры по сессиям и теги метаданных: в потоке продакшена ими отфильтровывают релевантные траектории. В продуктах на базе LLM это стыкуется с контекст-инжинирингом: осмысленные имена и теги связывают поведение модели с версией промпта, набором инструментов и окружением; иначе поиск «той самой» аномалии оборачивается ручной охотой за иголкой.

Evals: этап, который многие оставляют на «после катастрофы»

Автор выделяет evals отдельным столпом рядом с трассами и стоимостью: без репрезентативного набора сценариев прод остаётся зоной сюрпризов. В статье контраст — высокий процент прохождения eval в тесте и слабая предсказуемость реальных сбоев, если в наборе не хватает типичных отказов; в оригинале в качестве иллюстрации встречается порядка 95% «прохода» при дырявом наборе — такие величины имеет смысл читать как авторский пример, а не внешнюю статистику рынка.

Запуск eval в проде, а не только перед деплоем

Акцент смещён на production evals: небольшой сэмпл реальных траекторий в бою (в источнике встречаются ориентиры 1–5% и отдельно 5% как примеры политики сэмплинга), отслеживание регрессий после правок промптов или инструментов, связка плохой трейс в проде → кейс в eval-наборе → исправление → запуск eval-набора → релиз. В материале это — нумерованный workflow из шести шагов; по смыслу близко к подходу команд, у которых агент — продуктовый компонент с ожидаемым уровнем качества, а не разовый скрипт.

Токены, стоимость и «дашборд качества» для LLM

Третий опорный блок в статье — token and cost attribution: сопоставление расхода с запросами, пользователями и релизами/версиями агента. Среди ориентиров для экосистемы названы, в частности, Langfuse, LangSmithLangChain / LangGraph), Braintrust, Helicone (как прокси перед провайдером LLM); для веб-части — привычные Sentry, Datadog и структурированный логгер запросов. Это связывает стек вокруг LLM с оперативной картиной: где именно «расползается» контекст и смета после рефакторинга. В оригинале приведён пример с ростом стоимости промпта порядка в 40 раз после изменений — как иллюстрация из той же статьи по указанному URL, не как независимый бенчмарк.

Недетерминизм и «плавающее» качество после релиза

Раздел про недетерминированные сбои стыкует наблюдаемость с тем, что качество в бою может просесть на порядка 15% — как сигнал инцидента в подаче автора — при отсутствии «очевидной» ошибки в отдельном запросе. Снова опора на трассы и сопоставление проходов/изменений (diff), а не на догадки о «настроении» модели. Это ближе к инженерной культуре AI-assisted разработки, чем к дебагу в одиночном чате.

Приватность, PII и политики хранения

В тексте отдельно — PII redaction, self-hosting (в т.ч. в контексте Langfuse), sampling/retention: в качестве примеров политики встречаются ориентиры хранения неуспешных трасс порядка 90 суток и усечённое хранение успешных с сэмплом и горизонтом около 30 суток — не как универсальный стандарт, а как типовой набросок. Для агентов с доступом к данным пользователей это сходится с требованиями безопасности и согласованностью MCP- и API-интеграций в продукте.

Минимальный набор, который в статье назван рабочим

В конце — нумерованный минимальный сетап: связка трасс, базового eval-набора (в оригинале фигурирует диапазон порядка 20–50 «репрезентативных» кейсов), production evals с политикой сэмплинга, дашборд стоимости и оговорки по приватности. В источнике встречается и рабочая гипотеза: в их картине «тройка» инструментов и практик закрывает около 90% «типичных» проблем — снова как оценка из той статьи, а не независимая метрика площадки.

Сдвиг мышления: от магии модели к дисциплине агента

Финал опирается на метафоры автора (не внешние факты): «traces are the new IDE», «eval set is the new test suite», «quality dashboard is the new build pipeline» — линия, что привычные опоры разработчика переносятся в мир агентов и LLM. Для того, кто ведёт vibe coding и автоматизацию через агентов в IDE, это — приглашение считать агента наблюдаемым сервисом с версионируемым качеством, а не чёрным ящиком.


Источники

  • Alex Cloudstar, AI Agent Observability: Debugging Production Agents Without Going Insane (2026), Dev.to; дата публикации на платформе: 2026-04-21T07:41:08Z (UTC). URL: Dev.to (дата обращения к странице: 2026-04-22, UTC).
  • Числовые ориентиры (95 %, 40×, 15 %, 1–5 %, 5 %, 20–50, 90/30 суток, 90 %, 100k токенов prefilled context, 30 с в качестве сигнала повторного запроса) взяты только из указанного материала с теми же URL и датой обращения 2026-04-22 (UTC); не все из них воспроизведены в тексте выше, где в основном вынесена логика, а не полный квантиль из статьи. Посты по внутренним ссылкам dev.to/blog/... не использовались.