Enterprise-лидеры в 3,5 раза глубже тянут ИИ на сотрудника — B2B Signals

У организаций в 95-м перцентиле по глубине использования ИИ на сотрудника в 3,5 раза больше сгенерированных токенов, чем у типичных компаний (в апреле 2025 года соотношение было 2x), а свежий срез B2B Signals фиксирует, что объём сообщений объясняет лишь 36% этого разрыва — основной вклад даёт более сложное встраивание моделей в работу с делегированием шагов, а не просто частота обращений к чату.
Самый резкий контраст на продвинутых инструментах: по Codex «пограничные» фирмы отправляют в 16 раз больше сообщений на сотрудника, чем типичные, и те же направления видны у ChatGPT Agent, Deep Research и пользовательских GPTs — это про агентские цепочки, где модель ведёт многошаговые задачи с контекстом организации, а не разовые подсказки.
Где разрыв подтверждается цифрами
- Cisco: в продакшен-потоках Codex сокращал время сборок на 20%, экономил 1 500+ инженерных часов в месяц и поднимал пропускную способность закрытия дефектов в 10–15 раз.
- Travelers Insurance: ассистент по первому уведомлению о убытке на моделях OpenAI рассчитан на 100 000 таких обращений в первый год эксплуатации.
- Аналитика строится на агрегированных и обезличенных enterprise-сигналах: содержимое сообщений классифицировали автоматические пайплайны без ручного разбора данных сотрудниками компании.
Приоритет метрик смещается с «сколько доступов выдали» к глубине использования: governance под реальные продакшен-сценарии, обучение как часть инфраструктуры и масштабирование практик команд, которые уже держат нагрузку в агентских workflow.
Источник: How frontier enterprises are building an AI advantage.