01 · ВХОДЯЩЕЕ СООБЩЕНИЕ КЛИЕНТА
// поток обработки сообщения
💬 msg
→
📦 история + инструкции + БЗ + msg
ВСЁ СРАЗУ
ВСЁ СРАЗУ
→
🤖 ×1
ИИ
ИИ
→
ответ?
⚠ ошибки
⚠ ошибки
VS
// цепочка нейроузлов-препроцессоров
💬 msg
→
📋 препроцессор
🗜️ саммаризатор
🧩 декомпозитор
→
чистый
контекст
→ ИИ ✓
контекст
→ ИИ ✓
💬 Сообщение клиента получено
Сообщение немедленно кидается в общий промпт вместе со всем предыдущим диалогом, всеми инструкциями и базой знаний.
Нет предобработки. Нет разбора на смыслы. ИИ получает всё сразу — и должен сам разобраться: что тут вопрос, что возражение, где он находится в скрипте.
Нет предобработки. Нет разбора на смыслы. ИИ получает всё сразу — и должен сам разобраться: что тут вопрос, что возражение, где он находится в скрипте.
💬 Сообщение клиента получено
Сообщение не идёт сразу к основному ИИ. Запускается цепочка нейроузлов-препроцессоров, которые готовят минимальный, чистый контекст.
Каждый нейроузел решает одну задачу — и только её. Основной ИИ получает уже «разжёванное» задание.
Каждый нейроузел решает одну задачу — и только её. Основной ИИ получает уже «разжёванное» задание.
02 · УПРАВЛЕНИЕ КОНТЕКСТОМ ДИАЛОГА
// рост промпта по шагам — токенов
VS
// размер промпта основного ИИ — константа
нейроузел-саммаризатор сжимает историю перед каждым запросом
📜 Промпт копится
При каждом новом сообщении в промпт добавляется вся история переписки. Через 10–20 сообщений промпт становится огромным.
→
Шаг 1: «Привет, интересует ваш товар» — 500 токенов в промпте
↓
→
Шаг 5: добавились ещё 4 сообщения → 1 800 токенов ↓
→
Шаг 10: промпт разросся → 4 000+ токенов ↓
!
ИИ «теряет» детали из начала диалога, начинает противоречить себе
📋 Нейроузел: генерация саммари
Перед каждым ответом отдельный нейроузел сжимает историю диалога в компактное саммари. Промпт для основного ИИ не растёт — он всегда минимальный.
1
Последние 20 сообщений → нейроузел-саммаризатор
↓
2
Выход: «Клиент интересуется X, уже обсудили Y, ждёт ответа по Z» — 200 токенов
↓
3
Основной ИИ получает только это саммари — без лишнего шума
03 · АНАЛИЗ СМЫСЛОВ СООБЩЕНИЯ КЛИЕНТА
// один промпт — все задачи одновременно
❓ вопрос + 😤 возражение + 📋 просьба + 😐 тон + 📍 позиция в скрипте + 📚 поиск в БЗ
→ ИИ разбирается сам → пропуски, ошибки ✗
VS
// атомарная декомпозиция — каждый смысл в свой узел
❓ вопросы → узел A
😤 возражения → узел B
📋 запросы → узел C
😐 тон + интерес → узел D
ни один смысл не теряется — специализация узлов ✓
🔀 Всё валится в один запрос
ИИ сам должен понять: это вопрос? Возражение? Просьба? Одновременно он должен найти ответ в базе знаний, определить этап скрипта и сформулировать ответ.
Чем больше смыслов в одном промпте — тем выше вероятность, что ИИ что-то пропустит или придумает.
Чем больше смыслов в одном промпте — тем выше вероятность, что ИИ что-то пропустит или придумает.
Сообщение клиента
(всё сразу)
(всё сразу)
→
1 большой промпт
разобрать всё
разобрать всё
→
ответ
возможны ошибки
возможны ошибки
🧩 Нейроузел: декомпозиция сообщения
Отдельный нейроузел разбирает сообщение клиента на атомарные смыслы:
- Вопросы (что клиент хочет узнать?)
- Запросы (что клиент просит сделать?)
- Возражения (что клиента смущает/останавливает?)
- Эмоциональный тон и уровень интереса
Каждый тип смысла идёт к своему специализированному узлу. Ни один смысл не теряется.
04 · ОПРЕДЕЛЕНИЕ ЭТАПА И ШАГА СКРИПТА
// скрипт загружен целиком — ИИ ориентируется сам
Этап 1
→
Этап 2
→
???
ИИ угадывает
ИИ угадывает
→
Этап N
точность ≈ 55% — пропуски этапов, возвраты, хаос ✗
VS
// каскадное трёхузловое определение позиции
узел-1: этап
узел-2: шаг
узел-3: роль ИИ
→
📍 точная
позиция
~97% ✓
позиция
~97% ✓
❓ ИИ угадывает позицию
Система не отслеживает точно, где находится диалог в скрипте. Весь скрипт загружен в промпт — ИИ должен сам сориентироваться, какой шаг сейчас.
В длинных скриптах ИИ часто перескакивает этапы, возвращается назад или пропускает важные блоки.
В длинных скриптах ИИ часто перескакивает этапы, возвращается назад или пропускает важные блоки.
📍 Каскадный нейроузел: локация в скрипте
Отдельный каскад из нейроузлов точно определяет текущую позицию в скрипте продаж:
1
Нейроузел-1: определяет этап (квалификация / презентация / закрытие...)
↓
2
Нейроузел-2: определяет шаг внутри этапа (конкретный блок скрипта)
↓
3
Нейроузел-3: определяет роль ИИ в данный момент (информировать / убеждать / задать вопрос...)
05 · РАБОТА С БАЗОЙ ЗНАНИЙ
// архитектура базы знаний
🗄️ ОДНА БОЛЬШАЯ БЗ
товары · цитаты · скрипт · цены · возражения
конфликты данных · шум · галлюцинации ✗
товары · цитаты · скрипт · цены · возражения
конфликты данных · шум · галлюцинации ✗
VS
// три изолированные специализированные базы
📚 БЗ-1
Основная
мультиагент внутри
Основная
мультиагент внутри
💬 БЗ-2
Цитаты
только релевантные
Цитаты
только релевантные
🛍️ БЗ-3
Товары
каскад A→B узлов
Товары
каскад A→B узлов
изолированы · нет конфликтов · точный поиск ✓
📂 Одна большая база в промпте
Вся база знаний загружается в один промпт целиком или частично через RAG. ИИ должен найти нужный ответ среди огромного объёма данных.
Чем больше база — тем выше вероятность конфликтов между ответами, смешения данных и галлюцинаций на основе «похожей, но другой» информации.
Чем больше база — тем выше вероятность конфликтов между ответами, смешения данных и галлюцинаций на основе «похожей, но другой» информации.
Вопрос клиента
→
ВСЯ база
знаний
знаний
→
ИИ ищет ответ
в большом массиве
в большом массиве
🗂️ Три специализированные базы + мультиагентность
База 1: Основная база знаний
Внутри базы тоже работает мультиагентность — промпт разделён, поиск ведётся параллельно по тематическим блокам.
Внутри базы тоже работает мультиагентность — промпт разделён, поиск ведётся параллельно по тематическим блокам.
База 2: База цитат
Экспертные формулировки, проверенные ответы на возражения, усиливающие контекст ИИ. Нейроузел извлекает только релевантные цитаты — не всё подряд.
Экспертные формулировки, проверенные ответы на возражения, усиливающие контекст ИИ. Нейроузел извлекает только релевантные цитаты — не всё подряд.
База 3: База товаров (каскад)
А
Нейроузел-1: тегирует запрос клиента → формирует точный поисковый запрос по SKU
↓
Б
Нейроузел-2: из потенциально подходящих товаров извлекает только нужные 06 · БЕЗОПАСНОСТЬ И УТЕЧКА ДАННЫХ
// единая точка хранения = единая точка утечки
🔓 ЕДИНЫЙ ПРОМПТ
скрипт + ноу-хау + цены + логика + вся БЗ
скрипт + ноу-хау + цены + логика + вся БЗ
50 тест-запросов → ноу-хау полностью воссоздано ⚠
VS
// дефрагментация — смыслы рассеяны по десяткам промптов
A
B
C
D
E
F
G
H
I
J
K
L
каждый узел видит только свой фрагмент — система невосстановима ✓
🔓 Все данные в одном месте
Все коммерческие данные, ноу-хау компании, скрипты, цены и база знаний — находятся в одном промпте.
Это означает:
Это означает:
- Один промпт = одна точка утечки
- Смыслы и бизнес-логика целиком передаются в LLM
- Ответы модели могут быть использованы для дообучения LLM-провайдера
- Конкурент, сделав 50 тест-запросов, может воссоздать вашу базу знаний
- Клиент-манипулятор может вытащить «запрещённые» части промпта
🔐 Дефрагментация смыслов
Каждый нейроузел видит только свой фрагмент контекста. Ни один узел не имеет доступа ко всей системе.
Это означает:
Это означает:
- Нет единой точки утечки — смыслы разбиты по десяткам промптов
- Даже если один узел скомпрометирован — он не раскрывает систему целиком
- Ноу-хау в скрипте не попадает в глобальное обучение LLM
- Манипуляция клиентом работает только с одним микро-фрагментом
- База цитат, база товаров, скрипт — разные изолированные контуры
07 · СИТУАЦИЯ: ОТВЕТА НЕТ В БАЗЕ ЗНАНИЙ
// нет ответа в БЗ → что происходит у конкурентов
❓ вопрос
не покрыт
не покрыт
→
🎲 ИИ
придумывает
ГАЛЛЮЦИНАЦИЯ
придумывает
ГАЛЛЮЦИНАЦИЯ
→
клиент
получает
ложь ✗
получает
ложь ✗
VS
// живой контур: эскалация + самообучение
❓ нет в БЗ
→
📲 уведомление
менеджеру
менеджеру
→
✍️ менеджер
отвечает
отвечает
→
📚 в БЗ
автоматически
автоматически
→
✓ точный
ответ
ответ
🎲 ИИ придумывает
Если в базе знаний нет точного ответа на вопрос клиента — ИИ галлюцинирует: придумывает цифры, условия, даты, гарантии.
Клиент получает уверенный ответ, который не соответствует реальности. Это порождает жалобы, возвраты, разрушенные сделки.
Клиент получает уверенный ответ, который не соответствует реальности. Это порождает жалобы, возвраты, разрушенные сделки.
→
Вопрос клиента не покрыт базой знаний
↓
!
ИИ самостоятельно генерирует «похожий» ответ из обучения
↓
✗
Клиент получает недостоверную информацию 👤 Живой контур: эскалация + самообучение
Если ни одна база не покрывает вопрос — система не придумывает.
1
Нет ответа в БЗ → автоматическое уведомление менеджеру ↓
2
Клиенту: «Уточняю информацию, отвечу через X минут» ↓
3
Менеджер отвечает → ответ автоматически заносится в базу знаний ↓
4
Ответ клиенту формируется строго по данным менеджера — без домысла
↓
5
Система самообучилась — следующий раз ответит сама
08 · МОДУЛЬ ОТПРАВКИ СООБЩЕНИЙ
// один большой блок — всё вместе
📤 ОДНО СООБЩЕНИЕ
ответы + файлы + вопросы — один блок текста
уведомление = стена текста · мяч у ИИ · диалог гаснет ✗
ответы + файлы + вопросы — один блок текста
уведомление = стена текста · мяч у ИИ · диалог гаснет ✗
VS
// умная отправка — три смысловые волны
📝 Волна 1: ответы + информация + ссылки
🖼️ Волна 2: медиафайлы отдельно (если нужно)
❓ Волна 3: проактивный вопрос → мяч у клиента ✓
📤 Одно сообщение — всё сразу
Система генерирует одно большое сообщение и отправляет его. Никакой логики разбивки — текст, файлы, вопросы — всё в одном блоке.
Уведомление на телефоне клиента показывает длинный текст без вопроса — мяч остаётся на стороне ИИ, диалог затухает.
Уведомление на телефоне клиента показывает длинный текст без вопроса — мяч остаётся на стороне ИИ, диалог затухает.
📤 Умный модуль отправки: 3 волны
Сформированный ответ разделяется на смысловые блоки и отправляется в нужном порядке:
1
Первое сообщение: все ответы на вопросы + важная информация + встроенные ссылки на картинки/файлы из базы знаний (монолитно, органично)
↓
2
Медиа-волна: картинки и файлы отправляются отдельно, если они не вписаны в текст первого блока
↓
3
Проактивный вопрос (если клиент не пишет следующим): отдельное сообщение по скрипту — уведомление = вопрос к клиенту = мяч на его стороне 09 · КЛИЕНТ НЕ ОТВЕЧАЕТ — ЧТО ПРОИСХОДИТ?
// клиент замолчал — реакция
клиент
молчит
молчит
→
🔇 тишина
или
шаблонный
напоминатель
или
шаблонный
напоминатель
без контекста · без привязки к скрипту · нет персонализации ✗
VS
// каскадная цепочка дожимов по скрипту
t+X ч дожим-1: шаг скрипта + интересы клиента
t+Y ч дожим-2: другой угол подачи
t+Z ч дожим-3: закрывающее предложение ✓
🔇 Тишина
Большинство конкурирующих решений либо ничего не делают при молчании клиента, либо отправляют один шаблонный «follow-up» через заданное время.
Нет учёта контекста. Нет логики по скрипту. Нет каскадной цепочки.
Нет учёта контекста. Нет логики по скрипту. Нет каскадной цепочки.
- Стандартный напоминатель без персонализации
- Нет учёта того, на каком этапе остановился клиент
- Нет привязки к возражениям из предыдущего диалога
📲 Досыльные сообщения по скрипту
Если клиент не ответил — включается каскадная цепочка дожимов с полным пайплайном обработки:
1
Определяется, на каком шаге скрипта остановился клиент ↓
2
Из скрипта берётся нужный follow-up блок — с учётом возражений и интересов клиента ↓
3
Досыльное сообщение проходит тот же пайплайн: саммари → базы знаний → проверка → разбивка → отправка
↓
4
Если нет ответа снова — следующий дожим по расписанию с другим углом подачи 10 · МАТЕМАТИКА ГАЛЛЮЦИНАЦИЙ
// накопление ошибок — вероятность галлюцинации растёт
шаг 1→шаг 10
VS
// независимые узлы — каждый несёт только свою ошибку
шаг 1→шаг 10
📉 Накопительный эффект ошибок
При большом промпте — вероятность галлюцинации на каждом шаге около 10%. Это не просто неудобно — это математически катастрофично для длинных диалогов:
1
Шаг 1 — вероятность ошибки: 10%3
Шаг 3 — вероятность что хотя бы 1 ошибка: 27%5
Шаг 5 — вероятность ошибки: 41%7
Шаг 7 — вероятность ошибки: 52%10
Шаг 10 — вероятность ошибки: ≈ 65%📈 Разгруженный промпт = контролируемый результат
Каждый нейроузел получает минимальный, точный контекст с единственной задачей. Вероятность ошибки каждого узла — менее 1%.
1
Саммари-узел — 1 задача → вероятность ошибки: ~0.5%2
Декомпозиция — 1 задача → вероятность ошибки: ~0.5%3
Скрипт-каскад — 1 задача → вероятность ошибки: ~0.5%4
Сборка финального ответа — 1 задача → ~1%✓
Совокупная вероятность ошибки за 10 шагов диалога: ≈ 3–5%11 · ИТОГОВОЕ СРАВНЕНИЕ ПО КЛЮЧЕВЫМ ПАРАМЕТРАМ
Итог: 30 секунд — это цена качества
Разгруженный ИИ = точный ИИ
Чем меньше задач у одного узла — тем точнее он их выполняет. Мы работаем на понижение нагрузки, а не на скорость
Дефрагментация = защита ноу-хау
Никакой узел не видит всю систему. Смыслы рассеяны по десяткам промптов — это невозможно воссоздать или утечь
65% → 3–5% галлюцинаций
Это разница между системой, которая иногда работает — и системой, которой можно доверить реальные продажи
* 30 секунд — среднее время при активной параллельной обработке 10+ нейроузлов. Клиент воспринимает это как «думающий ИИ», а не как задержку — при правильной настройке UX.
