- 80% реплаев в outreach — однотипные («сколько стоит», «как работает», «дай кейс»). Их может закрыть AI.
- TG:ON AI Agents: Qualifier скорит лид 0-100 → при «ready to buy» передаёт Closer'у, тот ведёт сделку до оплаты.
- LLM — любой: OpenAI / Anthropic / Gemini / DeepSeek / Groq. Ключи локальные, не через наш сервер.
- Response latency 45s–3min (human-like). Не мгновенно — модель не выдаёт себя.
- Hard-stop keywords (refund, complaint, lawyer) → AI останавливается, диалог уходит оператору. Safety — приоритет.
- Пилоты: 30-50% conversations auto-closed, 15-25% auto-qualified, 20-40% human takeover. Variance по нишам.
Разберись с цифрой: ты запускаешь cold-outreach на 1000 адресов, получаешь 150 реплаев. Из этих 150 — 120 это три повторяющихся вопроса: «сколько стоит», «как работает», «а кейс есть». И 30 — «не интересно / отпишись». То есть реальной работы для человека там максимум 10 диалогов, остальное — механическая Q&A.
Проблема в том, что человек всё равно тратит на эти 150 реплаев 5-8 часов. Потому что надо открыть каждый, прочесть контекст, ответить в тоне, не спутать лиды между собой. И пока он этим занят, новые реплаи копятся, ответ уходит через 6 часов, лид уже остыл.
AI-агенты TG:ON решают именно эту проблему. Не «заменяют sales», а снимают 80% рутины и отдают человеку только те 10-20 диалогов, где он реально нужен. Ниже — как это устроено под капотом.
Разница между SaaS-chatbot и LLM-based agent
Когда говорят «AI для sales», 90% людей представляют себе Intercom/Drift — деревья сценариев: «если юзер написал X → ответь Y». Это не AI, это if-else с UI. Работает на FAQ, ломается на любом нестандартном вопросе.
LLM-based agent работает иначе. Он читает весь контекст диалога (последние 20-30 сообщений + метаданные лида), рассуждает по системному промпту и генерирует ответ от нуля каждый раз. Если лид пишет «а у вас есть интеграция с Notion?» — Qualifier не ищет этот вопрос в дереве, он просто знает продукт из системного промпта и отвечает по делу.
Конкретный пример:
Разница — ощутимая. Первый ответ лид просто закроет. Второй — продолжит диалог, потому что получил ответ по делу плюс follow-up-вопрос, который двигает воронку.
Как Qualifier скорит лида
Qualifier — первый агент в пайплайне. Задача: прочитать входящий реплай, понять, что за лид, присвоить score. Работает так:
- Context window: последние 20-30 сообщений диалога + метаданные (источник лида, канал, предыдущий outreach текст, время первого контакта).
- Сигналы для скоринга: intent (явно ли хочет), budget (упоминал ли деньги/«сколько стоит»), timeline («сейчас/через месяц/позже»), role (решает ли сам или «спрошу у команды»).
- Выход: score 0-100 + tags (
hot/warm/cold), плюс рекомендация: автоответ / передать Closer / передать человеку.
Формула скоринга (упрощённо):
В FAQ-режиме Qualifier отвечает сам на стандартные вопросы: цены, базовые тех-вопросы, как начать пилот. Если вопрос вне его компетенции — эскалирует дальше по пайплайну.
Передача разговора и закрытие сделки
Когда Qualifier ставит hot, диалог бесшовно передаётся Closer'у. С точки зрения лида — ничего не меняется: тот же тон, тот же аккаунт. Под капотом же меняется системный промпт и объём контекста: у Closer'а подгружается полный pricing sheet, case studies, flow оплаты.
Пример диалога, где Qualifier передал, а Closer подхватил:
Closer не «впаривает». У него в системном промпте — правило не давить: если лид говорит «дорого», предлагает Starter ($49), если «не сейчас» — аккуратно закрывает диалог с оффером вернуться через 2-3 недели. При явном сигнале готовности («возьму Pro», «давай оформлять») — отправляет payment-link и маркирует conversation как closed_won.
Latency tuned to human. Ответ не уходит моментально — рандомный интервал 45s–3min плюс индикатор «печатает». Модель не выдаёт себя скоростью. Лид не чувствует, что разговаривает с машиной — даже если подозревает, не может доказать.
Пять провайдеров, разные компромиссы
TG:ON не привязан к одному LLM. Ты выбираешь провайдера и вставляешь свой API-ключ — он хранится локально на твоей машине, через наш сервер не проходит. Сравнение:
| Провайдер | Сильная сторона | Слабое место | ~$ / 1K messages | Когда брать |
|---|---|---|---|---|
| OpenAI (GPT-4o) | Лучшее качество диалога, уверенное reasoning | Дороже остальных | $2.50–5.00 | Высокий чек ($500+), важна каждая сделка |
| Anthropic (Claude) | Лучший safety, аккуратный тон, меньше hallucination | Цена близка к OpenAI | $2.00–4.50 | Регулируемые ниши (fintech, health), чувствительные аудитории |
| Gemini (2.0 Flash) | Сильная цена/качество, длинный контекст | Бывает «сухим» в тоне | $0.50–1.20 | Большой объём (10K+ диалогов/мес), средний чек |
| DeepSeek | Ультра-дёшево, неплохое качество на RU | Хуже на нестандартных вопросах | $0.15–0.40 | Массовый B2C, низкий чек, RU-рынок |
| Groq (Llama 3.3) | Быстрее всех (200+ tokens/s), OSS-модель | Контекст короче, нужны тюны промпта | $0.30–0.80 | Если критична latency (Groq + искусственная задержка в UI) |
Типичный сетап на пилотах: Claude для Closer (качество закрытия критично) + DeepSeek/Gemini для Qualifier (объём больше, качество важно меньше, чем на этапе закрытия). Экономика — в 3-5 раз дешевле чем «всё на GPT-4o» при сопоставимом итоговом результате.
Когда AI замолкает и зовёт человека
AI в диалоге с живым клиентом — это риск. Одна галлюцинация («мы даём money-back 60 дней» когда на самом деле 14) = юридическая проблема. Поэтому в Qualifier/Closer вшит жёсткий layer hard-stops:
- Keyword blacklist:
refund,complaint,lawyer,police,sue,contract,GDPR,возврат денег,юрист,жалоба,угроза. Любое из этих слов в реплае лида → AI немедленно останавливается, ставит conversation в статусescalated, notify оператору. - Intent-detection для финансовых тем: если лид говорит про возврат/претензию/сравнение с конкурентами в формате «обещали X, получил Y» — это автоматически эскалируется, даже без точного ключевого слова.
- Максимум N turns: по умолчанию AI ведёт максимум 15 сообщений в одном диалоге. После 15 — мягкая передача человеку («хочу убедиться, что ты получишь правильный ответ — передаю коллеге»).
- Confidence threshold: если сам LLM возвращает ответ с низкой уверенностью (модельный signal на неопределённость) — не отправляем, просим человека проверить.
Escalation flow визуально:
Числа, а не обещания
За 2025-2026 мы прогнали Qualifier+Closer на 40+ пилотах — от B2B SaaS до infoproducts, 2 fintech-клиента. Медианные цифры:
Разброс — по нишам:
- Infoproducts / courses: 45-50% auto-closed (FAQ-driven диалог, мало нюансов, AI справляется).
- B2B SaaS ($50-200 чек): 35-40% auto-closed (больше уточнений по фичам, но Closer тянет).
- B2B Enterprise ($1K+): 15-20% auto-closed (много стейкхолдеров, AI только скорит, закрывает человек).
- Fintech: 10-15% auto-closed (регуляторика, много hard-stops, AI больше пре-квалифицирует).
Мы не обещаем, что AI закроет всё. Есть ниши, где AI — только первый фильтр, а сделку ведёт человек. Это нормально. Суть — снять рутину, а не заменить sales-директора.
TG:ON для macOS · Windows · Linux
Десктоп-приложение, 160 МБ. Работает локально, твои ключи у тебя. 3 дня триала без карты.
Скачать бесплатноQualifier + Closer
в Pro тарифе.
Твой LLM ключ. Локально. Без нашего relay. Пилот на 100 conversations за триал — пойдёт или нет.
Попробовать