⎯ TL;DR
  • 80% реплаев в outreach — однотипные («сколько стоит», «как работает», «дай кейс»). Их может закрыть AI.
  • TG:ON AI Agents: Qualifier скорит лид 0-100 → при «ready to buy» передаёт Closer'у, тот ведёт сделку до оплаты.
  • LLM — любой: OpenAI / Anthropic / Gemini / DeepSeek / Groq. Ключи локальные, не через наш сервер.
  • Response latency 45s–3min (human-like). Не мгновенно — модель не выдаёт себя.
  • Hard-stop keywords (refund, complaint, lawyer) → AI останавливается, диалог уходит оператору. Safety — приоритет.
  • Пилоты: 30-50% conversations auto-closed, 15-25% auto-qualified, 20-40% human takeover. Variance по нишам.

Разберись с цифрой: ты запускаешь cold-outreach на 1000 адресов, получаешь 150 реплаев. Из этих 150 — 120 это три повторяющихся вопроса: «сколько стоит», «как работает», «а кейс есть». И 30 — «не интересно / отпишись». То есть реальной работы для человека там максимум 10 диалогов, остальное — механическая Q&A.

Проблема в том, что человек всё равно тратит на эти 150 реплаев 5-8 часов. Потому что надо открыть каждый, прочесть контекст, ответить в тоне, не спутать лиды между собой. И пока он этим занят, новые реплаи копятся, ответ уходит через 6 часов, лид уже остыл.

AI-агенты TG:ON решают именно эту проблему. Не «заменяют sales», а снимают 80% рутины и отдают человеку только те 10-20 диалогов, где он реально нужен. Ниже — как это устроено под капотом.

01 · Почему это не просто chatbot

Разница между SaaS-chatbot и LLM-based agent

Когда говорят «AI для sales», 90% людей представляют себе Intercom/Drift — деревья сценариев: «если юзер написал X → ответь Y». Это не AI, это if-else с UI. Работает на FAQ, ломается на любом нестандартном вопросе.

LLM-based agent работает иначе. Он читает весь контекст диалога (последние 20-30 сообщений + метаданные лида), рассуждает по системному промпту и генерирует ответ от нуля каждый раз. Если лид пишет «а у вас есть интеграция с Notion?» — Qualifier не ищет этот вопрос в дереве, он просто знает продукт из системного промпта и отвечает по делу.

Конкретный пример:

# Лид пишет: "Привет, видел твой канал. А TG:ON можно запустить без VPS? Я не сильно шарю в серверах." # SaaS-chatbot (сценарий): не нашёл ключевого слова → «Расскажу менеджер. Оставьте email» # LLM-based Qualifier: "Да, TG:ON — desktop-приложение для macOS/Windows/Linux. VPS не нужен, всё крутится у тебя на машине. 160 МБ, установка минут 5. Какая у тебя OS — подскажу дистрибутив."

Разница — ощутимая. Первый ответ лид просто закроет. Второй — продолжит диалог, потому что получил ответ по делу плюс follow-up-вопрос, который двигает воронку.

02 · Qualifier: архитектура

Как Qualifier скорит лида

Qualifier — первый агент в пайплайне. Задача: прочитать входящий реплай, понять, что за лид, присвоить score. Работает так:

  1. Context window: последние 20-30 сообщений диалога + метаданные (источник лида, канал, предыдущий outreach текст, время первого контакта).
  2. Сигналы для скоринга: intent (явно ли хочет), budget (упоминал ли деньги/«сколько стоит»), timeline («сейчас/через месяц/позже»), role (решает ли сам или «спрошу у команды»).
  3. Выход: score 0-100 + tags (hot / warm / cold), плюс рекомендация: автоответ / передать Closer / передать человеку.

Формула скоринга (упрощённо):

# Веса извлекаются LLM по системному промпту, # не хардкодятся — модель сама оценивает силу сигнала score = ( 0.35 * intent_strength # 0..1, «куплю» vs «просто смотрю» + 0.25 * budget_signal # упомянул цену / попросил прайс + 0.20 * timeline_urgency # «срочно» vs «через квартал» + 0.20 * authority # решает сам vs «спрошу у босса» ) * 100 if score >= 75: tag = "hot" # → Closer elif score >= 40: tag = "warm" # → продолжаем Qualifier'ом else: tag = "cold" # → вежливое прощание

В FAQ-режиме Qualifier отвечает сам на стандартные вопросы: цены, базовые тех-вопросы, как начать пилот. Если вопрос вне его компетенции — эскалирует дальше по пайплайну.

03 · Closer: handoff и pricing

Передача разговора и закрытие сделки

Когда Qualifier ставит hot, диалог бесшовно передаётся Closer'у. С точки зрения лида — ничего не меняется: тот же тон, тот же аккаунт. Под капотом же меняется системный промпт и объём контекста: у Closer'а подгружается полный pricing sheet, case studies, flow оплаты.

Пример диалога, где Qualifier передал, а Closer подхватил:

# Лид (hot, score 82): "Окей, звучит интересно. Сколько стоит для команды из 3 человек?" # Closer (подгрузил pricing): "Для команды 3 человек подойдёт Pro — $89/мес, включает 25 аккаунтов, AI-агенты, Live Inbox. Если нужно разделить воркспейсы между людьми — есть Team-аддон ($30/мес, отдельные логины + role-based access). Начать можно с 3-дневного триала — без карты. Дам ссылку на установку? macOS или Windows?"

Closer не «впаривает». У него в системном промпте — правило не давить: если лид говорит «дорого», предлагает Starter ($49), если «не сейчас» — аккуратно закрывает диалог с оффером вернуться через 2-3 недели. При явном сигнале готовности («возьму Pro», «давай оформлять») — отправляет payment-link и маркирует conversation как closed_won.

Latency tuned to human. Ответ не уходит моментально — рандомный интервал 45s–3min плюс индикатор «печатает». Модель не выдаёт себя скоростью. Лид не чувствует, что разговаривает с машиной — даже если подозревает, не может доказать.

04 · LLM provider — твой выбор

Пять провайдеров, разные компромиссы

TG:ON не привязан к одному LLM. Ты выбираешь провайдера и вставляешь свой API-ключ — он хранится локально на твоей машине, через наш сервер не проходит. Сравнение:

ПровайдерСильная сторонаСлабое место~$ / 1K messagesКогда брать
OpenAI (GPT-4o)Лучшее качество диалога, уверенное reasoningДороже остальных$2.50–5.00Высокий чек ($500+), важна каждая сделка
Anthropic (Claude)Лучший safety, аккуратный тон, меньше hallucinationЦена близка к OpenAI$2.00–4.50Регулируемые ниши (fintech, health), чувствительные аудитории
Gemini (2.0 Flash)Сильная цена/качество, длинный контекстБывает «сухим» в тоне$0.50–1.20Большой объём (10K+ диалогов/мес), средний чек
DeepSeekУльтра-дёшево, неплохое качество на RUХуже на нестандартных вопросах$0.15–0.40Массовый B2C, низкий чек, RU-рынок
Groq (Llama 3.3)Быстрее всех (200+ tokens/s), OSS-модельКонтекст короче, нужны тюны промпта$0.30–0.80Если критична latency (Groq + искусственная задержка в UI)

Типичный сетап на пилотах: Claude для Closer (качество закрытия критично) + DeepSeek/Gemini для Qualifier (объём больше, качество важно меньше, чем на этапе закрытия). Экономика — в 3-5 раз дешевле чем «всё на GPT-4o» при сопоставимом итоговом результате.

«Мы не делаем AI-провайдера из TG:ON. Мы делаем раннер. Твой ключ, твой провайдер, твои логи — у нас не хранится ничего, кроме структуры диалога для UI.»
05 · Safety rails и hard-stops

Когда AI замолкает и зовёт человека

AI в диалоге с живым клиентом — это риск. Одна галлюцинация («мы даём money-back 60 дней» когда на самом деле 14) = юридическая проблема. Поэтому в Qualifier/Closer вшит жёсткий layer hard-stops:

Escalation flow визуально:

# Шаги при срабатывании hard-stop 1. Qualifier/Closer: detect(message) → hard_stop = True 2. conversation.status = "escalated" 3. ai.stop() # больше не отвечает 4. notify_operator(conversation_id, reason) 5. inbox.mark_priority(conversation) # вверх очереди 6. await human.take_over() # ждём человека
06 · Метрики с реальных пилотов

Числа, а не обещания

За 2025-2026 мы прогнали Qualifier+Closer на 40+ пилотах — от B2B SaaS до infoproducts, 2 fintech-клиента. Медианные цифры:

30–50%
auto-closed
AI довёл до оплаты
15–25%
auto-qualified
передано оператору горячим
20–40%
human takeover
человек ведёт с начала
5–15%
auto-rejected
not-a-fit, вежливо закрыто

Разброс — по нишам:

Мы не обещаем, что AI закроет всё. Есть ниши, где AI — только первый фильтр, а сделку ведёт человек. Это нормально. Суть — снять рутину, а не заменить sales-директора.

⎯ скачать

TG:ON для macOS · Windows · Linux

Десктоп-приложение, 160 МБ. Работает локально, твои ключи у тебя. 3 дня триала без карты.

Скачать бесплатно
⎯ запусти AI

Qualifier + Closer
в Pro тарифе.

Твой LLM ключ. Локально. Без нашего relay. Пилот на 100 conversations за триал — пойдёт или нет.

Попробовать