- «Шаблонная» рассылка — конверсия 2-5% (response rate). Это отраслевой бенчмарк cold-outreach.
- Три компонента дают ×5-10 к этой цифре: Spintax (2× к deliverability), LLM-персонализация (2-3× к opens), human-like cadence (1.5-2× к reply rate).
- Эффекты не складываются аддитивно — они мультипликативны. 2 × 2.5 × 1.7 ≈ 8-9×.
- Источник цифр: внутренняя аналитика TG:ON по 2.4M отправленным сообщениям в Q4 2025. Вилка по нишам: в e-com конверсия выше, в B2B — ниже.
Когда ты видишь в ad-креативе «конверсия 47% в Telegram-рассылках» — это, скорее всего, либо вырвано из контекста (например, это response rate на определённом сегменте), либо маркетинговая натяжка. Реальная картина сложнее: 47% — это верхняя граница, достижимая только при правильном стеке в правильной нише.
Этот разбор — не про «волшебные» 47%. Это про какие конкретно механизмы поднимают конверсию с базовых 2% до «достойных» 20-30%, и как 47% достигаются в оптимальных условиях.
Что такое «2% конверсии» — какая метрика
Первый источник путаницы — все говорят «конверсия», но имеют в виду разное. В cold-outreach обычно считают 4 метрики:
| Метрика | Что считает | Типичное значение |
|---|---|---|
| Delivery rate | Сообщение дошло до получателя (не попало в spam/block) | 70-95% |
| Open rate | Получатель открыл чат (прочитал) | 40-80% |
| Response rate | Получатель ответил | 2-15% |
| Conversion rate | Получатель стал лидом/клиентом | 0.5-5% |
В контексте «2% → 47%» речь про response rate. Это самая честная метрика для оценки качества outreach — она не считает, стал ли человек клиентом (там уже играет оффер), но считает, вызвал ли твой подход ответ.
Индустриальный бенчмарк для cold Telegram-DM в 2025 — 3-5% response rate. Источник: агрегированные отчёты сервисов cold-outreach (Lemlist, Instantly, Reply.io для email; специфика Telegram обычно хуже email из-за большего шума).
Компонент 1: Spintax-рандомизация (+2× к deliverability)
Spintax (spinning syntax) — техника, где в шаблон вставляются варианты, выбираемые случайно при отправке каждого экземпляра. Пример:
Почему работает: Telegram группирует одинаковые сообщения по text hash. Если 100 аккаунтов шлют идентичный текст — SpamBot видит кластер и применяет групповую санкцию (обычно FLOOD_WAIT + potential PEER_FLOOD после 2-3 часов). Spintax ломает эту группировку на уровне отправителя.
Эмпирические цифры на наших 2.4M отправках:
Практическое правило: в шаблоне должно быть минимум 4-5 переменных блоков, каждый с 3+ вариантами. Это даёт ~240+ уникальных комбинаций, что достаточно для любой реалистичной партии (обычно 50-500 msg/партия).
Компонент 2: LLM-персонализация (+2-3× к opens и replies)
Spintax рандомизирует формулировку, но содержание остаётся одинаковым. Следующий уровень — LLM переписывает сообщение под контекст получателя.
Что «контекст получателя»:
- Канал, где нашли лида (крипто, SMM, e-com, edtech — разный словарь)
- Язык и регион (по
lang_codeи bio) - Последний пост канала (актуальная тема → упоминание в сообщении = релевантность)
- Имя получателя (если есть, подставляется грамматически правильно)
- Тон канала (формальный / неформальный → разная стилистика)
Базовая схема промпта для LLM (упрощённо):
Важный нюанс: LLM не генерирует каждое сообщение заново с нуля — слишком дорого ($0.002 × 10K = $20 на батч, и рандомность слишком высокая). На практике работает гибрид: 20-30 LLM-вариантов, сгенерированных заранее, комбинируются со spintax на лету.
Эффект на metrics:
| Подход | Open rate | Response rate |
|---|---|---|
| Шаблон без персонализации | 42% | 2.8% |
| + spintax | 48% | 5.1% |
| + имя + канал (подстановка) | 61% | 9.4% |
| + LLM-переписка под контекст | 74% | 18.2% |
| + human-like cadence (см. ниже) | 81% | 32.7% |
| + оптимизация под нишу (верхняя граница) | 89% | 47.1% |
Да, 47% — это не стартовая цифра, это потолок при полной оптимизации в благоприятной нише. Большинство клиентов видят 20-35%, что тоже ×6-10 к baseline.
Компонент 3: Human-like cadence (+1.5-2× к reply rate)
Третий слой — не про текст, а про как именно этот текст приходит получателю. Массовые сендеры обычно игнорируют этот аспект, потому что он не очевиден в интерфейсе.
Что считается cadence:
- Typing indicator: показать «печатает...» за 1-4 секунды до отправки сообщения. Небольшая вещь, но получатель видит.
- Delays между сообщениями одного аккаунта: не burst, а распределение. Норма — логнормаль со средним ~90 секунд и диспертией 60-300 секунд.
- Разное время дня: не все 500 сообщений в 14:00 в понедельник. Распределить по 3-4 часовым окнам с паузами.
- Реакция на «просмотрено»: если получатель прочитал и не ответил — не строчить «?» через 10 минут. Если отписался — не добавлять в follow-up.
Почему cadence влияет на response rate (а не только delivery): получатель подсознательно чувствует ритм. «Печатает...» перед сообщением, пауза 2 минуты после его прочтения перед твоим ответом — всё это создаёт ощущение живого разговора. В контролируемых тестах на наших данных cadence даёт +40-60% к response rate над «мгновенной» отправкой.
Почему эффекты мультипликативны, а не аддитивны
Ключевое наблюдение из данных: компоненты не складываются. Это умножающиеся коэффициенты на воронке.
2.0 × 2.5 × 1.7 × 1.5 = ~12.75×. От baseline 2% это даёт 25.5%. От 3% — 38%. От 3.7% — 47%.
Почему мультипликативно: каждый компонент оперирует на своём слое воронки:
- Spintax — увеличивает долю дошедших сообщений
- LLM — увеличивает долю открытых из дошедших
- Cadence — увеличивает долю ответивших из открывших
- Niche fit — сдвигает baseline response rate у уже вовлечённых
Если какой-то компонент на нуле — вся воронка падает. 100% deliverability × 0% opens = 0% response. Поэтому «добавили spintax — конверсия та же» — частая жалоба: один компонент без остальных делает мало.
Как это собирается в TG:ON
Вся воронка настраивается в UI без кода:
- Шаблон с spintax — редактор с live preview, показывает пример конкретной комбинации.
- LLM-переписка — подключаешь свой API-ключ (OpenAI, Anthropic, DeepSeek, Groq, Gemini) или используешь встроенный TG:ON-пул. Промпт настраивается под нишу и тон.
- Cadence profiles — «conservative» (medium delay 120s), «aggressive» (60s), «overnight» (450s). Выбирается или настраивается вручную.
- Контент-контекст — автоматически подхватывается из канала, где нашли лида (если парсил через TG:ON).
Вся telemetry по каждому сообщению — delivery, opens, replies, block/spam-report — идёт в дашборд, можно A/B тестить шаблоны.
TG:ON для macOS · Windows · Linux
Desktop-приложение, 160 MB. Работает локально, твои ключи остаются у тебя. 3 дня триала без карты.
Скачать бесплатноSpintax + LLM + Cadence.
Из коробки.
3 дня Pro-tier бесплатно. 25 аккаунтов, все модули. Прогнать свой оффер на 500-1000 сообщений и увидеть реальные цифры.
Начать триалГде этого недостаточно
Честно: 47% не работает везде и всегда. Условия, при которых конверсия будет ниже:
- Холодная ниша или «широкий» оффер — если ты пишешь «кому-то про что-то», даже гениальный LLM не спасёт. Нишуй.
- B2B с длинным циклом решений — response может быть, но не на оффер, а «расскажите подробнее в Zoom». Это тоже успех, но не «клиент сегодня».
- Оффер не соответствует каналу — ты парсил крипто-трейдинг канал, предлагаешь SaaS для e-com. Не бывает магии.
- Получатели не в твоей сессии — юзер из канала может быть неактивным месяц. Фильтр по
last_seenважен.
Стек TG:ON решает проблему технической доставки и персонализации. Не решает: плохой оффер, плохой таргет, плохой continuation после первого reply.