⎯ TL;DR
  • «Шаблонная» рассылка — конверсия 2-5% (response rate). Это отраслевой бенчмарк cold-outreach.
  • Три компонента дают ×5-10 к этой цифре: Spintax (2× к deliverability), LLM-персонализация (2-3× к opens), human-like cadence (1.5-2× к reply rate).
  • Эффекты не складываются аддитивно — они мультипликативны. 2 × 2.5 × 1.7 ≈ 8-9×.
  • Источник цифр: внутренняя аналитика TG:ON по 2.4M отправленным сообщениям в Q4 2025. Вилка по нишам: в e-com конверсия выше, в B2B — ниже.

Когда ты видишь в ad-креативе «конверсия 47% в Telegram-рассылках» — это, скорее всего, либо вырвано из контекста (например, это response rate на определённом сегменте), либо маркетинговая натяжка. Реальная картина сложнее: 47% — это верхняя граница, достижимая только при правильном стеке в правильной нише.

Этот разбор — не про «волшебные» 47%. Это про какие конкретно механизмы поднимают конверсию с базовых 2% до «достойных» 20-30%, и как 47% достигаются в оптимальных условиях.

01 · Baseline

Что такое «2% конверсии» — какая метрика

Первый источник путаницы — все говорят «конверсия», но имеют в виду разное. В cold-outreach обычно считают 4 метрики:

МетрикаЧто считаетТипичное значение
Delivery rateСообщение дошло до получателя (не попало в spam/block)70-95%
Open rateПолучатель открыл чат (прочитал)40-80%
Response rateПолучатель ответил2-15%
Conversion rateПолучатель стал лидом/клиентом0.5-5%

В контексте «2% → 47%» речь про response rate. Это самая честная метрика для оценки качества outreach — она не считает, стал ли человек клиентом (там уже играет оффер), но считает, вызвал ли твой подход ответ.

Индустриальный бенчмарк для cold Telegram-DM в 2025 — 3-5% response rate. Источник: агрегированные отчёты сервисов cold-outreach (Lemlist, Instantly, Reply.io для email; специфика Telegram обычно хуже email из-за большего шума).

02 · Spintax

Компонент 1: Spintax-рандомизация (+2× к deliverability)

Spintax (spinning syntax) — техника, где в шаблон вставляются варианты, выбираемые случайно при отправке каждого экземпляра. Пример:

# Шаблон с spintax-вариантами "{Привет|Здравствуйте|Добрый день}, {имя}! {Узнал|Увидел} тебя в {канале|чате} "{источник}", {хотел|решил} {спросить|уточнить} про {твой опыт|твои проекты}." # 10 000 отправок = ~9 800 уникальных вариантов # Telegram content hash: каждое сообщение уникально → не группируется в спам-кластеры

Почему работает: Telegram группирует одинаковые сообщения по text hash. Если 100 аккаунтов шлют идентичный текст — SpamBot видит кластер и применяет групповую санкцию (обычно FLOOD_WAIT + potential PEER_FLOOD после 2-3 часов). Spintax ломает эту группировку на уровне отправителя.

Эмпирические цифры на наших 2.4M отправках:

43%
delivery · no spintax
1 аккаунт, 500 msg
87%
delivery · spintax
те же параметры
2.0×
lift · deliverability
от spintax только

Практическое правило: в шаблоне должно быть минимум 4-5 переменных блоков, каждый с 3+ вариантами. Это даёт ~240+ уникальных комбинаций, что достаточно для любой реалистичной партии (обычно 50-500 msg/партия).

03 · LLM Personalization

Компонент 2: LLM-персонализация (+2-3× к opens и replies)

Spintax рандомизирует формулировку, но содержание остаётся одинаковым. Следующий уровень — LLM переписывает сообщение под контекст получателя.

Что «контекст получателя»:

Базовая схема промпта для LLM (упрощённо):

prompt = f""" Ты — друг-маркетолог, пишешь короткое сообщение в Telegram. Кому: {recipient_name} Где нашли: канал '{channel_name}' ({channel_category}) Последний обсуждавшийся пост: "{last_post_snippet}" Цель: {my_offer_summary} Напиши сообщение 2-3 предложения. Упомяни канал, зацепись за пост. НЕ начинай с "Здравствуйте" или "Привет, {name}!". НЕ используй эмодзи. Тон: {tone_formal_or_casual}. """

Важный нюанс: LLM не генерирует каждое сообщение заново с нуля — слишком дорого ($0.002 × 10K = $20 на батч, и рандомность слишком высокая). На практике работает гибрид: 20-30 LLM-вариантов, сгенерированных заранее, комбинируются со spintax на лету.

Эффект на metrics:

ПодходOpen rateResponse rate
Шаблон без персонализации42%2.8%
+ spintax48%5.1%
+ имя + канал (подстановка)61%9.4%
+ LLM-переписка под контекст74%18.2%
+ human-like cadence (см. ниже)81%32.7%
+ оптимизация под нишу (верхняя граница)89%47.1%

Да, 47% — это не стартовая цифра, это потолок при полной оптимизации в благоприятной нише. Большинство клиентов видят 20-35%, что тоже ×6-10 к baseline.

«Spintax отвечает за "не попасть в спам". LLM — за "чтобы было интересно прочитать". Cadence — за "чтобы не чувствовалось роботом".» ⎯ три уровня персонализации
04 · Cadence

Компонент 3: Human-like cadence (+1.5-2× к reply rate)

Третий слой — не про текст, а про как именно этот текст приходит получателю. Массовые сендеры обычно игнорируют этот аспект, потому что он не очевиден в интерфейсе.

Что считается cadence:

  1. Typing indicator: показать «печатает...» за 1-4 секунды до отправки сообщения. Небольшая вещь, но получатель видит.
  2. Delays между сообщениями одного аккаунта: не burst, а распределение. Норма — логнормаль со средним ~90 секунд и диспертией 60-300 секунд.
  3. Разное время дня: не все 500 сообщений в 14:00 в понедельник. Распределить по 3-4 часовым окнам с паузами.
  4. Реакция на «просмотрено»: если получатель прочитал и не ответил — не строчить «?» через 10 минут. Если отписался — не добавлять в follow-up.
# Функция задержки, имитирующая человека import numpy as np def human_delay(base_seconds=90): # Логнормальное распределение: медиана ~ base_seconds, # но редкие длинные паузы до 5-10 минут (человек отвлёкся) return np.random.lognormal(mean=np.log(base_seconds), sigma=0.7) # Каждое 7-10-е отправление — расширенная пауза ("обед", "кофе") if msg_number % randint(7, 10) == 0: extended_pause(rand(300, 1800)) # 5-30 мин

Почему cadence влияет на response rate (а не только delivery): получатель подсознательно чувствует ритм. «Печатает...» перед сообщением, пауза 2 минуты после его прочтения перед твоим ответом — всё это создаёт ощущение живого разговора. В контролируемых тестах на наших данных cadence даёт +40-60% к response rate над «мгновенной» отправкой.

05 · Multiplicative effect

Почему эффекты мультипликативны, а не аддитивны

Ключевое наблюдение из данных: компоненты не складываются. Это умножающиеся коэффициенты на воронке.

2.0×
Spintax · delivery
2.5×
LLM · quality
1.7×
Cadence · reply
1.5×
Niche fit · ceiling

2.0 × 2.5 × 1.7 × 1.5 = ~12.75×. От baseline 2% это даёт 25.5%. От 3% — 38%. От 3.7% — 47%.

Почему мультипликативно: каждый компонент оперирует на своём слое воронки:

Если какой-то компонент на нуле — вся воронка падает. 100% deliverability × 0% opens = 0% response. Поэтому «добавили spintax — конверсия та же» — частая жалоба: один компонент без остальных делает мало.

06 · Implementation

Как это собирается в TG:ON

Вся воронка настраивается в UI без кода:

  1. Шаблон с spintax — редактор с live preview, показывает пример конкретной комбинации.
  2. LLM-переписка — подключаешь свой API-ключ (OpenAI, Anthropic, DeepSeek, Groq, Gemini) или используешь встроенный TG:ON-пул. Промпт настраивается под нишу и тон.
  3. Cadence profiles — «conservative» (medium delay 120s), «aggressive» (60s), «overnight» (450s). Выбирается или настраивается вручную.
  4. Контент-контекст — автоматически подхватывается из канала, где нашли лида (если парсил через TG:ON).

Вся telemetry по каждому сообщению — delivery, opens, replies, block/spam-report — идёт в дашборд, можно A/B тестить шаблоны.

⎯ скачать

TG:ON для macOS · Windows · Linux

Desktop-приложение, 160 MB. Работает локально, твои ключи остаются у тебя. 3 дня триала без карты.

Скачать бесплатно
⎯ попробовать

Spintax + LLM + Cadence.
Из коробки.

3 дня Pro-tier бесплатно. 25 аккаунтов, все модули. Прогнать свой оффер на 500-1000 сообщений и увидеть реальные цифры.

Начать триал
07 · Honest caveats

Где этого недостаточно

Честно: 47% не работает везде и всегда. Условия, при которых конверсия будет ниже:

Стек TG:ON решает проблему технической доставки и персонализации. Не решает: плохой оффер, плохой таргет, плохой continuation после первого reply.