К сайту подключены сервис веб-аналитики Яндекс.Метрика и пиксель ВКонтакте, которые используют файлы cookie. Вы даете свое согласие на обработку персональных данных с помощью этих сервисов в порядке, указанном в Политике конфиденциальности и Согласии на обработку персональных данных?
Да, я согласен
кейс

Как мы с "Википедией" помогали продавать предметы роскоши?

Меня пригласили в проект крупной торговой сети. Нужно было писать статьи для блога на «Дзене», чтобы привлечь внимание к бренду.

Продукция — предметы роскоши. Продавать их напрямую не планировалось, задача была — заинтересовать аудиторию и удержать её внимание.

Где я брал фактуру?

В качестве стартовой точки использовал «Википедию». Система гиперссылок в статьях вязкая, как болото: начав читать одну статью, можно открыть десяток-другой гиперссылок на близкие темы.

Таким образом, за один присест я находил множество потенциальных тем, которые проверял по отдельности. А проверять было что: «Википедия» та еще врунья.

Как я проверял информацию с помощью ИИ?

Для скорости я пользовался нейросетями, но обязательно добивался, чтобы они давали ссылки на источники. Например, для Perplexity я использую такой промпт:
Проверь факты и обоснуй каждое предложение источниками в интернете. Если обосновать невозможно, сообщи мне.
Важно писать именно “источники”, потому что часто нейросети относятся к ссылкам, как к тексту. Не понимая, что люди прописывают URL-адреса как Бог на душу положит, они моделируют их по теории вероятности.

Тот факт, что теория вероятности еще ни разу не помогла обыграть казино, их мало волнует. В результате, пользователь получает потраченное время и “битые” ссылки, которые в лучшем случае ведут на страницу 404.

Как я отбирал темы в контент-план?

Потрошение «Википедии» сильно экономило мое время. В результате, я собрал черновой список тем, связанных с историческими событиями, известными людьми и предметами роскоши.

Потом вычеркнул больше половины списка, фильтруя его с учетом целевой аудитории. Опирался на темы, которые уже “заходили” читателям и давали хороший всплеск статистики.

Еще я оставил в контент-плане темы, которые теоретически могли понравиться читателям, либо гарантированно вызывают в интернете самые ожесточенные споры.

А дальше все просто.
Утвердил темы с редактором и стал готовить тексты.

Как велась работа

Всего для проекта я написал порядка 40 статей.

Редактор дал мне максимальную свободу, поэтому правки касались только стилистики и тональности. Важно было, чтобы все авторы блога писали плюс-минус одинаково.

Настройка манеры письма заняла какое-то время, но уже четвертый текст остался без особых корректив. Вот как я этого добился.

Как я подстраивался под общий tone of voice блога?

Собрав в текстовом файле 15 недавних статей, я скормил их онлайн-сервису. В результате, у меня появились самые употребимые слова и выражения, которые я использовал для подкрутки тональности.

Отдельно я добыл аналитику по построению и длине предложений. Ведь важно не просто вворачивать определенные слова, надо придерживаться манеры изложения, которую выбрал бренд.

Способ, которым я воспользовался - не единственный из возможных. Но достаточно действенный, чтобы оперативно разобраться со стилистикой незнакомого доселе автора.

Каких результатов я добился?

Ниже я подготовил свод статистики по своим статьям, опубликованным в рамках этого проекта.

Работа велась по Договору неразглашения (NDA), поэтому ссылок на сам проект я не даю. Однако, цифры показать можно. Для наглядности, обозначу средние значения по трем показателям.

  • Время чтения: 2 минуты 41 секунда
  • Глубина чтения: 65%
  • CTR: 7,9%
Made on
Tilda