Вы делаете всё правильно. Контент релевантный, сайт быстрый, мобильная версия в порядке, robots.txt настроен, sitemap обновляется. Вы освоили все известные факторы ранжирования, о которых пишут в каждом SEO-блоге. Но почему-то застряли на второй странице выдачи и никак не можете пробиться выше.
Знакомая ситуация? Команда Moz провела серию экспериментов, которые объясняют этот парадокс. Оказывается, Google намеренно не рассказывает о своих главных факторах ранжирования. После того как они открыто заговорили о PageRank, SEO-специалисты чуть не разрушили поисковую выдачу массовой закупкой ссылок. Google пришлось выпускать Penguin, чтобы исправить ситуацию.
Теперь они осторожничают. Core Web Vitals обсуждают годами, хотя по собственному признанию Google — это всего лишь «тай-брейкер» между двумя равными результатами. Микроскопический фактор. А вот о действительно важных сигналах — молчат.
В этой статье разберём эксперименты с кликовыми сигналами, которые показали рост трафика от 7% до 21% без единой новой ссылки. Конкретные тесты, конкретные цифры, конкретные действия.
Прежде чем погружаться в эксперименты, вот проверенные инструменты, которые понадобятся для анализа и улучшения поведенческих метрик:
Google вкладывает миллионы долларов и тысячи человеко-часов в патенты, связанные с анализом пользовательского поведения. За последние 20 лет накопились десятки патентов, описывающих, как поисковик оценивает удовлетворённость пользователей на основе их действий.
Использует ли Google эти сигналы напрямую? Они не подтверждают и не опровергают. Но в документации «How Search Works» написано прямо: «Мы используем агрегированные и анонимизированные данные о взаимодействии пользователей для оценки релевантности результатов поиска».
Bing признаёт использование кликовых сигналов. Apple заявляет о том же при разработке своего поиска. Было бы странно, если бы Google, имея доступ к данным Chrome — крупнейшего браузера в мире — игнорировал эту информацию.
Но даже если отбросить споры о ранжировании, работа с кликовыми сигналами напрямую связана с удовлетворённостью пользователей. А Google многократно заявлял, что вознаграждает сайты, которые удовлетворяют пользовательский запрос.
Это показатель кликабельности в выдаче — CTR. Когда Google показывает список результатов, он фактически угадывает, какой из них лучший. Но если пользователи постоянно выбирают третий результат вместо первого — это сигнал, что третий может быть релевантнее.
Независимо от влияния на ранжирование, высокий CTR = больше кликов = больше трафика. Математика простая.
После того как пользователь кликнул и попал на сайт — как долго он там остаётся? Хороший контент удерживает дольше. Плохой — отпускает через секунды.
Важный нюанс: длительность зависит от типа запроса. Для «высота Эвереста» достаточно секунды — человек увидел цифру и ушёл. Для «как настроить рекламную кампанию» нужны минуты. Google понимает эту разницу.
Если пользователь после вашего сайта возвращается в Google и кликает на другой результат — вы не ответили на его вопрос. Если не возвращается — вы стали финальным ответом. Второй сценарий явно лучше.
Джон Мюллер из Google прокомментировал исследование кликовых сигналов так: «Кажется, Сайрус использует длинный пост, чтобы порекомендовать всем создавать отличные сайты, которые решают потребности пользователей». И это точное попадание — сигналы вторичны, удовлетворённость пользователя первична.
Команда Moz провела серию экспериментов с мета-описаниями и заголовками. Результаты местами неожиданные.
Гипотеза была логичной: если добавить в начало мета-описания ключевые слова из топовых запросов Google Search Console, случится две вещи. Google чаще будет показывать наше описание (а не переписывать его). И пользователи увидят релевантные слова, что повысит кликабельность.
Результат: минус 7,5% трафика.
Хуже того, поведенческие метрики тоже просели. Страницы за сессию упали на 14%, время на сайте — на 37%. Эксперимент повторили с полной переработкой описаний — результат аналогичный.
Может, Google лучше знает, что показывать? В конце концов, он переписывает около 70% мета-описаний. Попробовали убрать описания и дать Google полную свободу.
Результат: минус 3% трафика.
Не катастрофа, но и не победа. Видимо, даже несовершенное авторское описание работает лучше автоматического.
Это звучит странно, но сработало. Добавили «Google Guaranteed» в начало мета-описаний. Технически это не обман — Google действительно показывает эту страницу в результатах, то есть в каком-то смысле «гарантирует» её.
Результат: плюс 7% трафика.
Поведенческие метрики взлетели: время на сайте +139%, страницы за сессию +20%, показатель отказов снизился на 10%. Похоже, фраза создавала ожидание качественного контента, и пользователи были более вовлечены.
Конечно, массово использовать такой подход не стоит — это скорее демонстрация того, как формулировка влияет на восприятие.
На страницах с вопросами и ответами добавили «Solved» в начало заголовка, если вопрос действительно имел решение.
Результат: плюс 7% трафика.
Статистически значимый рост. Логика понятна: пользователь видит, что здесь есть ответ, а не просто обсуждение.
«Whiteboard Friday» — брендовый элемент Moz, который добавлялся к каждому видео-посту. Проблема в том, что люди не ищут «Whiteboard Friday SEO tips» — они ищут просто «SEO tips».
Результат: плюс 21% трафика.
Это был самый успешный эксперимент с заголовками. Урок простой: если повторяющийся элемент в заголовке не помогает пользователю понять, о чём страница — уберите его.
Полностью заглавные буквы в заголовке действительно повышают CTR. Но вот что происходит дальше: контент не соответствует «кричащему» заголовку, пользователь разочаровывается, поведенческие метрики падают.
Это называется «возврат на землю». Можно хакнуть CTR, но если контент не держит планку — эффект временный.
Классический совет — «добавь видео, увеличишь время на странице». Moz имеет огромную библиотеку видео за 10 лет, так что протестировать было просто.
Результат: статистически незначимый (+1,39%).
Не провал, но и не прорыв. Видео само по себе — не волшебная таблетка.
Обычно блок «Вам также понравится» прячут в конец статьи, где его почти никто не видит. А что если поднять его наверх? Причём включить туда не только свои материалы, но и ссылки на конкурентов, если у них есть более полезный контент по теме.
Результат: плюс 18,5% трафика.
Интересно, что поведенческие метрики при этом не улучшились. Возможно, Google измеряет вовлечённость иначе, чем мы думаем. Или дело просто в добавлении релевантных внутренних ссылок.
Эксперимент повторили в Search Pilot — увеличили количество связанных ссылок с 2 до 4 на страницу. Результат: +11% трафика. При этом страницы-доноры (те, откуда идут ссылки) получили рост, а страницы-получатели — нет.
Страница Moz о метрике Domain Authority хорошо ранжировалась, но анализ показал, что люди на самом деле хотят не читать о DA — они хотят проверить свой показатель.
Добавили блок «Как проверить Domain Authority» со ссылками на инструменты и скриншотом. Показатель отказов упал почти мгновенно, люди начали переходить на другие страницы, трафик вырос в 2,5 раза за несколько месяцев.
Урок: иногда страница ранжируется по запросу, но не отвечает на реальную потребность за этим запросом. Найдите, чего на самом деле хочет пользователь.
Добавили блок с часто задаваемыми вопросами внизу страниц. Вопросы брали из «People Also Ask» в Google — то есть это реальные запросы, которые люди задают по теме.
Важно: не использовали FAQ-разметку, чтобы не получать расширенные сниппеты и не искажать результаты эксперимента. Блок располагался внизу, так что до него добирались только вовлечённые пользователи.
Результат: плюс 18% трафика.
Поведенческие метрики улучшились по всем фронтам. Логика работает: если человек нашёл ответы на дополнительные вопросы прямо на странице — зачем ему возвращаться в Google?
Moz переносил раздел вопросов и ответов на новую платформу. 60 000 страниц, новые URL, никакого нового контента — только улучшение пользовательского опыта.
Что сделали:
Результат: плюс 17% трафика сразу после запуска.
Показатель отказов снизился на 30%, страницы за сессию выросли на 10%. Это была самая успешная миграция в истории Moz — обычно при переезде трафик временно падает.
Исследования в области нейромаркетинга объясняют, почему одни заголовки и описания работают лучше других. Мозг человека делится на три части: неокортекс (рациональное мышление), лимбическая система (эмоции) и рептильный мозг (инстинкты).
Рептильный мозг принимает решения быстрее всего. Он отвечает за выживание и работает на автопилоте. Когда человек сканирует результаты поиска, именно рептильный мозг решает, куда кликнуть.
Это объясняет, почему работают определённые триггеры.
Боль или желание. Покажите, что решаете проблему или исполняете желание. Uber победил не технологией — он убрал боль ожидания такси под дождём.
Эгоцентричность. Сделайте пользователя героем. Не «наш продукт делает X», а «вы получите Y».
Контраст. Мозг легко распознаёт различия. «До и после», сравнение с конкурентами, противопоставление старого и нового способа — всё это работает.
Осязаемость. Не говорите «мы эксперты» — покажите результаты. Номерной знак адвоката по разводам «WAS HIS» убедительнее любого текста о квалификации.
Начало и конец. У нас короткое внимание. Самая важная информация должна быть в первых и последних словах заголовка.
Визуальность и эмоции. Изображение стоит тысячи слов. А отрицательные эмоции (страх упустить, проблема без решения) действуют сильнее положительных.
Заголовок «Solved: настройка Google Ads за 30 минут» использует сразу несколько триггеров:
Заголовок «Полное руководство по контекстной рекламе» — скучный. Никаких триггеров, никакой конкретики, никакого обещания.
Интересное наблюдение: направление взгляда человека на изображении влияет на то, куда смотрит посетитель. Если на фото ребёнок смотрит на продукт — пользователи тоже смотрят на продукт. Если в камеру — смотрят на ребёнка и игнорируют всё остальное.
Росс Симмондс, основатель агентства Foundation, предлагает относиться к контенту как к инвестиционному портфелю. Каждая статья — это актив, который должен приносить возврат.
В 2008 году Росс вложил университетские сбережения в акции General Motors. Компания обанкротилась через несколько месяцев. Урок был дорогим, но ценным: нельзя инвестировать на основе догадок.
То же касается контента. Нельзя просто «писать статьи» и надеяться на лучшее. Нужно исследовать, что работает у конкурентов, и строить стратегию на данных.
Команда Foundation проанализировала, какой тип контента генерирует больше всего ссылок в маркетинговой нише.
Топ-1: бесплатные инструменты. Калькуляторы, генераторы, чек-листы. Shopify построил империю на бесплатных инструментах — их oberlo (купленный за $15 млн) генерирует 20 млн визитов в год.
Топ-2: страницы с определениями. «Что такое SEO», «Что такое ROI». Простой контент, низкая стоимость производства, высокий потенциал ссылок.
Топ-3: статистические подборки. «50 статистик о email-маркетинге», «Статистика YouTube 2024». На такие материалы ссылаются постоянно.
Foundation применил эти данные и создал серию статистических постов: статистика LinkedIn, статистика Reddit, статистика Instagram. В какой-то момент они ранжировались по слову «LinkedIn» на первой позиции — благодаря статье со статистикой.
Стоимость создания такого поста минимальна. Потенциал ссылок — огромный. Это и есть «инвестировать больше, гадать меньше».
Salesforce ранжируется по слову «CRM» уже много лет. В 1992 году этот запрос не стоил ничего. Но они создали страницу и продолжали её обновлять — свежие данные, новые примеры, актуальная информация.
Это стратегия «hold and optimize». Не пиши и забывай. Пиши, отслеживай, обновляй. Со временем накопленная авторитетность страницы делает её практически непобедимой для конкурентов.
Доктор Пит Майерс из Moz описывает типичную проблему конкурентного анализа: вы выгружаете 23 000 ключевых слов, вставляете их в Excel, добавляете колонки с объёмом и сложностью, и... ничего не происходит.
Если вставить 23 000 ключевых фраз в Word с нормальным форматированием, получится 257 страниц. Вы написали плохой роман, а не сделали анализ.
Классический подход — искать запросы, по которым ранжируются конкуренты, а вы нет. Проблема в том, что там много мусора: брендовые запросы конкурентов, нерелевантные темы, запросы с нулевым потенциалом.
Лучший подход: искать запросы, по которым конкуренты ранжируются высоко, а вы — плохо. Вы уже ранжируетесь, значит тема релевантна. У вас уже есть контент. Осталось его улучшить.
Если вы на позиции 27, а конкурент на 3 — это возможность. Если вы на 2, а конкурент на 1 — овчинка не стоит выделки.
Результат анализа должен быть не таблицей на 1000 строк, а контентным брифом:
С таким брифом можно работать. Можно передать копирайтеру или взяться самому. А главное — понятно, что отслеживать после публикации.
Кейс 1: Long Tail SEO. У Moz была старая статья Рэнда Фишкина о длинном хвосте. Пять лет без обновлений. Написали новую статью с современным взглядом. Результат: новая статья начала ранжироваться, но старая всё ещё обгоняла по некоторым запросам. Стало понятно, что нужно либо объединять контент, либо делать редирект.
Кейс 2: Google Search Operators. Вместо конкуренции с существующей страницей в Learning Center, написали дополнительную статью о конкурентном анализе через операторы поиска. Связали страницы ссылками. Результат: старая страница поднялась в выдаче благодаря новой — получился контентный кластер.
Кейс 3: Disavow. Старая статья от 2014 года. Вместо самостоятельной переработки — передали бриф коллеге с чёткими инструкциями: вот тема, вот конкуренты, вот ключевые слова, вот наша текущая страница. Коллега написал обновление, сделали редирект со старой страницы. Позиции выросли.
Джой Хокинс и команда Sterling Sky проанализировали более 1000 Google Posts для разных клиентов и отраслей. Выводы полезны для всех, кто работает с локальным SEO.
Google Posts бывают четырёх типов:
По данным исследования, Offer и COVID посты получают больше кликов. Даже с учётом того, что Update посты показываются дольше (раньше было 7 дней, теперь до 183 дней), Offer всё равно побеждает по CTR.
Заголовок обязателен. Посты с заголовком получают значительно больше кликов, чем без него.
Капслок — плохая идея. Заголовки в верхнем регистре работают хуже нормального написания.
Эмодзи работают. Посты с эмодзи получали почти вдвое больше кликов. Хорошая новость для любителей эмодзи.
Текст на изображении — да. Изображения с текстом (например, «Бесплатная оценка») привлекают больше внимания, чем чистые фотографии.
Стоковые фото — нет. Немодифицированные стоковые изображения показали худшие результаты. Используйте оригинальные фото или хотя бы кастомизируйте стоки.
Логотип — нейтрально. Наличие или отсутствие логотипа на изображении не влияет на клики.
Топ-3 лучших:
Топ-4 худших:
Команда провела отдельный эксперимент: девять недель постинга для трёх листингов в маленьких городах (чтобы отследить даже минимальные изменения). Отслеживали 441 ключевое слово для каждой локации.
Результат: никакого измеримого влияния на позиции.
Если Google Posts и влияют на ранжирование, эффект настолько мал, что его невозможно зафиксировать.
Зачем тогда их использовать? Ради Justifications — когда Google подтягивает текст из поста в результаты поиска, если он релевантен запросу. Это увеличивает видимость листинга и CTR. Для этого нужно постить минимум раз в 60 дней — именно столько Google «помнит» пост для Justifications.
Ноа Лёрнер из Two Octobers обнаружил критическую проблему: стандартный интерфейс Google Search Console показывает только 1000 строк данных. API выдаёт в 25 раз больше.
Команда провела эксперимент: взяли один бренд, сравнили клики в интерфейсе и через API. Разница — около 7000 кликов, которые интерфейс не показывал. При средней конверсии сайта это примерно $40 000 скрытой выручки. И это только один бренд из 285 на сайте.
Схема такая: вытягиваете данные через API → загружаете в BigQuery → визуализируете в Google Data Studio.
Стоимость BigQuery — 2-25 центов в месяц на клиента. Data Studio бесплатен. Основные расходы — на инструмент для извлечения данных (от $10 до сотен долларов в месяц, зависит от объёма).
Группировка по позициям. В интерфейсе Search Console это невозможно. С данными в BigQuery — легко. Отфильтровать все запросы с позиции 4-15 (потенциал попадания в топ-3) за секунды.
Трендовые запросы. Какие запросы набирают обороты? Какие теряют? В интерфейсе это угадывание, с API — точные данные.
Каннибализация. Когда несколько страниц конкурируют за один запрос, это видно в сырых данных. В интерфейсе — нет.
Кастомные фильтры. Вопросительные запросы, запросы на разных этапах воронки, запросы с определённым CTR — любая сегментация, которую придумаете.
Для тех, кто не готов строить пайплайны данных, есть инструменты вроде ARSENKIN TOOLS — они упрощают работу с поисковыми данными и ключевыми словами.
Ариж Абу-Али работала с сайтом, у которого более 40 миллионов проиндексированных страниц. Её главный вывод: большинство сайтов индексируют слишком много и получают слишком мало.
Индексировать всё — плохая идея. Google может не проиндексировать важные страницы, потому что тратит ресурсы на мусор. Представьте сайт-агрегатор автомобилей: нужно ли индексировать каждую комбинацию фильтров? Каждую страницу истории автомобиля? Нет.
Закрыть всё от индексации — тоже плохо. Теряете потенциальный трафик.
Привяжите индексируемые страницы к бизнес-метрикам. Для сайта-агрегатора автомобилей главная метрика — органические лиды (обращения к продавцам).
Пример анализа:
Страницы истории занимают почти половину индекса, но приносят 1% лидов. Они полезны пользователям (проверка истории по VIN), но бесполезны для SEO — контент тонкий, персонализированный, без ссылок.
Решение: noindex для страниц истории. Высвобождается краулинговый бюджет, ссылочный вес распределяется на ценные страницы.
Если ответы «много», «нет», «нет», «нет» — смело деиндексируйте.
Джеки Чу из Uber разобрала типичные ошибки в международном SEO. Некоторые компании теряют позиции даже по собственным брендовым запросам из-за неправильной настройки.
Nextdoor попытался обслуживать англо- и франкоговорящих канадцев с одного URL, переключая контент динамически. Проблема: Googlebot не кликает и не скроллит. Он видит один URL с одним контентом. Французская версия просто не существует для поиска.
Правило: каждая языковая версия должна иметь уникальный URL.
Stripe использует коды вроде «fr-CA» (французский канадский) вместо просто «fr». Это создаёт проблемы автоматизации и путаницу в hreflang. Google не считает французский канадский настолько отличным от французского, чтобы ранжировать их по-разному.
Исключение: китайский язык. Упрощённый (zh-Hans) и традиционный (zh-Hant) — действительно разные системы письма.
Снова Stripe. Они создали версию сайта для каждой комбинации язык+страна. 574 варианта главной страницы, из которых 82 — на английском. 96% контента между версиями идентично.
Когда Google видит почти одинаковые страницы с разными URL, он выбирает одну и игнорирует остальные. Это не помогает ранжированию — это создаёт каннибализацию.
Если контент не отличается существенно — не создавайте отдельную версию.
Выбор структуры URL:
Подпапка — обычно лучший выбор для большинства компаний.
Структура URL: Начинайте с кода страны: example.com/ca/en/ или example.com/ca-en/. Это упрощает аналитику, настройку Search Console и создание отчётов.
Дифференциация контента:
Louis Vuitton в Японии использует фото азиатских моделей. Uniqlo в США и Японии имеет разную вёрстку. Это не просто локализация — это сигнал поисковику.
Дана ДиТомасо из Kickpoint предлагает отказаться от водопадной модели разработки, где SEO подключается в конце. В agile-подходе SEO присутствует с первого дня.
Шаг 1: Keyword Research → Pie Chart
Классическая таблица с ключевыми словами никого не вдохновляет. Представьте те же данные в виде круговой диаграммы: какие темы занимают какую долю поискового спроса. Заказчик сразу видит: «Мы любим писать про X, но его ищут 2% аудитории».
Шаг 2: Blueprints в Gather Content
Каждая страница сайта описывается до начала дизайна:
Когда всё описано заранее, копирайтеры пишут под конкретные требования, а не «что-нибудь про услуги».
Шаг 3: Wireframes после контента
Дизайн начинается, когда понятно, что будет на странице. Никаких сюрпризов «а где взять текст для этого блока».
Шаг 4: Параллельная разработка
Одобрили wireframe первого раздела — сразу в разработку. Пока дизайнится второй раздел, первый уже кодится. Тестирование начинается раньше, проблемы обнаруживаются раньше.
Шаг 5: Микрокопи в админке
«Заголовок H1: 50-60 символов, включите основной ключевик». Подсказки прямо в полях ввода. Когда волонтёр или новый сотрудник редактирует страницу — он не наломает дров.
Вот конкретные действия, которые можно внедрить за неделю:
День 1-2: Аудит заголовков Выгрузите топ-100 страниц по трафику. Проверьте: есть ли повторяющийся бессмысленный текст в title? Есть ли конкретика? Удалите мусор, добавьте триггеры (Solved, цифры, контраст).
День 3: Связанные статьи Выберите 10 ключевых статей. Добавьте в начало каждой блок «Связанные материалы» с 3-5 релевантными ссылками. Включайте только действительно полезное — даже ссылки на конкурентов, если они лучше отвечают на вопрос.
День 4: FAQ-блоки Для тех же 10 статей добавьте блок FAQ внизу. Возьмите вопросы из «People Also Ask». 3-5 вопросов с короткими ответами.
День 5: Настройка отслеживания Добавьте эти страницы в Серпхант или SEOlib для мониторинга позиций. Зафиксируйте текущие позиции — через месяц сравните.
День 6-7: Анализ индексации Выгрузите все проиндексированные URL через Search Console. Сгруппируйте по шаблонам. Посчитайте, сколько трафика и конверсий даёт каждый тип страниц. Есть ли «мёртвый груз» — много страниц, мало пользы?
Google не подтверждает прямое использование CTR и времени на сайте как факторов ранжирования. Но в документации они пишут об использовании «агрегированных данных о взаимодействии» для оценки релевантности. Практические эксперименты показывают корреляцию между улучшением кликовых метрик и ростом трафика.
Изменения в title обычно подхватываются Google за 1-2 недели. Влияние на трафик можно оценить через 3-4 недели, когда накопится достаточно данных для сравнения.
Эксперименты Moz показали, что автогенерация даёт худший результат, чем авторские описания. Google переписывает около 70% описаний, но для остальных 30% ваш текст всё ещё важен.
Оптимально 3-7 вопросов. Меньше — не покрывает тему. Больше — перегружает страницу. Берите вопросы из «People Also Ask» — это реальные запросы пользователей.
Анализируйте соотношение индексированных страниц к органическим лидам (или другой ключевой метрике). Если тип страниц занимает 40% индекса, но даёт 1% конверсий — кандидат на noindex.
Разборы инструментов и кейсы по SEO — в Telegram-канале.