Поиск меняется. Пользователь все чаще получает готовый ответ прямо в интерфейсе без перехода на сайт. Яндекс Google формирует такие ответы через через «Нейроответ Алисы», Google — через AI Overviews. Похожие механики работают в ChatGPT, Perplexity и других AI-сервисах.
Из этой статьи от экспертов click.ru вы узнаете:
Еще недавно SEO почти полностью закрывало задачу органического привлечения трафика. Сейчас часть пользовательских запросов обрабатывается в поиске или в AI-ассистентах, где система быстро формирует готовый ответ.
В результате бизнес теряет часть контакта с аудиторией, и компенсировать эти потери только за счет SEO становится сложнее. Поэтому появились новые подходы: AEO и GEO.
AEO (Answer Engine Optimization) — оптимизация контента для систем, которые показывают пользователю готовый ответ на вопрос. К ним относятся голосовые ассистенты и блоки быстрых ответов в поисковой выдаче.
GEO (Generative Engine Optimization) — оптимизация контента для генеративных AI-моделей и сервисов, таких как ChatGPT, Perplexity и другие.
На практике устойчивый результат достигается при сочетании всех трех подходов. AEO и GEO не заменяют SEO, а дополняют его. Классическое SEO остается основой поискового продвижения.
Пользователи click.ru могут автоматизировать SEO-работу с помощью специального модуля. Сервис позволяет настраивать продвижение самостоятельно через удобный интерфейс, получать подробную аналитику по трафику и ключевым запросам, а также использовать готовые стратегии оптимизации сайта.
Большие языковые модели (LLM) не просто читают страницу. Они анализируют структуру текста, его смысл, надежность источника и то, насколько удобно использовать данные при формировании ответа.
Нейросети обращают внимание на свежесть данных. Если о компании появляются новые публикации, она чаще оказывается в ответах AI-ассистентов, чем бренд, о котором все давно забыли в сети.
Поддерживать актуальность помогает:
Современные модели уже способны различать экспертный материал и тексты, написанные только для SEO. Поэтому при создании контента важны следующие факторы.
1. Конкретика
Нейросети лучше интерпретируют материалы, где используются измеримые показатели и конкретные цифры. Чем больше конкретики, тем проще алгоритмам использовать информацию при формировании ответа.
2. Глубокая проработка
Поверхностные материалы не интересны нейросетям. Алгоритмы чаще обращаются к текстам, где есть причинно-следственные связи, подробные объяснения, выводы.
Наиболее часто нейросети используют такие форматы контента:
3. Подтверждение информации
Нейросети часто используют материалы, которые содержат ссылки на источники. Это могут быть официальные сайты, аналитические отчеты, отраслевые исследования, открытые базы данных. Такие ссылки позволяют алгоритмам проверять информацию и повышают доверие к контенту.
4. Профессионализм автора
Алгоритмы учитывают не только содержание текста, но и автора материала. Указание автора и его профессионального опыта повышает доверие к публикации.
5. Авторитетность
Поисковые системы и AI-модели все меньше доверяют ресурсам, которые публикуют материалы на слишком широкий круг тем. Лучше работает четкая специализация.
Раньше для продвижения хватало часто упоминать бренд на собственном сайте. Сейчас нейросети оценивают широкий контекст: где и как о компании говорят в интернете.
Чтобы повысить вероятность попадания в ответы AI-сервисов, важно:
При этом ссылки, размещенные самостоятельно, почти не влияют на результат. Нейросети формируют собственную систему оценки доверия к источникам.
Нейросети легче воспринимают контент, когда он представлен в разных форматах. Помимо текста полезно использовать фото, аудио, интерактивные элементы, видео. Чем больше вариантов объяснить содержание страницы, тем проще алгоритмам понять ее смысл. Изображения важно сопровождать подписями.
Большим языковым моделям проще работать с текстом, из которого удобно извлекать конкретные факты и выводы.
1. Сравнительные таблицы
Таблицы позволяют быстро сопоставлять характеристики и извлекать ключевые параметры. Такой формат облегчает анализ данных.
2. Нумерованные списки
Пошаговые инструкции лучше воспринимаются, если действия представлены последовательно.
3. Небольшие абзацы с одной мыслью
Длинные блоки текста с несколькими идеями сложнее анализировать. Лучше придерживаться принципа: один абзац — одна мысль. Оптимально, если он состоит из 2–4 предложений.
4. Вопросительные заголовки
Заголовки, сформулированные в виде вопросов, хорошо совпадают с пользовательскими запросами.
Для алгоритмов важно не только прочитать текст, а быстро определить тип и смысл страницы: это статья, инструкция, товар, раздел «Вопрос-ответ» или информация о компании.
Современные поисковые системы и AI-модели анализируют сущности — реальные объекты и понятия, которые связаны друг с другом.
Сущность — определенный объект из реальности. Например:
Поисковые системы объединяют такие объекты в базы знаний. Например, у Google для этого используется Knowledge Graph — граф знаний, в котором хранятся данные о миллиардах сущностей и связей между ними. Когда пользователь вводит запрос, алгоритм анализирует не только слова, но и сущности, которые за ними стоят.
Например, запрос: «Какой ноутбук лучше для программирования до 1200 долларов»
Система интерпретирует его примерно так:
После этого алгоритм ищет страницы, где эти сущности связаны друг с другом: ноутбук + программирование + цена.
Нейросети работают по похожему принципу — они ищут не просто текст, а логически связанные понятия.
Связи между сущностями часто представлены в формате триплетов.
Триплет — структура из трех составляющих: субъект → действие → объект.
Например:
Для нейросетей триплеты — базовая форма хранения знаний. Если одинаковая связка регулярно встречается на разных ресурсах, алгоритм начинает воспринимать ее как факт. Важно использовать подобные формулировки не только на сайте, но и в других источниках: интервью, публикациях, социальных сетях и на профильных площадках.
Например: «Сервис click.ru — рекламная экосистема для управления интернет-рекламой: от запуска кампаний до аналитики и отчетности».
Поисковики и нейросети лучше интерпретируют сайт, если информация представлена в структурированном виде. Для этого используется стандарт разметки Schema.org — специальная схема в коде страницы, которая описывает ее содержание.
Алгоритм сразу понимает:
Проверить наличие и корректность микроразметки можно с помощью бесплатных инструментов:
Файл llms.txt размещается в корневой директории сайта. В нем содержится список важных страниц с краткими пояснениями. Его можно рассматривать как карту сайта, созданную специально для нейросетей.
Файл помогает:
Это простой способ помочь нейросетям быстрее ориентироваться в структуре сайта и находить нужные материалы.
Пример:
# Главная страница
Онлайн-платформа для изучения программирования и цифровых профессий
# Каталог курсов
Курсы по аналитике, программированию и дизайну
# Руководство для новичков
https://site.ru/kak-nachat-programmirovat/
Пошаговое руководство для тех, кто хочет начать изучать программирование
Ниже — базовые шаги, которые помогут оценить текущую ситуацию и сформировать стратегию.
Этап 1. Аудит и подготовка
Первый шаг — понять, как нейросети уже воспринимают ваш бренд.
Проверьте видимость. Сформируйте список из 20–30 вопросов, которые чаще всего задают клиенты, и введите их в Perplexity, ChatGPT, Gemini и другие AI-сервисы.
Зафиксируйте несколько моментов:
Изучите конкурентов. Посмотрите, какие ресурсы чаще других используются как источники информации в вашей нише. Обратите внимание на используемые сущности (entities), формулировки и повторяющиеся связки. Это позволит определить ключевые триплеты — базовые утверждения о компании или продукте.
Определите площадки для размещения. Проанализируйте, какие сайты регулярно появляются в ответах нейросетей: отраслевые медиа, форумы, каталоги компаний, пользовательские площадки, социальные сети. Подготовьте список таких ресурсов и постепенно начните создавать там присутствие.
Этап 2. Техническая оптимизация
Следующий этап — подготовить сайт так, чтобы алгоритмам было легче интерпретировать его структуру и содержимое.
Главные задачи:
Этап 3. Работа с контентом
Определите основную тему, вокруг которой будет строиться контент. Затем постепенно расширяйте ее через серию материалов. Для начала можно ориентироваться на 20–30 публикаций в одной тематике. В каждом материале желательно:
Также стоит обновить существующие материалы:
Важно работать не только с собственным сайтом, но и с внешними площадками. Полезны:
Этап 4. Контроль и корректировка
Работа с AI-поиском требует регулярного анализа результатов. На основе данных стратегию можно корректировать:
Начинать работу с GEO-оптимизацией стоит как можно раньше. Сейчас такие подходы применяются еще не всеми компаниями, поэтому уровень конкуренции остается относительно низким. При этом информация о бренде, попавшая в обучающие данные, может сохраняться там надолго. Более того, чем чаще компания упоминается в различных источниках, тем выше вероятность, что нейросети будут использовать эти сведения при формировании ответов.