Скажите честно: вы до конца понимаете что есть GEO и что оно вам даёт?
Есть ощущение, что не хватает информации, чтобы оценить объективно. На наш 2026 мы видим всё те же 2 лагеря: для кого-то GEO волшебная пилюля, а для кого-то плацебо. Скажу вам как SEO/GEO специалист — ни одно, ни другое. Сейчас объяснюсь. А пока пофилософствуем.
Проблема в том, что интернету открылось очередное окно. И пока оно открыто, а за ним обещают новые возможности — рынок всегда бежит туда, где можно получить и расписаться.
Почему мы цепляемся сразу за первую часть предложения, но никак не за вторую? Компании будут делать делают самовосхваляющие заявления, ставить себя первыми и строить коалиции “ты упомянешь меня — я упомяну тебя”, но никак не пойдут в улучшение качества бизнеса.
И вот это мне нравится меньше всего.
Во-первых, такие штуки действительно работают, пока работают: они влияют на классическую выдачу, а через неё — на LLM-ответы, которые опираются на retrieval (RAG).
Во-вторых, если посмотреть кейсы январской волатильности 2026, где у крупных брендов видимость падала резко и массово, и среди повторяющихся паттернов у пострадавших — как раз переизбыток self-promotional “best” материалов.
Всё бы ничего, ведь это реально возможность для высококонкурентных ниш — но от плохого сервиса потом страдает потребитель (если репутация соответствует качеству — вопросов нет).
И давайте заодно уж посмотрим на техническую сторону вопроса: на фоне новой гонки многие начинают мерить GEO так, как будто это натуральный SERP. А мы со SparkToro напоминаем: AI-рекомендации брендов сильно непостоянны из-за стохастичности — один и тот же запрос может давать разные наборы брендов и разный порядок, поэтому трекинг “AI-видимости” легко превращается в самообман. Не потому что оно не имеет смысла, а потому что ему отдаётся слишком много внимания (и забивается на действительно важные вещи).
То есть, с одной стороны, рынок сейчас погружён в изучение и освоение новой механики, что круто. С другой — “зелёность” его делает её идеальной средой для грязных приёмов и легенд.
И вот моя позиция (сразу, чтобы дальше не было недопонимания):
GEO — это не волшебная таблетка (не замена SEO) и не плацебо (при всех условиях реально работает). Это инструмент. С эффектом, с ценой, недопониманиями и ограничениями.
Причём инструмент на фоне парадокса: “умирающий поиск” — это миф, падение органики не делает обвал “везде и сразу”. Но поверх этого фундамента появляется новый слой — AI-ответы — где можно влиять, но нельзя гарантировать. И как только влияние становится массовым, начинается цикл: кто-то находит лазейку → все повторяют → система адаптируется → “рабочая схема” превращается в токсичный паттерн → дальше прилетает коррекция, и выясняется, что вы оптимизировали не стратегию, а временную дырку в механике/бизнесе.
Lily Ray описывает это буквально как “it works, until it doesn’t”. Как и с чатом Gpt.
Поэтому дальше статья будет не про то, как обмануть пользователей и алгоритмы (хакнуть так сказать), а про то, что честнее и полезнее для бизнеса:
что реально меняется в органике и почему SEO будет жить;
где GEO действительно работает, а где вы просто радуетесь случайным ответам;
сколько стоит GEO в инфраструктуре/краулинге/поддержке (и почему это недооценено);
и почему “хитрые” схемы могут дать быстрый эффект, но превращаются в токсичный актив, когда Google начинает подкручивать гайки.
В общем, я ЗА GEO, когда оно разумное. Разберёмся, что это значит
Больше меня и моих мыслей тут (мой тг канал). Или сразу в личку
Если вы последние год/полгода жили в инфополе маркетинга, то вы слышали это точно много раз:
«Органика — ВСЁ. Трафик забрали нейросети. Поисковики ничего не могут сделать».
И вот тут я предлагаю сделать одну скучную, но полезную вещь: посмотреть на данные.
Graphite вместе с Similarweb посмотрели 40 000 крупнейших сайтов в США и попытались проверить главный миф — что SEO-трафик “обвалился на 25–50%”. И у них получилась картина гораздо менее драматичная:
органика просела слегка, а не обвалилась: около −2.5% YoY. Она всегда колебалась.
даже с ростом рекламы органика всё ещё доминирует: порядка 90% кликов уходят в органику, около 10% — в paid; в среднем органических кликов примерно в 10 раз больше, чем рекламных.
падение распределилось неравномерно: крупнейшие сайты (top-10) в среднем даже выросли (+1.6%), а сильнее просели “середняки” (диапазон top 100–top 10 000).
по нишам тоже нет одной истории: заметнее падали news/health/cooking/entertainment (−10%+ ), а clothing/shopping/marketplaces — наоборот показывали рост.
при этом трафик на поисковики в целом не исчез и в последние периоды выглядит скорее ровным, чем падающим (вплоть до +0.4% по всем поисковикам), а у Google — около +0.8%).

То есть базовая реальность такая: поиск стал более капризным и строгим, но это связано с новыми условиями — никак не с актуальностью.
Теперь важная аргумент ко всем спорам:
«Да ладно, у нас же CTR просел!»
Да. И это тоже есть в данных: когда AI Overviews появляется, Graphite пишет про падение CTR к органике примерно на −35%. Но есть нюанс, который редко доносится: AI Overviews появляются не всегда, в исследовании — примерно в 30% случаев. То есть, владельцы сайтов для этого “ дополнительного слоя” делают больше, чем для основной стратегической точки роста.
И вот почему я так цепляюсь к формулировкам.
Потому что «AI режет клики» — правда. Но «AI отодвинул SEO» — это уже легенда, которая звучит категорично, продаёт тревогу, но плохо коррелируется с реальностью.
А что в реальности?
Органика стала “неравномерной”.
Где-то просадки сильнее, где-то почти нет, где-то даже рост — лучше разобраться в том, в порядке вещей это в вашей нише и почему.
Появился новый слой ответа.
Раньше — за место в списке ссылок (SERP). Теперь дополнительно — ДОПОЛНИТЕЛЬНО, за шанс стать “источником” для ответа (отсылка на GEO).
И именно поэтому GEO вообще возник как инструмент: не для того, чтобы занять место SEO, но чтобы усилить его (поверх SEO появился ещё один слой конкуренции за внимание).
С GEO сейчас главная ловушка вот какая.
Мы пытаемся измерять AI-выдачу как SERP:
«я был в ответе → значит я поднялся».
А это не SERP. Это вероятностная система. И она ведёт себя как вероятностная система — даже если вам хочется зафиксировать результат — вы этого не сделаете из-за нестабильности.
SparkToro сделали то, что надо бы сделать каждому в своей нише: просто погонять одинаковые запросы много раз и посмотреть, что вернёт модель.
И там довольно холодный душ для всех “трекеров AI-видимости”:
у ChatGPT и Google AI шанс получить тот же список брендов при повторении — меньше 1%
шанс получить тот же список в том же порядке — меньше 0.1%
То есть если вы один раз попали в овтет — поздравляю.
Это ещё вообще ничего не значит.
Это значит только одно: вы попали в один из вариантов генерации.
Получается, это разоблачение на GEO?
“Как тогда вообще можно влиять?” — можно. Но это влияние нестабильно
Growth Memo формулирует это прямым текстом: влиять на ответы возможно, но поле одновременно нестабильное и опасно легко манипулируемое:
LLM — не детерминированная ранжирующая машина. Это рандом на микро-уровне: один и тот же промпт даёт разные ответы.
даже если прогнать один промпт 5 раз, “стабильно” будут появляться далеко не все бренды: Growth Memo приводит оценку, что только около 20% брендов показываются консистентно при таких повторах.
Так давайте уже зафиксируем про GEO: GEO не делает вам позицию в выдаче, но повышает вероятность.
Если мерять как частоту появления на дистанции (серия прогонов, разные формулировки, разные интенты) — это уже больше похоже на реальность. Если выбирать системный подход к проработке контента и бренда GEO будет нести нормальную бизнес-ценность и целесообразность. И уже на фоне того, что рекомендации у AI плавают почти всегда, даже небольшое стабильное смещение вероятности — это уже преимущество, особенно если вы закрепляете его не разовым трюком, а повторяемой базой.
Это неприятно для тех, кто думал, что не придётся погружаться. Потому что от каждого нового инструмента рынок ждёт “сделай X → получи Y”. Увы.
Раз уж мы тут говорим так откровенно и обличающе — есть ещё неприятная правда, которую почти никто не пишет в кейсах про GEO.
GEO как “давайте сделаем больше сущностей”:
больше страниц, больше вариантов, больше “под интенты”, больше “под города/кейсы/категории/сравнения” — тоже проигрышный.
Пока вы смотрите на это как на контент-задачу — всё кажется норм. Но у поисковика есть лимит на индексирование.
Google в 2025 прямо называли топ-проблемы, с которыми сталкивается краулинг. И там на первом плане вещи, которые GEO-подходы очень любят провоцировать:
фасетная навигация (и всё, что порождает бесконечные комбинации URL)
параметры и “мусорные URL”, которые выглядят как новые страницы, но не несут ценности
Вот и цена “хаку нейровыдачи”.
Алгоритмам важно: что краулить, что индексировать и что считать важным.
Если вы плодите вариации без контроля:
краулер начинает ходить по бесконечным вариантам,
важные страницы получают меньше внимания,
а вы потом сидите и думаете: “почему новые материалы не индексируются и почему падает ctr старых”.
Уж простите, но вторая часть цены — время и поддержка.
Потому что GEO почти всегда требует “вариативных сущностей”: списки, сравнения, подборки, справочники, локальные страницы, разные форматы. То есть лучше отработать пространство вокруг сущности, чем наплодить тучу их.
И уже после того, как вы сделали хорошую комплексную работу — её надо поддерживать (как и в seo):
консистентность фактов (чтобы не было разных версий правды на разных страницах),
вариативность запросов/интентов (чтобы запросы соответствовали трендовости спроса),
структуру (чтобы не превратить сайт в фасетный лабиринт),
и чистоту URL-пространства (чтобы параметры не размножали дублей).
Короче, если делать GEO хаотично и без стратегии/структуры, вы наплодите больше технических проблем.
Если коротко: без доказательства экспертности вы далеко не уедите.
Lily Ray в своём разборе показывает, что заметные просадки ловят в том числе бренды, которые массово нарастили self-promotional “best” страницы и похожие конструкции. Нет, листиклы доброе GEO не запрещает, но имейте ввиду, что Google, например, начинает пристальнее смотреть на доверие к обзорам и на то, как именно этот формат используется.
Отсюда следуют довольно прагматичные правила игры.
3 обязательных элемента:
Прозрачная методология: по каким критериям ранжируете, что важнее, что исключаете. (Это ровно то, что отделяет полезный контент от манипуляции форматом)
Баланс и выбор: в хорошем обзоре всегда видно, что автор реально выбирал между вариантами, а не вёл к нужному ответу. Даже если он реально вёл — учитесь нативности))
Раскрытие интереса: если вы участник рынка — читатель должен это понимать, иначе это выглядит как маскировка рекламы под обзор.
Смысл: вы можете использовать формат, но так, чтобы он выглядел как помощь пользователю (раскрыть вопрос с разных сторон), а не как убеждение без доказательности.
Если вы участвуете в списке (часто место в них покупается) — не делайте везде первое место. Ваш продукт должен стоять ровно там, где ему логично стоять по критериям.
Делайте упоминания, которые несут задачу пользователю. Пока конкуренты хвалят сами себя и друг-друга.
Практически это выглядит так:
не “мы партнёры/друзья/рекомендуем”,
а “вот сценарии, когда этот вариант подходит / не подходит”,
с ограничениями и условиями.
Так вы получаете то же самое “присутствие”, но без ощущения подвоха и навязанной рекомендации.
Для того же грамотного распределения краулингового бюджета соблюдайте:
один сценарий → один канонический URL (без бесконечных вариаций),
параметры не должны создавать “новые страницы” — только кластеры,
важные страницы и поисковые группы запросов должны быть доступны краулеру,
https везде и без смешанного контента
mobile speed ~< 1.8s как ориентир,
полное покрытие structured data: особенно полезны FAQPage / HowTo там, где формат подходит.
Делайте страницы “удобными для извлечения”: TL;DR, списки, таблицы, блоки “если-то”, мини-алгоритмы (3–7 шагов).
И самое прикладное: закрепляйте эффект не “попаданием”, а повторяемостью
Ваш следующий шаг:
Вы проверяете не факт точечного и единичного присутствия, а как часто мы появляемся в контексте одного интента. И работаете над тем, чтобы частота росла — это и есть “белая” оптимизация вероятности.
Если GEO — это про вероятность, то главный вопрос становится скучным и взрослым: как эту вероятность системно повышать, а не ловить удачные прогоны?
Ответ (и он же самый скучный): GEO — это инженерный цикл. Не разовая доработка контента → ждём. А стак гипотез, который пополняется постоянно. Например: промпты → матрица контента → правки → измерение → следующая итерация.
Цель №1 — стать устойчивым источником. Нужно создавать крепкую основу + оформлять бренд (под извлекаемость) в том числе. Итого: seo + pr + репутационный маркетинг. Что можно сделать:
1. Выбрать правильный слой
GEO не везде вообще имеет смысл: ИИ-ответ появляется не везде и не всегда. Поэтому:
берём небрендовые, информационные интенты,
а брендовые/низкочастотные не делаем центром стратегии.
2. Сформируйте стак промптов
Один и тот же запрос в AI легко даёт разные списки (шанс получить один и тот же список брендов при 100 прогонах — < 1 из 100, а тот же порядок — ближе к 1 из 1000). Значит протокол такой:
15–30 целевых запросов (по темам, которые вам реально важны),
каждый — прогоняется серией (одинаковый запрос несколько раз),
фиксируете частоту присутствия.
3. Перестройте контент под извлекаемую структуру
короткое определение,
список критериев выбора,
табличное сравнение,
блок “когда НЕ подходит”,
мини-FAQ.
4. Если делаете “рейтинг/топ/подборку” — превращайте это в доказательный обзор
вместо “мы #1” → “вот методика + вот разные сценарии выбора”,
подборка по условиям/ограничениям
5. Не убейте всё краулингом (иначе GEO не доживёт до результата)
не плодить бесконечные комбинации URL,
параметры не должны создавать “новые страницы”,
важные разделы должны быть проще для обхода, чем второстепенные вариации.
6. Введите “ограничители”, потому что влияние возможно — и именно поэтому опасно
строить присутствие так, чтобы оно не зависело от одного источника,
избегать массового копирования одного и того же приёма,
делать упор на материалы, которые выглядят как источник, а не как оптимизация,
держать одну версию правды на сайте и других источниках.
7. Работайте как “универсал”
Контент + техничка + измерение. И так по кругу:
у вас должен быть один владелец процесса (не контент отдельно, техничка отдельно),
одна метрика GEO (частота присутствия на серии),
один регламент публикаций и обновлений.
Значит, базовая работа по сайту и SEO — это надо. Но поверх того фундамента действительно появился новый слой — и он живёт, конечно, по другим правилам.
И это сразу объясняет, почему у GEO есть две стороны:
Более короткая дорожка: эффект быстрый — но он так же быстро превращается в токсичный актив, когда паттерн становится слишком массовым.
Дисциплина: структура, доказуемость, консистентность и техническая база.
Напоминаю, меня можно найти (и почитать/пообщаться) в тг канале / в личке
Всем GEO, но без фанатизма)
Источник
![[Перевод] У AI-художников нет ролевых моделей](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250806143935490qLEwei0I3rPaLJ.png)

