«Мусор» в топе

Очень часто многие вебмастера, которые создали и продвигают качественный сайт, не могут выйти в топ. Вебмастер каждый день обновляет сайт, добавляет новый интересный контент и сайт становится популярным среди людей. Это естественно, когда в топе крупные проекты или компании той же тематики. Но иногда в топ 10 или даже топ 3 по высокочастотным и конкурентным запросам можно увидеть сайт, на котором нет никакой интересной информации – сайт который сделан не для людей. Как же такие сайты попадают в топ выдачи поисковиков?

Если рассмотреть проблему быстро и поверхностно, то можно сделать один простой вывод: вы действуете, как советует классическое SEO, и выполняете все рекомендации ведущих SEO-специалистов и представителей поисковых систем. Однако вы просто не можете позволить себе такое же количество ссылок, которое есть у «мусорных» сайтов в топе выдачи. Не стоит полностью копировать их стратегию, однако даже у таких сайтов есть чему поучиться.

Лучше всего рассматривать, как низкокачественные сайты попадают в топ по высокочастотным и конкурентным запросам на примере. Этот случай был довольно известен в Америке, потому что низкокачественный сайт попал в топ по популярным запросам, и «подвинул вниз» многомиллиардные компании, которые занимаются автомобильным страхованием. На картинке снизу видна выдача по очень популярному запросу. Найти на картинке сайт не составит труда. На всякий случай он даже выделен красным цветом.

Как видно, по одному из самых популярных и «дорогих» запросов, сайт находится на втором месте в выдаче Google. Даже не смотря на название домена, которое не вызывает доверия с одного взгляда на него, сайт находится в топе по таким запросам как «car insurance», и на четвертом месте по запросу «auto insurance». При более подробном анализе сайта можно увидеть его качество и его основное предназначение.

Сайт контентом, который направлен на получение ссылок. Таким как:

  • Списки всех штатов и городов, в которых автомобильное страхование является самым дорогим в стране
  • Список новых и дорогих машин, которые надо страховать
  • Простой калькулятор, который рассчитывает величину и стоимость страховых выплат
  • Немного советов, которые могут помочь снизить цену на страховку автомобиля
  • Список машин, которые чаще всего угоняются или подвергаются актам вандализма.

Весь этот контент набит ключевыми словами, что также помогает сайту попасть в топ не самым честным путем.

Дизайн и юзабилити у сайта тоже не на самом высшем уровне. На картинке снизу это заметно даже невооруженным взглядом.

Если зайти на главную страницу, то можно увидеть следующе: в самом верху страницы большой баннер, немного не несущего особой информации текста под ним. Из всех элементов навигации присутствует только ссылка на блог. Больше ничего и нет.

В самом блоге тоже нет никакой информации для людей. Блог представляет собой блоки с низкокачественным и иногда генерированным контентом, основное назначение которого – заполнить место между частым вхождением различных ключей. Ключи, к слову, встречаются намного чаще, чем это рекомендуется.

Следует провести более глубокий анализ сайта.

При анализе через SEMrush можно видеть не самую приятную для владельцев конкурирующих сайтов картину.

Не все так просто, как показалось сразу. С момента регистрации (декабрь 2010 года) сайт поднялся в топ настолько, что сервис SEMrush оценивает трафик, который жтот сайт получает в 4 миллиона долларов в месяц. И при всем при этом, ни одного «белого метода» SEO сайт не использовал. Появляется логичный вопрос: Как такой сайт смог опередить другие?

Для того, чтобы выяснить как он продвигался и какие методы использовались, следует обратиться к сервисам Open Site Explorer и Majestic SEO. Используя эти инструменты, мы сможем выяснить как такой откровенно «мусорный» сайт смог добиться этих результатов и завоевать авторитет в глазах мировых поисковых систем и победить «больших игроков» страхового бизнеса. Ведь эту информацию можно использовать для того, чтобы применить некоторые методы на своем сайте.

Чтобы проследить помесячную динамику наращивания ссылок и провести их полный анализ используем инструмент Majestic SEO.

На картинке снизу видно, что владельцы сайта не использовали стратегию постепенного наращивания ссылочной массы.

После создания сайта они немного выждали, и затем, на ранней стадии жизни сайта добавили большое количество ссылок. А через некоторое время стратегия продвижения стала еще более агрессивной, и уже в октябре 2011 года количество покупаемых ссылок стало еще больше. Эта агрессивная стратегия принесла свои плоды в поисковом трафике. На предыдущем рисунке можно увидеть, что именно в период активной покупки ссылок с поисковых систем шел рекордный трафик.

Сейчас мы уже немного представляем, каким именно образом сайт попал в топ выдачи по конкурентным запросам, и удерживал эти позиции несколько месяцев. Если верить оценке трафика SEMrush, то продвижение и вся работа над сайтом с лихвой окупила себя.

Настало время глубокого анализа самих ссылок. Надо узнать, что они из себя представляют, и на каких ресурсах они располагаются. Благодаря этому анализу можно понять, стоит ли так продвигать свой сайт.

Для такого глубокого анализа нам потребуется Open Site Explorer.

Взглянув на рисунок, можно увидеть, что большая часть анкоров – ключевые фразы. И 80% всех анкоров это 10 популярных высокочастотных запросов.

Несмотря на большое разнообразие анкоров, большинство из них – различные вариации основных запросов – «автостраховка» и «страхование автомобиля». Но даже после такого анализа еще не ясно, что же из этого метода можно взять на вооружение, потому что точного происхождения ссылок у нас нет, а различные анкоры используют все оптимизаторы.

Чтобы ответить на вопрос о ссылках и выяснить, можно ли такой метод использовать, приступим к завершающему этапу анализа.

Определение типов ссылок.

При помощи Open Site Explorer и знания стандартной системы обозначений мы проводим следующее:

  • Узнаем URL страниц, которые ссылаются на сайт
  • Запускаем xPath, чтобы найти эти ссылки

Говоря простым языком – проверяем все блоки, в которых располагаются ссылки. Если в ходе анализа ссылки находятся в одном блоке (например, footer) то они будут объединяться. Таким образом, можно будет точно сказать, с каких частей сайтов-доноров идет ссылочная масса.

Взглянув на график можно увидеть, каким образом сайт попал в топ. Продвижение статьями, ссылки в комментариях и блогах, и ссылки в боковых панелях играют определенную (и немалую) роль в продвижении сайта.

Около 65% ссылок мы идентифицировали. Остальные же ссылки, которые отнесены к группе неизвестных, проверяются вручную. В большинстве случаев обнаруживается что-то вроде того, что показано на скриншоте:

Основная масса ссылок, которые отнесены к неклассифицированным, находится в статьях, которые автоматически сгенерированы. Хоть такая стратегия выхода в топ и считается нежизнеспособной. Ссылки располагаются на сайтах, посвященных совершенно другой теме, и новые статьи на них появляются одна за одной.

Будьте осторожны, копирую такую стратегию. Сайт, на примере которого писалась эта статья и делались анализы уже забанен компанией Google, которая учитывает все свои ошибки, и старается закрыть такие возможности раскрутки сайта.

Читать похожие статьи