Вернулся с конференции All-in-Top-Conf 2014, посвященной отсутствию влияния ссылок на топ. Местами разговор слепого с глухим даже из самых опытных казалось бы уст. Тем не менее я обогатился терминами "полнота" и "запросный индекс", а до того я просто никак не называл инструменты, с которыми работал уже давно. Чувствую себя необразованным лохом, которому впору записываться на курсы к Гроховскому.
Итак, сначала к результатам эксперимента, который я веду над тремя клиентскими проектами. Суть эксперимента, для тех, кто пропустил, ускоренный вывод в топ по оригинальной схеме через влияние на фактор, который называется "запросный индекс", но манипуляция основана на работе с ссылочным.
Суть метода - покупка ссылочного на большое число ключей (на графике работа с сайтом по 244 ключам) для создания релевантных связей с сайтом.
Не буду утомлять вас двумя другими графиками (выше контрольный сайт), где применяется вариация данной схемы для сайтов с числом ключей от 300, но с ограниченным бюджетом. Результаты там не менее хорошие, но в графиках не столь показательные, так как ключи постоянно меняются по мере установления связей. Хотя даже с учетом вычеркивания из измерений ключей, вышедших в топ, динамика все равно положительная.
Как мы видим из графика, результаты в яндексе достигли планки в 75% в топ-10 и остановились на этом. Причины остановки мне тоже ясны - сайт не слишком удовлетворяет требованиям релевантности ключам - т.е. для части ключей просто нет шансов, что они войдут в топ-10. Да и хер с ними. Эта работа ведется параллельно, но не слишком активно из-за ограниченности по бюджету.
Больше всего вопросов при начале работы вызывал гугл. Однако, к шестой неделе положительная динамика заметна во всех трех проектах, хотя и не столь высокая, как в яндексе.
Выводы:
1) Соревновательная роль ссылок давно была под вопросом, а в последнее время и вовсе вызывала огромные сомнения. Я понимаю под соревновательной ролью "у меня больше ссылок на данный ключ, поэтому мой сайт выше". Теперь с большой долей уверенности можно сказать, что это утверждение неверно для Яндекса и, по-прежнему, сохраняется для Гугла. Вы не ослышались - наличие качественных ссылок на определенный ключ в Гугле, предположительно, играет немалую роль в ранжировании сайта.
Пожалуй, это и есть самый интересный итог эксперимента. В то время как Яндекс стремится снизить влияние ссылок в принципе, Гугл просто убирает ненужные ему. Каждый поисковик борется со ссылочным спамом по-своему. Косвенно это подтверждают работы уважаемых коллег, представленные на конференции.
2) Рост запросного индекса, а говоря проще "числа запросов, по которым ранжируется сайт", по-прежнему, в значительной степени определяется ссылочным как в Яндексе, так и в Гугле. Углубляться в разъяснение не буду. Отчасти по причине продолжающегося исследования, отчасти по причине принадлежности к персональной схеме. Еще только предстоит выяснить комбинантное влияние такой работы с работой по социальным и поведенческим факторам. Да и сам временной отрезок пока слишком мал, чтобы делать окончательные выводы.
Т.е. да, ссылочное работает. Просто его влияние сохранено на другие факторы. Есть вообще гигантское ощущение, что таковое влияние является основным в работе ссылочного уже очень давно, но было незаметным из-за стереотипного подхода к закупке ссылок по схеме "куплю больше, вылезу дальше". Такое мнение прекрасно подтверждают и результаты работы агрегаторов по НЧ, где алгоритм подразумевал размытие анкоров, например, через присоединение дополнительных слов или просто клиенту навязывалось большее число ключей.
3) Безанкорка, несомненно, хороша, но роль ее на данный момент переоценена. В увлечении безанкоркой очень много оптимизаторов, в том числе и опытных, перестали задавать себе вопрос "а как, ебаныврот, поиск должен узнать о ключах, которым соответствует сайт". Сделав влияние ссылочного близким к естественному ссылочному профилю они добились повышения отдачи от этих ссылок, но потеряли связь с ядром. Поиск не подписан на кроссворды "777" - он сам может годами не понимать, что ему надо взять куски ключей из разных мест на сайте для создания релевантной связи, пока вы явно ему на это не укажете.
4) Качество ссылок для яндекса большой роли не играет.
Пожалуй, не упущу возможности наступить на любимую мозоль некоторых оптимизаторов и представителей бирж. Все слишком заигрались с понятием качества. Играет роль спамность доноров, которую определить не так уж и просто. Т.е. примерно понятно, что паттерн, составленный на основе доноров, где число исходящих сильно превышает число страниц, где нет комментариев или мало соотношение просмотров к уникам, где идет серьезное совпадение заголовков с ключами из базы запросов - получим паттерн спамеров, с которым можно сравнивать уже всех остальных доноров. И все же мне кажется, что все не так просто, но понимаешь это только когда вырываешься из зоны "где же, где же покупать ссылки" и начинаешь изучать естественные ссылочные профили сайтов в топе. Это одно - достаточная причина для изменения мнения о так называемом качестве ссылок. Для тех, кто заинтересовался, могу намекнуть, что неповторяемость работает лучше, чем выбор доноров с высоким тИЦ.
5) Бюджетные схемы в современном SEO станут еще технологичнее. А прорыв наудачу еще дороже. На первый взгляд фокусов не так и много, но применить их наобум к любому проекту - можно и под фильтр загнать.
11 коммент.:
Можно вопрос по 4 пункту. "Неповторяемость". Речь идет о контентном наполнения "уникальности" донора, или об анкорном разнообразии?
Неповторяемость относится ко всему. И к набору доноров. И к анкорам. Просмотрите ссылочный профиль непродвигаемого сайта - вопросов станет меньше. Если кратко и грубо, то ноги про безанкорку, социальные ссылки и прочую хуету, которая не парила оптимизаторов до этого, идут из приближения к "неповторяемости". Т.е. чем разнообразнее ссылочный профиль, тем он лучше работает. Это доказано уже десятками исследований, жаль, что с прямо противоположными выводами.
Дмитрий, т.е. вы предлагаете собирать семантику шире, чем указано в договоре с клиентом и закупаться ссылками на эти доп. запросы.
Тем самым увеличивая релевантность сайта по большему числу поисковых фраз.
А ссылки закупаются на "договорные" страницы или на второстепенные (например, статьи \ новости \ пресс-релизы \ фильтры в интернет-магазине и т.п.)
Также, активно работать над откликами из соц.сетей (ВК, ФБ, ТВИ, Вопросы\ответы, G+, безссылочное упоминание бренда \ сайта, комментирование тематических блогов и т.д.)
А можно совсем для дураков. Неповторяемость предполагает неповторение со ссылочным профилем конкурентов? (Т.е. не использование ссылок с бирж)
СтиВ: я ничего не предлагаю. Я отмечаю, что при широкой семантике достаточно небольшого числа ссылок, чтобы создать релевантную связь и тем самым подтянуть сайт по большому числу фраз в топ. Что должно, по идее, сказаться на выводе и по более крупным фразам.
В данном примере ссылки закупаются на релевантные в яндексе. Это не совсем правильно, но у меня был слишком ограниченный ресурс во времени, чтобы исправлять релевантность. Т.е. закуп идет на все подряд, что подбирает как релевантные яндекс.
Что касается соцоткликов, то для этого сайта они не применялись, но я бы рекомендовал их подмешивать для фона.
Совсем для дураков - снимите ссылочный профиль этого блога, например. Затем пробейте его фасттрастом. Результаты вас удивят и дадут идею, как должен по идее выглядеть естественный профиль у продвигаемого сайта.
Ну так мы естественный профиль обсуждаем или рабочий? Естественный ссылочный профиль сайта по уничтожению насекомых выглядит как белый лист. А неестественный, как сапа-аккаунт. Не работает сейчас ни первый, ни второй вариант. Вопрос, что работает.
Я не сказал, что нужно искать естественный ссылочный профиль в той же нише. Понятно, что он будет пустым. Берите любые естественные у сайтов в топе и ищите общее. В первом приближение некоторая замусоренность профиля социальными откликами идет ему на пользу. Опять же статику сейчас в основном ставят безанкорную, включая ключ в околоссылочное. Тут дело в другом - не очень удобно при таком подходе дать поиску точное понимание, по каким ключам нужно ранжировать сайт. Мне тут в твиттере Гусаров показывает сайт с каталогом в виде ключей, который они настроили для клиента. Это хорошо, но не всегда дает нужную полноту, это раз. А во-вторых, не для каждого клиента применимо.
>покупка ссылочного на большое число ключей (на графике работа с сайтом по 244 ключам) для создания релевантных связей с сайтом.
На сколько по времени растянута была покупка таких ссылок?
Там же видно на графике: закуп произошел 10 января.
Я так понял если и закупать ссылки, то лучше одну с качественного ресурса схожей тематики, чем много со всех подряд!
Вопрос, есть сайт, 20 страниц и есть 200 ключей, распределять эти 200 очень низкочастотных ключей и в принципе похожих друг на друга, на 20 страниц или все же делать большее число страниц и меньше группу ключей? Но тогда будут похожи по наполнению сами страницы, как поступать?
Отправить комментарий