Как правильно наращивать ссылочную массу

in
Как правильно наращивать ссылочную массу
История развития ссылочного ранжирования

Предлагаю детально рассмотреть вопрос ссылочного ранжирования. Чтобы лучше понять механизм работы, необходимо погрузиться в историю. Мы разберем, с какой целью было создано ссылочное ранжирование, как оно развивалось, на каком этапе сейчас находится.

Вспомните первые поисковые системы: Yahoo и Alta Vista в англоязычном сегменте, Rambler и Aport в русскоязычном. На тот момент интернет активно развивался, для поиска необходимой информации практически каждому был необходим хороший поисковик.

Как дела обстояли в Google?
Качество выдачи было слабое. Чтобы найти необходимые ответы, заданные в ключах, нужно было потратить достаточно много времени. И тут на первое место выходит Гугл с абсолютно новым алгоритмом ранжирования, который присваивает рейтинг страницы за ссылки. Этот параметр назвали PageRank.
1
PageRank

Благодаря новому подходу Google предоставлял самую актуальную выдачу. В результате он забрал основную долю мирового рынка поиска, которую удерживает до сих пор.

Конечно, в первом алгоритме ранжирования было огромное количество недостатков, чем и начали пользоваться SEO-специалисты. Нужно было создать множество ссылок на сайт для получения позиций, трафика и продаж.

Разработали программные продукты, такие как Xrumer и Allsubmitter, которые помогали массово регистрировать множество ссылок в мертвых каталогах. Продвижение казалось простым и манило большими перспективами. При этом качество выдачи ухудшалось и Гуглу необходимо было принимать серьезные меры.

2
Ссылочные агрегаторы

Следующий шагом стала оценка ссылок по параметрам качества. Автоматизированные прогоны по каталогам с помощью разного софта остались в прошлом. Легкое и беззаботное продвижение ушло. Необходимо было найти другие быстрые решения.

На первое место выходят биржи арендных ссылок, которых появилось огромное количество. Но не все смогли предложить качественные фильтры по отбору ссылок. Поэтому лидером можно назвать только одну — sape.ru, которая внедрила фильтр Sape (в народе его называют Винка) для Mozilla Firefox. Механизм работы позволяет отсеивать плохие сайты и выбирать по соответствующим параметрам цена-качество.

Также начинают появляться ссылочные агрегаторы — seopult, rookee, webeffector, которые предлагают автоматизированные системы отбора при покупке ссылок. Они предоставили возможность задавать параметры отбора качественных ссылок. На тот момент я отдавал предпочтение rookee.ru, который предлагал площадки даже для запрещенных тематик.

Вроде проблема решилась, только увеличилась стоимость продвижения по сравнению с автоматическими прогонами по каталогам. Но Гугл сделал следующий шаг, внедрив в апреле 2012 года фильтр Пингвин.

3
Пингвин
Выдача поменялась кардинально. Поисковик определил параметры естественных анкоров, задав им определенные соотношения. Точных параметров нет, для каждой тематики они индивидуальные, но средние показатели примерно можно определить следующим образом.

Неточные анкоры не содержат продвигаемый ключ или его полную форму, точные анкоры, наоборот, соответствуют продвигаемому ключу.

Использовать данное соотношение рекомендую только как для примера. Лучше всего просматривайте анкоры ваших успешных конкурентов с помощью функции “Облако анкоров” в serpstat.com (анализ ссылок → анкоры ссылок → облако анкоров).