Покупка ссылок, является одним из основных этапов в продвижении сайта и одной из основных статей расходов. Но так же всем известно, что «не все ссылки одинаково полезны», поэтому эффективность и бюджет, выделяемый на покупку ссылок, напрямую зависит от их эффективности.
Каждый день я получаю 1000-1500 заявок на покупку ссылок:
И разбирать такую кучу заявок ежедневно вручную, естественно, нереально. Более того, у меня два аккаунта на Сапе, и это данные только с моего личного аккаунта, а есть еще и аккаунт для клиентов.
Я уже рассказывал о «Вебмастер Sape» - расширении для браузера FireFox. В этом посте я решил поделиться своими наборами фильтров, которые я использую при покупке ссылок на бирже Sape. Не смотря на большую популярность данного плагина и широкий рынок купли/продажи ссылок, найти в Интернете нормальные настройки для вебмастера Sape почти не возможно – вся информация обрывочна и разбросана по многим сайтам. Те настройки, которые я привожу ниже, были собраны мною из разных источников и дополнены мною самостоятельно в процессе работы. Со временем, мои фильтры будут совершенствоваться, поэтому данную сборку назовем «Фильтры Sape от titaniMOZG v.1.0». Хочу сразу заметить, что через данные фильтры до финиша доходит максимум 5% заявок (в среднем 2-3%).
В настоящее время последней версией плагина Винка является 2.19.5.
Вкладка «Фильтры»
На этой вкладке собраны в основном фильтры для продажи ссылок и нас не интересует. Единственное, что нас тут интересует – это «Фильтр адресов страниц LF». Суть этого фильтра заключается в том, что мы отсеиваем страницы по внешнему виду URL. Так, например, мы знаем, что если в адресе страницы встречаются конструкции содержащие viewtopic или showthread – то это на 99,99% страницы форумов, а displayimage и gallery – говорит о фотогалерее, которые тоже не представляют особой ценности для покупки ссылок. Весь список представлен в виде регулярного выражения и имеет свои правила к написанию.
Скачать настройки для фильтра LF можете из вложений в конце статьи!
Скажу честно, что применение одного только этого фильтра отметает около 50% всех заявок.
Вкладка «Яндекс»
Позволяет задать параметры фильтров для проверки сайта и его страниц в поисковой системе Яндекс. По большому счету, все, что нам надо от Яндекса - это проверить в индексе ли страница, на которой мы собираемся покупать ссылку и каково общее число страниц сайта в индексе, что бы убедиться, что сайт не под АГС (сайты под АГС имеют обычно до 10 страниц в индексе). Плюс, спустя месяц, мы можем проверить уже купленные ссылки на факт их индексации, и отказаться от неэффективных. Однако, процент таких ссылок после всех фильтров у меня крайне низок.
Возвращаясь к настройкам - какие параметры мы тут указываем?
- Таймаут между запросами – с какой скоростью мы отправляем запросы Яндексу для проверки. Чем меньше значение – тем быстрее будет идти проверка, но тем быстрее Вы так же получите требование о вводе капчи. Эта проблема решаема, за счет использования Яндекс.XML – который дает лимит в 1000 запросов в день, чего как правило достаточно. Если же Вы работаете без него, мучая Яндекс напрямую, я рекомендую поставить значение около 1500.
- Проверять ссылки старше – указываем, какие ссылки из уже купленных мы хотим проверить на индексацию. Это уже касается ранее купленных ссылок.
- Отмечать только если страницы или ссылки нет в индексе больше – тоже касается уже купленных ссылок. Суть в том, что временный вылет страниц из индекса – явление весьма нормальное, и отказываться от таких ссылок не всегда нужно.
- Отмечать если не удалось проверить – что бы в случае технических сложностей не закупить себе пару килограмм шлака.
- Использовать Яндекс.XML – рекомендую.
- Показывать количество страниц в индексе Яндекса – данная опция уже 2-3 месяца адекватно не работает (через XML по крайней мере), но раньше вообще использовал.
- Использовать поиск по указанному региону – тут указываете либо код своего региона, либо, если сайт продвигается по России в целом – регион Москвы: 213. Для новичков замечу, что это не телефонные, не почтовые коды и ни какие-либо еще коды! Справка по регионам приведена там же.
- Показывать дату сохраненной копии – опция для уже купленных ссылок.
- Отмечать если сохраненная копия старше – аналогично.
- Фильтр Cn отмечает купленные ссылки – этот фильтр позволяет отсеять сайты под АГСом (фильтр Яндекса) и сайты, которые имеют большую разницу между числом страниц в индексах двух поисковых систем. Суть такова, что если Яндекс и Гугл знает примерно одинаковое число страниц, то сайт должен быть более-менее приличный, а если разница очень велика, то это говорит о том, что какая-то из поисковых систем сочла часть сайта недостойной своего индекса.
Вкладка «Google»
Проверка в Google не многим отличается от Яндекса. Все что нам надо перед покупкой – узнать, в индексе ли находится предлагаемая страница, а спустя время – проверить ссылку на проиндексированность. Поэтому настройки в принципе идентичны. А именно:
- Таймаут между запросами – аналогично Яндексу, с той лишь разницей, что у Гугла шанс получить капчу заметно выше. Для решения этого вопроса есть только платная альтернатива – проверять ссылки через сервис SeoLib, но об этом позже.
- Группа опций «Проверка PageRank» - для меня лично не имеют особого смысла, т.к. на PR Гугла я в принципе не ориентируюсь при покупке ссылок.
- Пропускать при проверке уже отмеченные ссылки – ставим да, что бы не проверять ссылки, от которых мы уже собираемся отказываться.
- Использовать кэширование запросов – позволяет «запоминать» результаты проверки на указанное время.
- Использовать звуковое оповещение – что бы было не так скучно.
Вкладка «Ссылки»
Проверка ссылок на странице является одним из самых важных этапов, потому что именно от того, какие ссылки уже есть, и каково их количество – зависит эффективность и Вашей ссылки в том числе. И так:
- Отмечать если ссылок больше – трех, а в идеале еще меньше. Чем меньше ссылок на странице – тем лучше, но по 1-2 ссылки мало кто продает, поэтому три ссылки со страницы – является золотой серединой.
- Учитывать ссылки – я учитываю все ссылки закрытые от индексации (noindex и nofollow), потому что они хоть и закрыты, но они есть. Может они и не забирают с собой какую то часть веса, но то, что они не добавляют веса моей будущей ссылке на этой странице – это уж точно. Под «уникальными» подразумеваются не дублирующие себя ссылки (ссылки должны идти на разные адреса). Хочу заметить, что эти опции касаются только внешних ссылок!
- Не проверять, расставлять галочки по заявленным биржей значениям – все равно что делать выводы на основании того, что бабка нашептала у подъезда.
- Отмечать, если объем текста на странице меньше – у меня 1500 знаков, без учета анкоров (ссылок). Вообще, чем больше это значение – тем лучше, так 3-5 тысяч знаков – вообще хорошо, но подходящих сайтов будет весьма мало и более того, не факт, что все 3-5 тысяч знаков не будут «общими» на весь сайт, что полностью убивает смысл этих 3-5 тысяч знаков.
- Отмечать, если количество ссылок на странице больше – я указал 300, но чем меньше – тем лучше. Здесь речь идет уже о внутренних ссылках.
- Отмечать, если купленная ссылка не найдена на страинце – ставим да, иначе смысл в ее покупке?
- Или расположена в подвале – тоже ставим да, потому что эта ссылка не получит естественных переходов, что делает ее ссылкой-инвалидом.
- Отмечать недоступные страницы – потому что нам нужны только доступные.
- Использовать User-Agent – Яндекса, что дает более адекватную картину, в случае использования клоакинга.
Вкладка «Страницы»
Проверяя страницы, нас интересует их уровень вложенности (удаленность от главной страницы) и содержание, поэтому настроек тут мало и они весьма понятны.
- Показывать количество ссылок на главной странице – ставим да.
- Отмечать если их более – 300 штук, но чем меньше, тем лучше. Вообще, большое число внутренних ссылок может говорить о том, что сайт специально делался для продажи ссылок на биржах, т.к. экономически такие сайты выгодно растить не в глубину, а в ширину.
- Проверять все уровни вложенности – ставим да.
- Отмечать если уровень больше третьего – так же ставим да. Покупать ссылки на страницах четвертого и более уровнях вложенности не имеет смысла, т.к. они очень долго индексируются и (по логике) не передают достаточного веса.
- Отмечать страницы, содержащие следующий текст – это самая веселая опция в настройке данного плагина, потому что позволяет Вам вспомнить все самые заковыристые матерные словечки и не только. При желании, можете легко увеличить этот список. Хочу обратить внимание, что следует учитывать разные падежи и числа, а так же возможность случайного вхождения слова в состав других, вполне безобидных слов. Примерами может служить «спортивная гребля» или «многоканальная связь». Что бы этого избежать, кое-где добавленны пробелы, которые указывают на то, что это отдельное слово, а не часть другого слова.
Скачать настройки для фильтра TF можете из вложений в конце статьи!
- Использовать встроенные наборы стоп-слов – отмечаем галочками все три пункта.
- Показать заголовок страницы – это нам для наглядности, что бы если там попадется какая-то несусветная чушь, мы от нее отказались уже вручную.
- Отмечать недоступные страницы – конечно да!
- Проверять – весь HTML-код. По большому счету, таким образом можно отсеять еще ряд сайтов, которые содержат коды систем навязчивой рекламы, типа всплывающих окон.
- Количество потоков проверки – это зависит от мощности Вашего компьютера и ширины Интернет-соединения.
- Пропускать при проверке уже отмеченные ссылки – ставим да, что бы не тратить свое время.
- Использовать анонимные запросы (не посылать и не принимать cookies) – что бы меньше о Вас знали и лучше спалось.
Вкладка «Сайты»
Проверки сайта, которые настраиваются на соответствующей вкладке – выполняются за счет сторонних сервисов. Поэтому, данные не всегда могут быть получены. По этой причине, здесь я исхожу из принципа «презумпции невиновности», т.е. допускаю вероятность, что сайт хорош, если только не доказано иное.
- Проверка трафика – осуществляется по трем различным сервисам статистики. Для Рунета наиболее актуален сервис LiveInternet, поэтому данные снимаю только с него. Значение 3000 человек в месяц – это 100 человек в день, что весьма немного для нормального сайта, у которого наверняка несколько сотен страниц в индексе минимум. Почему несколько сотен? Потому что продавать ссылки с сайта с десятью страницами – никто не будет.
- Проверка исходящих ссылок с домена – эту опцию я не использую, поэтому настройкой не заморачивался.
Вкладка «Сервисы»
Использование сторонних сервисов, позволяет ускорить процесс проверки, избавиться от назойливых капч, или получить дополнительные данные, для принятия решения о покупке. Я использую только Яндекс.XML для проверок в Яндексе, и SeoLib, для проверки проиндексированности страниц в Гугле. СеоЛиб платный, стоит 0,001$ за проверку одной страницы, но это позволяет сделать работу быстрее, без капчи, и комфортней в целом.
Как использовать фильтры в «Вебмастер Sape»
После того, как все фильтры настроены, вся задача заключается в том, что бы просеять все ссылки, которые мы хотим купить, через все фильтры последовательно, тем самым, избавившись от всего шлака.
Для того, что бы сделать проверку максимально быстрой и с минимальными расходами лимита XML-я и затратами в СеоЛибе, я выработал следующий алгоритм использования фильтров:
- Сначала запускаю «Контроль URL страниц» – LF и сравниваю число страниц в индексах ПС - Cn. После проверки можете сразу отменить все, что выделилось, что бы ни мешалось.
- Затем запускаю «Фильтр контента» TF и «Проверку внешних ссылок» ВС – эти два фильтра делают запросы к одним и тем же страницам, поэтому, запуская вместе – они справляются с задачей быстрее.
- Следом я проверяю «Трафик сайта» - T и «Уровень вложенности страницы» - УВ.
- Осталась самая малость, которую я проверяю сначала на присутствие в индексе Яндекса - YP, а потом на наличие в индексе у Гугла – GC.
- Все, что было отмечено – отказываемся. Все, что осталось – покупаем.
Проще говоря, последовательность применения фильтров выглядит так: LF, Cn, TF, ВС, Т, УВ, YP, GC.
В следующей статье «Покупка ссылок на бирже Sape – инструкция» я расскажу о том, как, применяя данные знания, и ряд новых, можно во многом автоматизировать весь процесс покупки ссылок, не в ущерб качеству.
Удачных покупок!
Комментарии
Посмеялся...
«Или расположена в подвале – тоже ставим да, потому что эта ссылка не получит естественных переходов, что делает ее ссылкой-инвалидом.» — сомнительно, особенно в эпоху блочной вёрстки. Да, по факту ссылка может располагаться в конце HTML кода, но отображаться она может в сайдбаре и отлично получать естественные клики.
«Проверка исходящих ссылок с домена – эту опцию я не использую, поэтому настройкой не заморачивался.» — весьма интересный фильтр для определения переспамленных сайтов. Использую пункт «Отмечать если в среднем на странице более 4 исходящих ссылок» и «Использовать для получения данных Solomono.ru». Здорово отфильтровывает сайты с линкопомойками.
Сеть супермаркетов может ссылаться на своих оптовых поставщиков, поставщики - на логистическую компанию, которой они пользуются, логистическая компания - на юридическое агентство, которые решает их вопросы с таможней, юридическое агентство - на студию, которая сделала им сайт и т.д. Список возможной простановки ссылок можно продолжать еще долго, между сайтами, которые не являются однотематичными, но их рекомендации являются естественными.
Цитата: Многие заявки отсеиваются фильтром по трафику, поэтому если хотите ускорить закупку, то можете, в принципе, не использовать проверку по трафику.
Спасибо большое Вам за статью.
Спасибо огромное, обязательно в закладки!! ;)
реально круто отсеивает ГС.
У меня вопрос:
А можно ли как нибудь изменить расположения кнопок на панели вебмастера Sape?
На написание статей сейчас просто не хватает времени. К тому же, приоритетным направлением я решил пока что сделать ветку по Адсенс, но и там пишу раз в месяц в среднем, а написать есть еще много чего. Но работа с купленными ссылками - будет первой в очереди по ветке Сапы.
Но еще в течение 1-2 недели проверяю индексацию, прежде чем отказываться от ссылки.
Т.е. бывает, что за 30 дней ссылка попала в индекс, но потом на неделю вылетела из него. Это весьма обычное явление. Вот если спустя 30 дней ссылка за 2 недели так и не появилась в индексе, тогда можно смело отказываться.
Отличный материал, только вы почему то пропустили настрйоки MozRank. Интересно было бы послушаь ваше мнение вообще о данном показателе. Так как активно его использую.
Благодарю
А проверку уникальности контента Q не делаете? Заметил, что у многих площадок копипастный контент...соответственно хоть страница и добавлена в индекс ПС, трафика на нее не получишь
А с чем связана приостановка покупки арендных ссылок ?
Не работают или работают не так как раньше или вообще перестали работать ?
Не подскажете, можно ли также, как в случае с SAPE автоматизировать отсев неработающих ссылок в биржах вечных ссылок - Gogetlinks, Miralinks, Rotapost, Blogun, Liex? Или для отбора вечных ссылок нужно проверять по каждому параметру вручную через разные сервисы? Буду благодарен и думаю, многие Ваши читатели будут благодарны, если поделитесь Вашей методикой отбора вечных ссылок :)