Сегодняшнюю статью я хочу посвятить клоакингу. Я уже Вам рассказывал про него, но, а сейчас хочется поговорить, как его оптимизатора применяют для оптимизации своих проектов. В большинстве случаях, к нему относятся негативно оптимизаторы. Суть метода заключается в том, что существуют две страницы: одна отлично оптимизирована, а втора не очень, так вот, одна страница предназначена для поисковых систем, а другая для пользователей.
В основном поисковые системы попадают на оптимизированные страницы, а вот пользователи, на страницы, где могут отсутствовать вообще ключевые слова. В связи с этим поисковые системы и не любят клоакинг, а он относится к черным методам оптимизации сайта.
Для того чтобы осуществлять такие проделки, то есть, чтобы на одних и тех страницах было разное содержимое, необходимы знания, а также доступ к базам IP-адресов поисковых систем, поскольку оптимизаторам придется их отличать от обычных пользователей, то есть от всех остальных.
Конечно, для того чтобы получить доступ пользователю ко всем IP-адресам поисковых систем очень трудно, тем более они очень часто могут меняться, поэтому данный способ является не очень надежным. Поисковая система может зайти на сайт оптимизатора с тем IP-адресом, который он не знал, в итоге она увидит страницу, предназначенную для пользователей. В самом лучшем случае, поисковая система понизит сайт в выдаче, а в самом худшем она его заблокирует (наложить фильтр).
Да, но есть более простой и верный способ, чтобы как можно дольше не разоблачиться – это узнать имя бота, через User Agent. Имена поисковых ботов меняются не так часто. Поэтому оптимизатор может написать специальный скрипт, который будет сравнивать имена посетителей и эти имена будут сравниваться со списком всех ботов, в итоге им и будет показываться необходимая страница.
Не смотря на то, что поисковые системы не очень любят клоакинг, оптимизаторы его все равно применяют на практике и довольно часто. В большинстве случаях это обман, то есть пользователь попадает на страницу, на которой совершенно другая информация, не ту которую он искал. И очень хорошо будет, если там просто какая-нибудь реклама, а не вирусы. В данном случае уместо название – «черный клоакинг».
Да, но сайты могут применять разное количество страниц, при этом учитывать информацию о ранее просмотренных страницах пользователя, о его браузере, ОС и так далее. Тут уместно название «белый клоагинг», но оптимизаторы остаются на грани и все равно, в любое время могут попасть под санкции поисковых систем.
Применять клоакинг оправданно только в том случае, если пользователю из-за этого будет удобно, комфортно. Например, посетитель зашел в интернет-магазин и ему сформировалась группа товаров. Эта группа сформировалось на основе просмотренных ранее товаров. Во всех остальных случаях клоакинг не будет эффективным методом оптимизации, так как он очень быстро разоблачается поисковыми системами.
Также советуем почитать на PressDev.RU
Короткая ссылка: http://pressdev.ru/?p=3551