Защита от лишнего get запроса.

solaris

Новичок
Защита от лишнего get запроса.

Здравствуйте!

Всем известно, что поисковые системы(в частности яндекс), не любят много одинаковых страниц на сайте. Отсюда появляется реальный способо опутсить ниже в выдаче сайт конкурента, например:

http://phpclub.ru/talk/?dasd=asdasdas
http://phpclub.ru/talk/?asd=asdasdasasdasa
http://phpclub.ru/talk/
http://phpclub.ru/talk/?gffdfsad=asdasdasdas
............................................................

Выдает одну и ту же страницу. Злоумышленник может добавить в яндекс штук 100-1000 подобных страниц, в следсвтии чего сайт яндекс затопчет намного ниже в выдаче чем он был до этого, ибо на всех этих страницах будет один и тот же текст.

Вопрос: че делать то?????????????????????

Как программно защитится от таких запросов??????
 

solaris

Новичок
Блин, в том и дело, что не понятно, что должно быть в if, ибо сайт может быть очень большим, с хреновой кучей параметров передавемых гетом, отсекать их вручную дело всеьма заморочное, тем более если сайтов защитить надо несколько:(... а отфильтровыая все параметры передаваемые гетом можем отфильтровать и нужные:(... живой пример, этот форум, в нем очень много параметров переждаваемых гетом, .. .как же разобрать в крипте какой параметр нам нужен, а какой нет?:(((

ВОт спрашиваю, и естесственно понимаю, что скорее всего никак:((( но надежда умирает последней:(
 

iSlayter

Новичок
kruglov, видимо да. До меня над одним ресурсом "крутой пасан" работал. В итоге в поисковиках остались ссылки site/?mode=calendar&year=xxxx&month=xx таких ссылок набралось невероятно много (и все они вели на главную страницу сайта).
в итоге тупо проверяю наличие этих параметров и если что - редирект на индекс. Через 2 недели "левые" ссылки пропали.
 

MiksIr

miksir@home:~$
Нас вот тоже попугали сеошники этой проблемой.
Кроме как фильтровать - никак, конечно. Нам помогла реализация ЧПУ, которая вообще не оставила места для query string, соответственно решение имеет тот же смысл, что у iSlayter
С форумом можно попробовать основные пути организовать через ЧПУ и запретить в robots.txt что-то вроде *?*, но идея сырая, не думал над ней. Можно в каждую функцию, которая вызывается извне, добавить анализ гет-параметров и ахтунг если найдены лишние.

-~{}~ 16.05.08 17:41:

PS: если все было правильно спроектировано, то решение этой задачи элемнтраное, в случае же готовых кодов, особо сложных типа форума, малой кровью не получится отделаться.
 

kruglov

Новичок
Напишите в Яндекс (серьезно), может, что посоветуют, а может и поймут, что надо фиксить.

От себя вижу мысль (для Яндексоидов) - если страница тождественна другой странице, причем на первую есть ссылки с сайта, а на другую - нет, то вторую не индексируем.
 

MiksIr

miksir@home:~$
kruglov, если я правильно понял, то суть в том, что Яша как раз определяет тождественность этих страниц и склеивает их как "зеркала", причем точно предугадать какой основной URL для этой страницы он выберет (а какие отправит в список зеркал) сложно. А если он выберет совсем не ту страницу, которую планировали сеошники, их труды осложняются. В подробности я не вдавался, думаю на тематических форумах подробнее растолкуют.
 

С.

Продвинутый новичок
Даже если проблема с одинаковыму страницами есть, но как этим можно опустить конкурента? Ссылок наставить? Ты только поднимешь его этим!
 

dimagolov

Новичок
по-моему проблема возникает только, если при неправильных параметрах не отдавать 404 ошибку а просто показывать главную с 200 кодом. если при неправильных url / параметрах отдавать 404 или делать переадресацию, то проблем быть не должно....
 

MiksIr

miksir@home:~$
С., многие вещи нам непонятны не потому, что наши понятия слабы; но потому, что сии вещи не входят в круг наших понятий.
Как я понял - если сеошники продвигали один url, а в результате яндекс выбрал основной адрес зеркал другой, то усилия сеошников по этому урлу пропадают.

dimagolov, это само собой. Только я не знаю ни одного форума, к примеру, который считал бы неправильным передачу лишних параметров в добавок к необходимым.
 

solaris

Новичок
ухх.... мдя попа получается:((((.... чтож придется все сайты лопатить:(
 

kruglov

Новичок
а параметры еще и местами менять можно.
а на ином сайте страница сама себе нетождественна будет, если там все время что-то меняется.
 

MiksIr

miksir@home:~$
kruglov, ну зеркала определяются не по 100% совпадению ;) А насчет переставления параметров тоже мысль пришла, да... тут наверно только чпу с фиксированным местоположением параметров поможет.
 

kruglov

Новичок
Можно для страницы строить ее правильный URI и в случае его несовпадения с реальным делать редирект (это уже для сайтов). Правда, тут надо тщательно подходить к вопросу, а то получим бесконечный редирект.
 

С.

Продвинутый новичок
Все равно не понимаю, где собака порылась. Если вместо основной продвигаемой страницы, я получу весь бонус на другую с тем же контентом, то какая мне разница? Плюс еще дополнительные поинты за твои ссылки.
 

MiksIr

miksir@home:~$
Ну, самый банальный пример, что лезет в голову (хотя не утверждаю, что правильный). Надеюсь, знаете что огромный вес имеет ссылочное ранжирование? Допустим, сеошники организуют ссылки на нужную нам страницу, что бы яша придал этой странице больший вес и поднял вверх в выдаче. А кто-то берет, и кормит яше ссылку с левым параметром; яша видит схожий контент и клеит эти две ссылки. Причем основной делает вторую. Видимо, вес страниц "зеркал" или не учитывается, или учитывается слабее, а больший приоритет имеет вес основной ссылки (т.е. второй), который ничтожно мал. В итоге работа сеошников идет на смарку, страница падает в выдаче.
Вообще, почитав forum.searchengines.ru и не такие еще страсти можно найти ;)
 

С.

Продвинутый новичок
Я не специалист в СЕО, а программист, который пытается рассуждать логически. Если кто-то накормил Яшу ссылками на мой же сайт, с ранжированием большем, чем сделали мои СЕОшники, то желаю себе больше таких конкурентов.

Пока из всех доводов я вижу одни только страсти-мордасти, как де пожар можно потушить керосином. Считаю, что вся проблема с лишними get'ами утопическая и не стоит усилий и процессорного времени, чтобы ей заниматься. И даже вредная тем, что загромождает алгоритм ненужными телодвижениями.
 
Сверху