Защита от лишнего get запроса.

iSlayter

Новичок
С., а есть ещё такой случай, когда клиент говорит "не хочу чтобы эти левые ссылки были в яндексе. удали их оттуда" ;)
 

dimagolov

Новичок
С., triumvirat
Проблема в том, что поисковики расценивают много разных линков на один и тот же контент как попытку накрутки и для предотвращения такого понижают виновника в выдаче. То есть проблема не в том, что линков много, в том, что контент у них неправильный с точки зрения поисковиков.
 

solaris

Новичок
iSlayter, вот именно такая ситуация и возникла, я тоже далек от сео, но было сказано, что если параметры лишнии и контент не меняется, то отдавать 404, чтоб яша не смог их удачно скушать:(((....... идея с проверкой в самой странице, лично мне, весьма удобно, ибо сайты строились по одной и той же схеме, там в каждом из них порядка 12-15 шаблонов, смотря на шаблон я смотрю, с какие параметры ему необходимы, в случае прихода других параметров - 404 яше в зубы. А вот с расположением параметров(их парядка) --- тут уж точно засада:(
 

dimagolov

Новичок
А вот с расположением параметров(их парядка) --- тут уж точно засада
почему? ты же сам их раставляешь в GET-ах, а не дядя? значит у них есть только один правильный порядок, остальные не правильные. смотри REQUEST_URI и проверяй порядок.
 

С.

Продвинутый новичок
расценивают много разных линков на один и тот же контент как попытку накрутки и для предотвращения такого понижают виновника в выдаче
Ну хоть на второй странице что-то стоящее появилось. Однако у меня есть информация, что подобные санкции относятся к одинаковым страницам на разных доменах.

ты же сам их раставляешь в GET-ах, а не дядя?
В формах, вообще говоря, их расставляет именно дядя.
 

dimagolov

Новичок
В формах, вообще говоря, их расставляет именно дядя.
Интересная мысль... по идее GET формы будут только для поиска по сайту. И отдавать они будут результат поиска, который одинаковым для разных параметров поиска будет крайне редко, разве что "контент не найден", выдача которого в поисковике нас не волнует.
Вообще задача только в том, чтобы GET запросы на некий содержательный и индексируемый контент проходили по принципу одна страница - один и только один запрос определенного формата. Результаты обработки форм к такому не относятся...
 

MiksIr

miksir@home:~$
С., думаю, не должны _программисты_ рассуждать от методах _СЕО_. Я еще понимаю, когда они пытаются это делать, так как им лень работать, но тут вроде не тот случай.
Да, такая проблема есть, для форума дяди васи она, может, и не актуальна, а для тех, кто двигает себя в топ по высоко/среднечастотникам - очень может акнуться.
И говорят об этом вполне серьезные люди, вплоть до конторы Ашманова. Причин не верить им, а верить логике программиста нет.
И, кстати, повторюсь - если система нормально спроектирована, то прикрыть эту "дырку" очень просто - достаточно внести несколько проверок в роутер и генератор урлов.
 

С.

Продвинутый новичок
Это кодеры не должны рассуждать, а программисты (веб-девелоперы) -- обязаны.

Ну хоть бы прецедент один привели в качестве примера. А то только предположения, да и то на основании недоработок поисковиков, а не дыр приложений.

Кстати, сдается мне, что те, кто озабочен свом высоким положением в поисковиках, вообще урлов с гетами не имеют. Не представляю себе заказчика, требующего защиты от гетов и отказывающегося от ЧПУ.

Шансы получить ДДОС гораздо выше и реализуется это проще. Какой процент серверов устанавливает ДДОС защиту? Мизер. А вы вообще говорите об охоте на Неуловимого Джо французскими батонами.
 

Ralph

Дикий столяр
[superofftop] (после прочтения сжечь) Позвольте уж нам,презренным кодерам,низшей ступени эволюции Homo Sapiens,хотя бы целовать прах у ног небожителей-Программистов :)[/superofftop]
 

MiksIr

miksir@home:~$
Автор оригинала: С.
Это кодеры не должны рассуждать, а программисты (веб-девелоперы) -- обязаны.
А вот когда программисты перестают рассуждать на темы, в которых не являются знатоками, а полагаются на мнение профессионалов в этой области - они становятся проектировщиками, архитекторами или просто техническими руководителями ;)

Я не знаток в области SEO, но общался с 2-я seo-фирмами. Одно из их рекомендаций, особо по продвигаемым страницам, было именно то, о чем в этом топике речь. Крутить пальцем у головы и говорит "фигня, лучше мы от dos-а пойдем защищаться" мне в голову не пришло.

Кстати, защита от ддоса гораздо дороже выйдет, чем проверка урлов, а эффект ддоса длится меньше, чем неправильно индексированная ссылка.
 

MiksIr

miksir@home:~$
Блокировка на чтение нужна если планируется писать много и медленно (относительно) - дабы читающие процессы не получили кашу из старого и нового или же просто частичные данные.
 
Сверху