как обесопаситься от безумного нажатия f5 или предовратить атаку на сайт

texrdcom

Новичок
как обесопаситься от безумного нажатия f5 или предовратить атаку на сайт

Смотря по инету разные сайты замечал такую проблему
время от времени,
посещаемые сайты иногда выдают ошибку о том что исчерпан
лимит запросов к базе данных на за определенной время,
это могло случиться изи того - я так думаю что несколько юзеров без думно жмут f5
2) это запланированная атака на сайт тоесть вызваеться определенная страница с помощью элеметарного робота,
который в течении короткого времени обращаеться на сайт либо по одному урлу - либо по нескольким.
3) тежи поисковые роботы разные могут сделадь нагрузку на сайт.

Как можно обезопаситься от таких неприятностей.
а) Кешировать запросы к базе там где это возможно,
б) Ограничить количество обращений за определеное время к сайту - тоже не очень хорошо можно остановить поискового робота они ведь сто процентов не ограничевают в скорости откртия страниц.


--
может кто то уже думал над этой проблемой и подскажет как лутче сделать
 

Vital_N

Новичок
я бы добавил № 4) кривые руки, когда при выводе одной странице происходит 350 запросов (видел где-то)
 

texrdcom

Новичок
4 - ты имешь виду б - да но тут нюанс понятно что все запросы оптимизирванны не знаю как можно написать какойто скрипт
чтобы во время выда страницы использовалось куча запросов
это скорее всего даже будет проблема построения базы и так далее.
Да этот вариант подходит но проблема будет с поисковыми роботами ведь и им закроеться доступ автоматом. по user_agent тоже не получиться ведь потделать его можно без проблем
 

Vital_N

Новичок
texrdcom
я не говорил, что надо ограничивать число запросов, с чего ты взял? я говорил, что проектировать бд и приложение надо по уму, чтобы при выводе одной страницы - не было несколько сот запросов, и не думаю, что поисковики ТАК нагружают сервер, что он валится...
 

texrdcom

Новичок
тут даже не проблем с сервером когда он у тебя свой!!!
когда ты держиш свой сайт на любом платном хостинге
то нормальный провайдер ограничивает количество запросов
к базе от предленного пользователя, чтобы какойто юзер не положил сервак mysql
 

Popoff

popoff.donetsk.ua
Кешировать запросы к базе там где это возможно,
и какой в этом смысл? мануал внимательно читал?

Ограничить количество обращений за определеное время к сайту - тоже не очень хорошо можно остановить поискового робота они ведь сто процентов не ограничевают в скорости откртия страниц.
если к сайту обращается поиcковый робот, то не ставить такое ограничение.

я бы добавил № 4) кривые руки, когда при выводе одной странице происходит 350 запросов (видел где-то)
у меня столько запросов при открытии одной страницы. а есть способы уменьшить это число? вопрос еще в том, действительно ли это нужно?

по user_agent тоже не получиться ведь потделать его можно без проблем
поисковых роботов определяют не по юсер-агенту, а по маске подсети.
 

texrdcom

Новичок
Автор оригинала: Popoff
и какой в этом смысл? мануал внимательно читал?
я имею виду кеширования не сервером а своим кодом
и тоже сомневаюсь в нужности данного действия для динамических страниц типа форум не подходит


если к сайту обращается поиcковый робот, то не ставить такое ограничение.


у меня столько запросов при открытии одной страницы. а есть способы уменьшить это число? вопрос еще в том, действительно ли это нужно?

Да думаю нужно

поисковых роботов определяют не по юсер-агенту, а по маске подсети.
А что делать с новыми поисковыми роботами просматривать логи и анализировать - параноя
 

Popoff

popoff.donetsk.ua
А что делать с новыми поисковыми роботами просматривать логи и анализировать - параноя
интересный, конечно вопрос....
но я у себя решил остановиться именно на таком решении: всем запрещяю, кроме тех роботов, которых я знаю. большинство популярных поисков отрабатывают нормально, а если меня индексирует какой-то непонятный поисковик, то значит в немя я не проиндексируюсь...

я думаю, что этот вопрос - вопрос мнения каждого отдельного конкретного владельца сайта.
 

Djibo

Guest
texrdcom
что собственно ты хочешь выяснить/предложить?
 

texrdcom

Новичок
да да согласен, но реклама лишней не бывают подумай над этим !
 

texrdcom

Новичок
Djibo --- Хочу узнать как уменьшить количество одинаковых запросов к mysql серверу с учетом того что запрос будет к базе одинаковый а ответ различный(то есть могут быть внесены новые данные в базу - например доска объявлений - форум).
 

Popoff

popoff.donetsk.ua
лучше - не скажешь
http://www.livejournal.com/users/demiurg/43663.html
Ну и что хорошего там написано? Сплошная ругань и ничего дельного. А ты попробуй, зайди на мой сайт и понажимай много раз F5 :) Разрешаю :) К тому же даже при большом количестве запросов время генерирования страницы у меня не превышает 0.1 секунды :)
 

texrdcom

Новичок
Автор оригинала: Vital_N
лучше - не скажешь
http://www.livejournal.com/users/demiurg/43663.html
Да это он просто нашел кривой сайт и тупо сделал дос атаку f5
и для данного сайта достаточно умер.
А ведь можно любой сайт положить и без f5
используя всего навсего curl , и вызвать в цыкле все 30с, а кроном запускать скрипт кадую минуту.
 

Vital_N

Новичок
Popoff
это твое решение, или провайдера?

Your IP is banned for 60 second(s) as there are too many accesses.

кстати контент главной страницы (дальше не ходил) можно получить МАКСИМУМ пятью запросами, зачем тебе 300 :)))
 

texrdcom

Новичок
эй Popoff
только что зашел первый раз на твой сайт во што выдало
Your IP is banned for 60 second(s) as there are too many accesses.
Ты наверное расчитваеш на вдумчивых читателей у себя на сайте типа он должен читать страницу миниму 60с
 

texrdcom

Новичок
а я не нажимал открыл сайт и еще какуето страницу на угад
во хохма :)
 
Сверху