Автор оригинала: MiksIr
А ботов будет несколько тысяч скорее всего.
Почему несколько тысяч? Несколько десятков тысяч! И заходят они у тебя на произвольный адрес (и с www , и без) , и параметры подставляют иногда (ну типа как тут phpclub.ru/talk/showthread.php?threadid=119465 , где threadid от 10 000 до 110 000) , и рефереров иногда вставляют (берут их из последних страниц которые посещал браузер атакующего компьютера) , и не просто запрос делается , а через компоненты типа WebBrowser (который выполняет всё что выполняет обычный движок браузера , тоесть и все куки , и редиректы , и скрипты) , и после этого раз в несколько минут заходит на другую страницу , а иногда и видеофайлик с этой страницы начнёт кчать...
Что ты тогда будешь делать?
Давай не будешь придумывать сколько "тысяч скорее всего" будет ботов? Просто посмотри что у меня в первом сообщении написано - там другие начальные условия. И даже если взять твои самые скептические выводы о том что внедрение такой проверки уменьшит время выполнения скрипта с 0.1 до 0.01 секунды - то мой сайт уже не вырубится от того что пара посетителей нажмёт Ctrl+F5 в своих IE. А при цифрах 0.004-0.006 справится и с поставленной задачей (отобьёт DoS из нескольких сотен заходов в секунду). Да и приведённые тобой цифры можно уменьшить , например вписывая не полный IP-адрес , а только сетку подкласса С (это уже 25% экономии) , да и элементов в in_array будет меньше...
weregod
RuTracker.org хорошо проиндексированы и гуглом и яндексом.
Значит эта строка приследует другие цели
<meta http-equiv="Refresh" content="0;URL=forum/index.php">