Popuf - что ты имел ввиду под словом *очень сложные*?
Меня зовут Pop
off
Очень сложные - это когда одним запросом ты не сможешь сделать всю нужную тебе выборку. Даже если очень сильно хорошо подумаешь.
Насколько я понял в случае с базой проблем по быстродействию не будет - а вот что с файлом? проверить (1000 записей*1 Кб каждая) 10Мб не накладно ли будет каждый раз?
Фанат wrote:
Такая-то операция выполняется столько-то.
А мне надо - столько-то
Как мне ее оптимизировать.
Или, думаешь, за тебя тут кто-то что-то запрограммирует и померяет скорость?
Ясно, но понимаешь, я читаю ПХП третий час... всего
Это много? Вот, если бы ты сказал, что третий год читаешь.... И не себе, а другим... Вот тогда другое дело..
Насчёт Гугла - ты хочешь сказать, что он не кэширует запросы???!!! Ты чего, а если я захочу просмотреть три страницы (по 10 результатов), то он что - будет три раза по всей базе искать?
Фанат wrote:
Вообще, гугль - это отдельная тема для разговора.
Если тебе интересно, как устроен гугль, поищи статью вот
здесь Там точно есть, я видел...
И читал
С ихним методом как раз записывать огромные результаты во временную таблицу будет намного дольше чем найти все заново...
Кстати, такая твоя фраза и есть то, что Фанат назвал кофейной гущей =)
Конкретный вопрос - какой алгоритм используется в крупных серваках, типа поисковых системах, огромных форумах и т.д. ведь если при переходе на следующие страницы будет заново проводится поиск по огромной базе, то сервер сдохнет...
А если при каждом поиске сервер будет гонять огромные потоки данных во временные таблицы, то он тем более сдохнет. Алгоритмы можно почитать
здесь и на
www.google.com
Насколько я понял там используются временные таблицы?
Интересно, из чего ты это понял?
Ещё один вопрос - можно ли оценить время выполнения поиска по шаблону в текстовом файле обьёмом 1-2 Мегабайта?
Нельзя. Можно оценить время работы скрипта, который будет выполнять такой поиск. А для этого смотришь время в начале, потом в конце, вычитаешь и говоришь: скрипт выполнялся столько-то.