Buldozer
Новичок
непонятные "тормоза"
эх... даже и не знаю как сформулировать.
есть список сайтов, у которых есть страницы обладающие определенными характеристиками
есть список ссылок, которые нужно разместить на страницах отвечающих заказанным характеристикам
для каждого сайта загружаю эти ссылки и их атрибуты в массив, и далее опрашиваю каждую из страниц опрашиваю на тему подойдет ли она для размещения какой-либо из ссылок.
Если подходит, то ссылка из массива удаляется, и делается соответствующая запись в БД.
После того как все страницы сайта опрошены массив со ссылками удаляется и загружается заново для следующего сайта.
Проблема: - "с каждой итерацией на время "обработки страницы" увеличивается на несколько миллисекунд и продолжает расти. В результате время выполнения одной итерации становится катастрофическим".
Можно было бы предположить, что дело где-то в алгоритме. Но смысл такой - что после обработки каждого сайта, делается unset всех массивов и переменных - т.е. скрипт считай начинает работать заново, и если бы дело было в алгоритме, то с этого момента время на выполнение итераций опять бы приходило в номинальное и далее опять возрастало... но этого не происходит.
А вот перезапуск скрипта помогает.
Т.е. такое впечатление, что скрипт не освобождает корректно память после unset`ов и обнуления переменных... держит все это в памяти и из-за этого все эта проблема.
Может кто-нибудь что-нибудь подсказать на эту тему?
Прошу прощения, за "формулировку проблемы"... хз, что это за проблема, и как ее сформулировать.
эх... даже и не знаю как сформулировать.
есть список сайтов, у которых есть страницы обладающие определенными характеристиками
есть список ссылок, которые нужно разместить на страницах отвечающих заказанным характеристикам
для каждого сайта загружаю эти ссылки и их атрибуты в массив, и далее опрашиваю каждую из страниц опрашиваю на тему подойдет ли она для размещения какой-либо из ссылок.
Если подходит, то ссылка из массива удаляется, и делается соответствующая запись в БД.
После того как все страницы сайта опрошены массив со ссылками удаляется и загружается заново для следующего сайта.
Проблема: - "с каждой итерацией на время "обработки страницы" увеличивается на несколько миллисекунд и продолжает расти. В результате время выполнения одной итерации становится катастрофическим".
Можно было бы предположить, что дело где-то в алгоритме. Но смысл такой - что после обработки каждого сайта, делается unset всех массивов и переменных - т.е. скрипт считай начинает работать заново, и если бы дело было в алгоритме, то с этого момента время на выполнение итераций опять бы приходило в номинальное и далее опять возрастало... но этого не происходит.
А вот перезапуск скрипта помогает.
Т.е. такое впечатление, что скрипт не освобождает корректно память после unset`ов и обнуления переменных... держит все это в памяти и из-за этого все эта проблема.
Может кто-нибудь что-нибудь подсказать на эту тему?
Прошу прощения, за "формулировку проблемы"... хз, что это за проблема, и как ее сформулировать.