качаем XML

Shyroop

Новичок
качаем XML

Всем привет!

Проблемма такого рода, есть Б2Б проект. я логинюсь на сайт партнера через curl, и потом мне для каждого производителя надо вынуть XML и сохранить в файл(делаю через foreach). производителей около 300. Видимо из-за того, что это все очень долго происходит мне броузер выдает ERROR 500. как с этим боротся или может еще есть какой-то способ.

Спасибо.
 

Shyroop

Новичок
а из под чего запускать?

-~{}~ 24.02.08 21:31:

set_time_limit(0); - не сработало!
 

Gas

может по одной?
Shyroop
как часто нужно получать эти xml'ки ?
 

Shyroop

Новичок
в идиале раз в день, но можно реже... 3 раза в неделю скажем.
 

Gas

может по одной?
Для этого тебе идеально подойдёт cron. Добавляешь задачей свой скрипт и вуаля. Главное чтоб провайдер не рубил его за превышение ресурсов - тогда тяни не всё сразу, а по частям.
 

Shyroop

Новичок
там таймаута нет?

а если хочется посмотреть результат работы скрипта?
 

Апокалипсис

тех дир matras.ru
сохранять результаты работы скрипта в файл.
как сказал Gas - можно тянуть по частям.
Можно тянуть одним скриптом - (тока тянуть), сохранять XML у себя и вторым пробегом крона - парсить XML - в необходимый тебе формат.
 

ys

отодвинутый новичок
Автор оригинала: Shyroop
там таймаута нет?

а если хочется посмотреть результат работы скрипта?
Таймаут нужно самому ставить.
Результаты нужно смотреть в том месте, где эти результаты складываются.
cron Вам (или не Вам) пришлет stderr и stdout, если таковые будут...
 

Shyroop

Новичок
я так и делаю, сохраняю в файл. но не получается полностью, пишет ERROR 500. пробовал поставить set_time_limit(0);, не помогло.
 

Shyroop

Новичок
ок, а как частями? у меня идет цикл из 300 позиций. делать несколько циклов скажем по 20 позиций?
 

Апокалипсис

тех дир matras.ru
1 проход - качаешь 50 лент - сохраняешь
2 проход - качаешь ещё 50 и т.п.
Потом одним запуском скрипта парсишь всех в удобный тебе формат.
я так делал.
 

Shyroop

Новичок
что то я не могу понять как это сделать, можно намек? через for?
 

Shyroop

Новичок
кому интересно, решил таким образом:
1. ночью с помощью cron записываю в файл
2. потом когда хочу обновляю из файла.

спасибо всем за помощь!
 
Сверху