2 nikit87:
ага, скорее всего упустил, уж больно топ жирный оказался.
Смори.
Файл с соксами sox.dat , в нем 1000 штук к примеру. Он динамический, может быть и 10000 штук.
Что я делаю (алгоритмически пишу):
fread (sox.dat)
while (! eof)
{
$sox=fget(sox.dat) - читаем построчно
$check= fsockopen($sox,1080, ......, 5) - открываем сокет на
порту 1080 с таймаутом 5 секунд.
if (! $check)
{
- если нет коннекта, то идем на следующую строку
}
else
{
echo (...) - иначе рисуем на экране сокс, который онлайн
}
}
Теперь арифметика. 1000соксов * 5секунд = 5000 секунд
или чуть менее полутора часов.
Именно столько браузёр висит и одидает результат.
Потому и нужна параллельность.
2 matross:
Да я понял, что cron .... Но не понял откуда параллельность то возьмется?
А, или скажем запуск в 11:00 check.php?file=temp001.txt
В 11:01 check.php?file=temp002.txt
В 11:02 check.php?file=tempХХХ.txt и в том же духе? Ну да, наверное, только не очень оно удобно будет.
Все-таки хочется сделать так, чтобы выражаясь примитивным языком, нажал кнопку "GO", запустились бы 10 копий моего скрипта, каждая из которых чекала бы файл из 100 соксов.
Результат налицо - процесс займет в 10 раз меньше времени.
Всем спасибо.