CURL - ограничения размера файла

Bu-Bu

Любитель PHP
Я в паре скриптов ставил javascript set_timeout до процедуры и в случае успеха clear_timeout после. Вроде срабатывало всегда
 

Bu-Bu

Любитель PHP
Автор оригинала: dimagolov
Bu-Bu, ты о каком javascript сейчас говорил?
Человек написал - зависает скрипт. Вот я ему и дал решение принудительного разрыва хоть curl хоть sockets
 

dimagolov

Новичок
Bu-Bu, с чего ты взял, что скрипт с клиента вообще пускается, а не из командной строки?
 

Bu-Bu

Любитель PHP
"Но скрипт всё же виснет
А виснет из-за того, что иногда пытается качать сильно большие файлы...
Как сделать ограничения, чтоб например больше 5 мб не качал ? "

Человек хочет избавиться от зависания на curl, но это нереально - проверено тыща раз. Единственный путь - javascript. На sockets можно, конечно, пойти путем от размера файла. Хочет curl-ом пользоваться - пусть пока работает из броузера. У меня один скрипт проверяет за один проход около 30000 ссылок на 600-700 сайтах и ни разу не зависает именно благодаря моей примочке на javascript.
 

grigori

( ͡° ͜ʖ ͡°)
Команда форума
Проблем нет ни с курлом, ни с PHP.

Учитывайте, что cURL-multi с socks-проксями работает в блокирующем режиме, а не в многопоточном.

Ограничивать размер скачивания надо в хэндлере, считая размер скачанных данных. Я публиковал тут библиотеку c примерами. а сейчас я пишу класс для curl_multi.

Bu-Bu, перечитай na_tanke, а?

От "зависания" cURL-а "избавиться" не надо - его просто нет. Есть задержки, которые надо грамотно выставлять.
 

Bu-Bu

Любитель PHP
Виснет сам скрипт, так что не надо реплик опять безумных! Curl тут не при чем. Я предложил человеку фишку для принудительного рефреша или чего угодно, не дожидаясь пока curl вытянет какую-то гирю. Вы не читаете, что пишет аффтар топика, а сразу бросаетесь на человека, который единственный ответил результативно без пустого трепа.
 
Сверху