memory_limit

stalxed

Новичок
memory_limit

Как понял данная директива служит для указания максимально допустимо использования ОЗУ. Но как указать чтоб скрипт съедал всю оттадую оперативку, просто есть медленный скрипт выполняющий объёмную задачу и ускорить его некак...вот думаю со стороны апача можно ли указать чтоб как можно больше ресурсов давал скрипту.....использую xampp на домашней windows машине

-~{}~ 18.07.06 21:20:

ЗЫ нужен токо один скрипт и ему могу отдать хоть ресурсы всего компа...
 
Если скрипту не хватит памяти он свалится, так что в этом случае ему наверно хватает памяти. Можно поставить -1 - без ограничения памяти. Скорее всего необходимо изменить алгоритм.
 

stalxed

Новичок
тость без изменения скрипта никак?

-~{}~ 18.07.06 22:24:

$ath = mysql_query("SELECT * FROM cars");
while($author = mysql_fetch_array($ath))
{
$site=trim($author['url']);

$stringc = file_get_contents($site, False);
preg_match("!<td>Всего записей: (.*?)</td>!si",$stringc,$ok);

$colvo=$ok[1]/100;
$colvo=ceil($colvo);

$page=$page+$colvo;

for ($i=1; $i<$colvo+1; $i++) {
$url=$site.$i;

$string = $string.file_get_contents("$url", False);

}



preg_match_all("!/sale/(.*?)/!si",$string,$ook);

for ($i=0; $i<count($ook[0]); $i++) {
$url=trim($ook[0][$i]);

$query1="SELECT COUNT(*) FROM auto WHERE url='$url'";
$result=mysql_query($query1);
$result=mysql_fetch_array($result);
if ($result[0]!=0)
{
}
else
{
$query = "INSERT INTO auto (id,url,date) VALUES ('','$url','')";
mysql_query($query);


echo "ЕСТЬ новые";
}
и как этот алгоритм изменить? просто выполняется он 300секунд)
 

stalxed

Новичок
количество просканированых записей 5000

-~{}~ 18.07.06 22:27:

<Можно компьютер поменять. Что за скрипт?
смотри выше(cамопал) компьютер P-4(2800, intel) OЗУ 512 помоему для одного скрипта достаточно)
 
Как часто он должен запускаться? Может запускать из планировщика задач?
 
Они не против такого количества запросов и так часто? Так и сервер можно уложить. Может они имеют более простой способ выгрузки изменений
 

stalxed

Новичок
я хз против они или нет,серервер очень мощный и скорее всего не один скрипт берущий изменения на моём компе

-~{}~ 18.07.06 23:52:

1вообщем можно ли сделать так:
file_get_contents идёт с нескольких страниц, которые хранятся в массиве, можно ли сделать чтобы содержимое бралось оттуда не по очереде, а сразу с нескольких, добишь потоком.
если можно подскажите как)
2если я сделаю так что с базы данных(mysql)загружу все ссылки в масив и с полученного масива буду сравнивать с масивом полученым с БД, и если есть новые ссылки то создам новый массив помощу их туда, и после того как выполнится цикл закину эти ссылки в БД. Как по вашему это снизет время выполнения скрипта?!
 
Автор оригинала: st@l][ED
1вообщем можно ли сделать так:
file_get_contents идёт с нескольких страниц, которые хранятся в массиве, можно ли сделать чтобы содержимое бралось оттуда не по очереде, а сразу с нескольких, добишь потоком.
если можно подскажите как)
curl_multi_

Автор оригинала: st@l][ED
2если я сделаю так что с базы данных(mysql)загружу все ссылки в масив и с полученного масива буду сравнивать с масивом полученым с БД, и если есть новые ссылки то создам новый массив помощу их туда, и после того как выполнится цикл закину эти ссылки в БД. Как по вашему это снизет время выполнения скрипта?!
Можно просуммировать microtime для разных частей цикла, скорее всего основное время уходит на получение страниц и их обработку.

На ихнем сайте нет страницы с последними изменениями, поищи что-то более порходящее для разбора. Любая оптимизация не вложится в 5 секунд.
 

stalxed

Новичок
curl_multi вообще толком инфы о нём не нашёл...мож кто объяснит что это за функция и тд?
 
Сверху