А это не будет затратно?По ресурсам и времени,если читать построчно fgets в цикле пока не будет конец файла ... мне кажется это будет очень трудоемкой задачей,для файла ~ 1-2 Гб ... а может и большеАвтор оригинала: AmdY
берешь строку, затем прогоняешь весь файл по строке и сравниваешь.
работать естественно не через file_get_contents()
Этот фактор не известен ,какого количество дублей и уникальныхАвтор оригинала: SiMM
> А это не будет затратно?
А в программировании почти всегда всё затратно, или по ресурсам, или по времени.
Если дубликатов очень много (т.е. уникальных данных - достаточно мало, чтобы хранить их в оперативной памяти), то задачу удаления дубликатов можно решить в один проход.
я бы давно использовал ее ... но нет возможности это сделать ...Автор оригинала: korchasa
Drink666
Если у тебя не стоит задача изучить методы сортировки, то используй консольный sort, как уже было сказано выше.
тоже хрестоматийная фраза. переводится, как "господи, еще какая-то напасть. sort какой-то. да еще и консольный. на ругательство похоже. я и пхп-то впервые в глаза вижу, а тут еще чего-то советуют. напишу, что нет возможности использовать, авось отстанут"я бы давно использовал ее ... но нет возможности это сделать ...