QQQ
Новичок
Кэширование require/include. Есть ли смысл?
Приветствую,
В проекте приходится подключать достаточно большое количество файлов, в связи с этим возникла пара идей по оптимизации инклюдов.
1. Есть мысль кэшировать php код. То-есть для каждого запроса сваливать все подключаемые файлы в один, и в дальнейшем подключать только один большой нужный файл. Я знаю про кэширование байткода Zend'ом, поэтому хотелось бы знать, с какого количества разных отдельных инклюдов на запрос и разнообразия возможных уникальных запросов появляется смысл это делать?
2. Если забыть про первое. Есть ли смысл писать собственный аналог (get|set)_include_path и кэшировать пути к подключаемым файлам в php массив (далее массив в мемкэш или в подключаемый php-файл), в __autoload() скажем? Или кэш файловой системы справится с этим в любом случае лучше? Опять же с какого порога количества различных файлов и частоты подключения каждого конкретного файла, это может иметь смысл?
Какие мнения?
Приветствую,
В проекте приходится подключать достаточно большое количество файлов, в связи с этим возникла пара идей по оптимизации инклюдов.
1. Есть мысль кэшировать php код. То-есть для каждого запроса сваливать все подключаемые файлы в один, и в дальнейшем подключать только один большой нужный файл. Я знаю про кэширование байткода Zend'ом, поэтому хотелось бы знать, с какого количества разных отдельных инклюдов на запрос и разнообразия возможных уникальных запросов появляется смысл это делать?
2. Если забыть про первое. Есть ли смысл писать собственный аналог (get|set)_include_path и кэшировать пути к подключаемым файлам в php массив (далее массив в мемкэш или в подключаемый php-файл), в __autoload() скажем? Или кэш файловой системы справится с этим в любом случае лучше? Опять же с какого порога количества различных файлов и частоты подключения каждого конкретного файла, это может иметь смысл?
Какие мнения?