Неужели мифические наносекунды оправдывают этот говнокод?
Этот вопрос сильно зависит от контекста. Если код относится к повторно используемому, то оптимизация вредной не бывает, так как это вклад во все проекты, с использованием этого кода.
Второе, если метод вызывается много раз в рамках одного запуска приложения (да и в рамках количества запросов в единицу времени), то наносекунды складываются в секунды.
Тут нужно оценивать исходя из общих затрат времени на выполнение данного метода. Если он занимает 20% времени выполнения приложения, и его удалось оптимизировать на 50%, то это означает, что приложение стало работать на 10% быстрее. Т.е. приложение сможет обрабатывать на 10% запросов больше в единицу времени.
Точного ответа, оправдана там эта оптимизация или нет, нельзя дать без замеров в реальном приложении. Только запустив профайлер до оптимизации, и после, можно сказать, была ли эта оптимизация удачной, и на сколько.
Что касается жертв в читабельности, то в данном случае, это не самый худший вариант. В LightOrm мне приходилось жертвовать даже объектным подходом. НО! Нужно помнить, что такие жертвы должны приноситься в строго определённых местах, выявленных по замерам производительности. Т.е. в оптимизации нет жёстких правил (как обычно её пытаются представить, заменой двойных кавычек на одинарные). Оптимизация проводится только после замеров и только там где это может оказаться оправданным (не всегда удаётся оптимизировать даже то, что нужно).