Порой, приходится встречать в литературе случаи, когда даже маститые авторы или допускают элементарные ошибки, или не то что бы ошибаются, но излагают неэффективные подходы.
Значительно чаще приходится встречать людей, которые "пройдя один компас" (далее, извините, Петра Великого цитировать не буду, забанят) начинают с высоты своего знания изобличать "неэффективных".
Это разные спецификации ошибки. Метод наименьших квадратов предполагает, что "ошибка"
прибавляется к наблюдаемому значению. Если в исходной модели так и было, то нелинейное преобразование это всё порушит. Более того, модель, которая вполне разумна и оцениваема МНК, может линеаризующему преобразованию не поддаться. Рассмотрим простейшую модель
. Как видим, в отсутствие ошибки логарифмирование её переводит в простенькую линейную. Но если величина "эпсилон" достаточно велика, то наблюдённые игреки могут стать и отрицательны. И оценивать надо общим алгоритмом МНК, ориентированным на нелинейные задачи. И даже если все игреки оказались положительны - у нас может случиться много весёлого. Скажем, наблюдённое значение близко к нулю, хотя и больше его. Тогда его логарифм, не вызывающий формально трудностей при вычислении, большое отрицательное число. И его учёт в линеаризованной модели всю её перекосит.
Для того, чтобы нелинейное линеаризующее преобразование позволило законно пользоваться линейным МНК, надо, чтобы спецификация ошибки в линейной модели была отлична от обычной для МНК. Скажем, если у нас экспоненциальная модель описанного выше вида или степенная
, ошибка должна умножаться, а не прибавляться, и иметь распределение, принимающее положительные значения (логнормальное, скажем, тогда после логарифмирования у нас будет линейная модель с нормально распределённой ошибкой).
Иногда это подразумевается неявно, но если для автора это очевидное умолчание, то читатель может принять за вполне дозволенное всегда. Иногда это применяется, как "рабочее допущение" для получения начального приближения с последующей "шлифовкой" нелинейным алгоритмом оптимизации.