Не то же самое. Меняется спецификация ошибки. Иногда, впрочем, меняется к лучшему, в смысле для преобразованной применение МНК более обосновано.
Если оцениваемая модель

, то с учётом ошибки, она будет

Логарифмирование изменит распределение

, если исходно оно было нормальным, то в полученной логарифмированием модели

распределение

нормальным уже не будет, и дисперсия его уже, вообще говоря, не будет одинаковой для всех наблюдений (а при больших отрицательных значениях

и вовсе появятся под логарифмом отрицательные величины).
Однако если спецификация ошибки имеет вид

, то есть влияние случайных факторов мультипликативно, и его можно полагать проявляющимся домножением на логнормальную случайную величину, взамен прибавления нормальной, что выглядит достаточно похожим на правду, если для разных наблюдений есть основания ждать одинаковых относительных отклонений, и равновероятны одинаковые относительные, то в этом случае после логарифмирования приходим к ситуации, в которой условия применения МНК выполнены в точности, тогда как для непреобразованной задачи они выполняются лишь приближённо.