Существенный момент здесь - спецификация ошибки. Если она аддитивна и имеет нормальное распределение, то логарифмирование приведёт к непостоянству дисперсии (гетероскедастичности) и изменению вида распределения, и как результат - к смещению оценок параметров.
Однако для моделей, представляющих собой произведение функций, зачастую ошибка имеет логарифмически нормальное распределение (или хорошо им приближается). Кроме того, логарифмирование в этом случае стабилизирует дисперсию ошибок.
Поэтому подход с логарифмированием модели (и, в данном случае, введением новых переменных, равных
и
) в большинстве случаев работает лучше. Модель сводится к линейной, решается даже просто на бумаге, и дисперсии оценок параметров получаются легко.
Если же ошибка заведомо аддитивна, то надо использовать какой-либо метод нелинейной регрессии (Левенберга-Марквардта, скажем). Здесь уже нужно начальное приближение (которое, кстати, можно получить вышеописанным способом, логарифмированием).
Что же до предложенного Вами подхода - очевидно, что для получения оценок параметров надо взять два наблюдения, и для каждой из возможных пар будут свои значения a и b. То есть либо Вы произвольно выбираете порядок расчёта и тем искажаете результат, либо повторяете расчёт для всех
возможных пар, что достаточно затратно, причём нет никакой гарантии, что усреднение по полученным значениям даст Вам несмещённую оценку параметров (достаточно одной пары наблюдений такой, что x и z отличаются на величину порядка ошибки хранения данных, то есть практически совпадают, а y различны, и оценки параметров у Вас могут улететь в бесконечность, соответственно исказив среднее), а уж о свойствах оценки дисперсии можно лишь фантазировать.