Для начала - надо разобраться со спецификацией ошибки. Можно ли рассматривать её, как случайную величину и с каким распределением. Из этого станет ясно, использовать МНК, МНМ или минимакс, или что-то ещё.
Затем миимизируется невязка (скажем, если МНК - сумма квадратов отклонений). Для линейной модели решение просто и единственно. Но тут модель нелинейна, и есть три пути:
1. Общие методы оптимизации. Вообще говоря, требуют большого расхода вычислительных ресурсов и не гарантируют глобального оптимума (частично лечится хорошим выбором начального приближения). Относительная простота задачи и достаточная производительность современных ЭВМ расход делают несущественным, по крайней мере для однократного расчёта.
2. Линеаризация. Если бы не слагаемое
, для неё хватило бы логарифмирования (правда, могут быть тонкости в связи со спецификацией ошибки, при аддитивной ошибке логарифмировать может быть неверным решением). Другой подход к линеаризации - приближать в данной точке нелинейную функцию линейной, решать задачу линейной регрессии, получая поправку к коэффициентам, повторяя до сходимости. Это, например, метод Левенберга-Марквардта.
3. Методы
ad hoc. Скажем, если значения
идут подряд с постоянным шагом (для простоты 1), а ошибкой можно пренебречь, то, перейдя в разностям соседних отсчётов, избавляемся от параметра
, затем логарифмируем, что получилось, и оцениваем линейной регрессией. Параметр
получается непосредственно, затем можно получить и остальные.