Если задача учебная - уточните у преподавателя. Даже верный, но отличный от того, что он хотел, совет будет Вам во вред.
Если задача прикладная, из экономики ли, биомедицины, инженерии etc., и при этом "единичная" - воспользуйтесь средствами нелинейной регрессии из статпакетов. Statistica такие точно имеет, и SPSS, и многие ещё.
Если Вы хотите программировать или разрабатывать алгоритмы для подобных задач, или просто желаете проникнуть в логику метода, или у Вас такие задачи предполагаются регулярными, и, решая даже стандартными средствами, желательно иметь представление, как они устроены и каких проблем от них можно ожидать - тогда попробую изложить хотя бы начерно.
Нелинейные модели линеаризуются редко, и почти всегда при этом нарушается спецификация ошибки (как минимум - постоянство дисперсии теряется). Бывают и счастливые исключения, скажем, степенная модель логарифмированием приводится к линейной, а спецификация ошибки при этом приводится к требуемой для регрессии. Но не всегда, а если ошибка носила мультипликативный характер и имела логнормальное распределение (ну, хотя бы принимала только положительные значения). Если ошибка прибавлялась и распределение её было нормальным, то логарифмирование спецификацию ошибки нарушает, а если она велика - вообще под логарифмом окажутся отрицательные числа. Поэтому нелинейные модели часто приходится оценивать, используя специальные численные методы. Сводятся они к минимизации суммы квадратов отклонений нелинейной функции от наблюдаемых значений, сталкиваются с теми же проблемами, что и оптимизация вообще, а именно требуется начальное приближение и возможно "застревание" на локальном оптимуме. Ну и то, что сложность расчётов возрастает драматически, линейную модель можно руками посчитать, нелинейной нужен компьютер. Впрочем, сейчас это не столь болезненная проблема.
В задаче нелинейной регрессии минимизируется сумма квадратов, что позволяет построить метод "почти второго порядка", приближение к методу Ньютона, без расчёта вторых производных по параметрам. Можно оценивание нелинейной регрессии рассматривать и как построение серии линейных регрессий, дающих поправки к значениям коэффициентов. Вначале выбираются нулевые приближения для коэффициентов. Они могут быть взяты из содержательных соображений или оценены по какому-то линейному приближению. В частности, описанный выше для Вашей задачи приём с домножением всей модели на знаменатель и рассмотрением появившегося нелинейного члена, как новой независимой переменной
даст плохие оценки, поскольку нарушена спецификация ошибки, но в качестве начального приближения они могут и сгодиться (а вот от введения в правую часть величины, зависящей от y, ничего страшного не случится, это наблюдаемая величина, причём это не более чем костыль, отбрасываемый после получения коэффициентов). Также нужно уметь вычислять производные по коэффициентам при заданных значения коэффициентов для разных
. Подставим выбранные значения коэффициентов в нелинейную модель и вычислим невязки. Уменьшить их можно, варьируя коэффициенты. Ограничиваясь первым членом разложения в ряд Тейлора, выразим изменение вектора невязок при изменении коэффициентов
, где e - вектор невязок, D - матрица производных по коэффициентам, вычисленных для каждого наблюдения, c - поправки к коэффициентам. Нахождение поправок - обычная линейная регрессия. При этом, однако, часто возникает вычислительная проблема, связанная с тем, что значения производных коррелированы, и получаемая матрица близка в вырожденной. Поэтому к её диагональным элементам добавляют положительные числа, обеспечивая численную устойчивость обращения матрицы. Это и составляет метод Левенберга-Марквардта. Впрочем, используются и иные методы оптимизации, в особенности, если вместо наименьших квадратов использовать иную функцию (например, из соображений робастности).