Вот уж "метод наименьших квадратов" тут совсем ни при чем.
0. Это именно задача метода наименьших квадратов. И все предложенные подходы - его варианты.
1. Метод Марквардта - нелинейный МНК, полезный при "умеренной нелинейности", итеративно приближающий решение линейными МНК, в которых матрица регрессоров - значения производных нелинейной функции по параметрам при текущем значении вектора коэффициентов, регрессанд - разность между наблюдаемыми значениями зависимой переменной и её оценкой при данном значении вектора коэффициентов, а полученная оценка коэффициентов данной линейной регрессии - поправка к вектору коэффициентов оцениваемой нелинейной модели.
2. В данной модели есть упрощение, здесь лишь два параметра существенно нелинейны, и можно оставить лишь один, воспользовавшись
В частности, можно организовать перебор по значениям омеги, оценивая прочие параметры, как линейную регрессию.
3. Для уточнения можно рассматривать задачу, как одномерную оптимизацию по омеге, используя в качестве целевой функции сумму квадратов линейной регрессии при заданной омеге. Ну, скажем, "золотым сечением".
4. Оценку частотного параметра омега можно получить, рассмотрев ряд из разностей. При этом первые разности избавятся от постоянного слагаемого, но синус превратится в косинус, вторые вернут синус, третьи опять косинус и т.п. Причём коэффициент будет меняться в зависимости от омеги, выражения получите сами. Вероятно, удобно сопоставлять первые и третьи разности.
5. Простой, но работающий метод оценки - считать переходы через 0 (поскольку есть свободный член - через среднее значение). Расстояние между переходами - полпериода.