Но мне сдаётся, что Левенберг-Марквардт лучше.
Не соглашусь. ТС решает аппроксимацию, значит у него есть шум. Какой именно там у него шум - хз, и в этой задаче будет много локальных минимумов. Как их разруливать Левенберг-Марквардт будет - реально можно только повеситься, программируя всякие симулейтед-анниелинги с регионами поверх оного, чтобы он из минимума вылез. Если исходных оцифрованных данных
![$N$ $N$](https://dxdy-04.korotkov.co.uk/f/f/9/c/f9c4988898e7f532b9f826a75014ed3c82.png)
, то мной предложенный метод на одну итерацию будет требовать
![$kN$ $kN$](https://dxdy-02.korotkov.co.uk/f/9/4/a/94a9554cf645b34587529cfcce8dcd4082.png)
арифметических операций, где
![$k$ $k$](https://dxdy-03.korotkov.co.uk/f/6/3/b/63bb9849783d01d91403bc9a5fea12a282.png)
примерно равно
![$30$ $30$](https://dxdy-01.korotkov.co.uk/f/0/8/f/08f4ed92f27cec32cdd7a6ecd580f9e782.png)
, что в общем-то не есть супер много. И Ньютон там одномерный пишется, и можно честно обойти все регионы, оценивая по сходимости Ньютона регион, куда он сходится, а куда - нет, так как фактически область задания можно и сверху и снизу ограничить.