Это именно теория сложности, она занимается не только очень сложными задачами.
Вычисление времени выполнения
![$T[n]$ $T[n]$](https://dxdy-01.korotkov.co.uk/f/8/1/6/816cbe733d5f9665aa7434ab2d9047f482.png)
для конкретной вычислительной машины неинтересно в силу необщности результата. Других подходов я не слышал.
Ладно, допустим предъявлены два алгоритма
![$a(bc)$ $a(bc)$](https://dxdy-03.korotkov.co.uk/f/e/9/5/e95742d693a3f39edcad3d95d2f8a12b82.png)
и
![$\frac{a}{b}(b^2c)$ $\frac{a}{b}(b^2c)$](https://dxdy-02.korotkov.co.uk/f/9/1/9/919edb578773a7563caaf2ace1b5aa7c82.png)
(пусть деление на ноль не рассматривается как проблема). Существует ли универсальное доказательство, что первый алгоритм эффективнее? Можно как-то задать ограничения для чисел
![$a, b, c$ $a, b, c$](https://dxdy-01.korotkov.co.uk/f/c/7/5/c7511ce56cd9c8457f7a29917f39df8d82.png)
. Ну и важное: кроме этих чисел ничего не дано, нет готовых
![$\frac{a}{b}$ $\frac{a}{b}$](https://dxdy-02.korotkov.co.uk/f/d/6/d/d6d4bf848820d5b0e6fffa14890188a282.png)
и
![$b^2$ $b^2$](https://dxdy-01.korotkov.co.uk/f/4/4/e/44e557b2680adf90a549e62a6f79a50c82.png)
.
Наверное доказательство вполне простое - нужно просто посчитать количество эквивалентных операций в обоих алгоритмах и понять, что во втором алгоритме их столько же, но там есть еще лишние операции.
То есть сравнительный подход существует, но для этого нужно предъявить искомый алгоритм целиком и эталонный алгоритм.
если разрешается использовать только арифметические операции
Да, понятно, но в частный случай уходить неинтересно. Интересно лишь для примера.