Какие существуют стандарты - предельный, допустимый или оптимальный уровень искажений, возникающих вследствие такой обработки: например: соотношение погрешности к уровню полезного сигнала 1 к 10, 1 к 3?
Я в этом не разбираюсь, но, скорее всего, стандартов нет, и надо сравнивать не эти вещи, а погрешности данных уже на входе обработчика с теми, что он вносит: ясно, что сильно меньше входной «собственную» делать не стоит, и ясно, что сильно больше тоже не стоит, потому что тогда мы теряем ресурсы впустую. Как-то так, если нет подводных камней в конкретных случаях.