Вопрос: как тут правильно быть с погрешностями и почему нельзя округлять исходные данные до одинаковой наихудшей точности? Или у меня бред и округлять можно только результат, но не исходные и промежуточные данные? Я понимаю что нельзя, но как-то это смущает, ведь те же
или
или
в школе никогда не берут с лишней точностью, всегда округляют до точности прочих параметров. Или это правило (брать лишь необходимое количество знаков) не распространяется на исходные данные? Что-то я подзапутался, и не в математике, а скорее в методологии.
Скорее уж вы помните про округление, но забыли, зачем оно надо.
Идея с округлением сразу исходных данных работает в ситуации, когда эти исходные данные в дальнейшем умножаются, делятся, возводятся в степени и т.п. Тогда действительно срабатывает правило сложения относительных погрешностей, и таскать за собой лишние значащие цифры операндов незачем.
Однако возможна ситуация, когда где-то в процессе решения требуется исходные данные вычитать (или складывать данные с разными знаками, что в конечном счете дает тот же эффект). В этом случае, если данные близки, при вычитании произойдет существенная потеря точности, а предварительное округление просто уничтожит содержательную информацию. В данном случае получается нечто подобное: при решении понадобится не время само по себе, а разница времен, показываемых часами, поэтому предварительное округление делать нельзя.
В рафинированном виде тот же эффект можно заметить, если решать какую-то такую задачу: "За 1 час пешеход прошел по дороге расстояние от километрового столбика с отметкой 1234 до столбика с отметкой 1238, с какой средней скоростью двигался пешеход?"