Если указана цифра погрешности, например, 0.5, то ведь это абстрактное число, означающее, что после пятёрки идут нули.
Прибор-то не обязан все измеренные значения выдавать с одной и той же погрешностью! (Погрешность — это ровно расстояние между точным значением и тем, которое у нас есть, и не что-то более мистическое.) Значение погрешности, как и точное значение величины, обычно неизвестно. Но можно оценить величину погрешности, больше которой погрешность заведомо не будет (ну или заведомо
на практике — а то если предположить, что ошибка измерения распределена нормально, погрешность сможет оказаться сколь угодно большой, хотя
практически этого не будет). Это оценка сверху, и на практике саму эту оценку погрешности обычно зовут погрешностью. И в данном случае число

означает, что абсолютная погрешность не больше

, а не равна

.
Формулы сложения-умножения и т. п. тоже говорят о верхних оценках погрешностей.