Вот еще пример полезности жордановой формы, тоже из вычислительной математики. Будем численно решать обычную линейную систему
. Допустим, что мы немного изменили матрицу
и вектор правых частей
. Насколько изменится решение
? Может быть так, что и
и
изменятся немного, а
сильно. Притом, что и
и
имеют небольшие элементы. То есть получается, что решение как бы неустойчиво относительно данных (в таких случаях говорят,
что матрица
"плохо обусловлена"). Это бывает, когда у матрицы
большие элементы.
А еще при численном решении добавляются ошибки округления, они накапливаются, и могут сильно подпортить результат.
А когда рассматривается задача обращения матрицы, а не просто решения линейной системы, то все еще хуже (так в этой области традиционно считается, хотя я для себя этого еще не уразумел). Это всё достаточно сложная наука, не настолько, как разные части "чистой" математики, но тоже непростая.
Так вот, при чем тут жордановы матрицы ? Они как раз могут играть роль "модельной задачи", на которой плохие варианты и реализуются, потому что матрица, обратная к жорданову блоку
, вообще говоря, очень велика, при небольших
.
Не знаю, поняли ли Вы что из этого текста, но в общем мораль такая: в математике, по большому счету, куда ни плюнь, тут же в жорданову форму и попадешь.