Добрый день,
последнее время из каждого утюга вещают, что Байесовские методы помогают найти правильную аппроксимацию, но я так и не понял на чем там основан подход.
Вот пусть мы аппроксимируем заданный многомерный массив

конечной суммой одномерных векторов

, которые нормированы

и весовыми коэффициентами

в виде

называемую в виде мульти-вей, прокрустово или тензорное разложение, или решаем задачу compressed sensing вида

, с таким вектором

, что только

его составляющих не равны нулю, или любую другую аппроксимацию, в которой аппроксимируемый объект не может быть тривиально представлен через сингулярное разложение.
Во всех этих задачах имеется подзадача поиска оптимального ранга

и я уже не первый раз слышу, Что только Байесовские методы позволяют наиболее правильно предсказывать этот ранг. Но как?
До этого раньше я к этим задачам так подходил. Суммарная невязка могла совсем почти не отличаться при точном ранге, или слегка больше-меньше, а вот решение изменялось кардинально. Поэтому, в дополнении к невязке я смотрел на число обусловленности активной матрицы, возникающей в задаче наименьших квадратов, и, если происходил резкий скачек вниз этого числа обусловленности, то я предполагал, что решение должно быть "лучше", и тогда рапортовал, что точный ранг найден.
Понятно, что этот интуитивный метод далеко не всегда нормально работал, но все говорят, что надо Байесом, но я так и не смог понять как, вдруг кто знает, пожалуйста, расскажите!
Спасибо!