Добрый день,
последнее время из каждого утюга вещают, что Байесовские методы помогают найти правильную аппроксимацию, но я так и не понял на чем там основан подход.
Вот пусть мы аппроксимируем заданный многомерный массив
конечной суммой одномерных векторов
, которые нормированы
и весовыми коэффициентами
в виде
называемую в виде мульти-вей, прокрустово или тензорное разложение, или решаем задачу compressed sensing вида
, с таким вектором
, что только
его составляющих не равны нулю, или любую другую аппроксимацию, в которой аппроксимируемый объект не может быть тривиально представлен через сингулярное разложение.
Во всех этих задачах имеется подзадача поиска оптимального ранга
и я уже не первый раз слышу, Что только Байесовские методы позволяют наиболее правильно предсказывать этот ранг. Но как?
До этого раньше я к этим задачам так подходил. Суммарная невязка могла совсем почти не отличаться при точном ранге, или слегка больше-меньше, а вот решение изменялось кардинально. Поэтому, в дополнении к невязке я смотрел на число обусловленности активной матрицы, возникающей в задаче наименьших квадратов, и, если происходил резкий скачек вниз этого числа обусловленности, то я предполагал, что решение должно быть "лучше", и тогда рапортовал, что точный ранг найден.
Понятно, что этот интуитивный метод далеко не всегда нормально работал, но все говорят, что надо Байесом, но я так и не смог понять как, вдруг кто знает, пожалуйста, расскажите!
Спасибо!