Можно сделать на основе
layers.RNN, сделав свою cell, игнорирующую state на входе и с совпадающими output и state.
Но не очень понятно, зачем. У неё в явном виде выписываются коэффициенты (так что градиентный спуск не нужен). Способов сделать неизвестное заранее число итераций при применении, насколько я знаю, нет (ну кроме реализации своего слоя, который по сути применяет другой слой много раз), так что, видимо, лучший способ - это посчитать матрицу, руками собрать из неё однослойную сеть с сигнумом в качестве активации, и при запуске следить за сходимостью.
Как она вообще для задач классификации?
Непосредственна она - очень плохо. Всякие варианты по её мотивам сделать пытаются (ищите на архиве по фамилии), но вроде бы никаких серьезных результатов не добились.