большое Всем спасибо за полезные комментарии!
в итоге обсуждения, я пришел к выводу, что попытки вычисления обратной матрицы в символьном виде увы бесперспективны
думаю, что в принципе для аппроксимации этих определителей можно использовать искусственные нейронные сети (ИНС)
так как зависимости заведомо монотонные, а по теореме Hecht-Nielsen любую гладкую функцию N переменных можно аппроксимировать трёхслойной ИНС с N(2N+1) нейронами в первом слое, 2N+1 нейронами во втором слое и линейным выходным слоем
один из недостатков здесь - это отсутствие прямых формул пересчёта коэффициентов, параметры ИНС придётся определять в ходе трудоёмкой итеративной процедуры
что вы думаете по этому поводу? нет ли здесь каких то подводных камней?
вообще, будучи под впечатлением от работ Горбаня
http://nova.rambler.ru/cl?rex=521FC130C9D8774F&block=serp&st=1448814435&id=title_1&rnd=0.7012483696453273&key=nPfTRJe25EU-HuEEhztA_1YtzXnQVSoCzPBSssdnNkdGITL5CqZFkRHA8hC4gZgrEZGhCwGpQh8JZWyEXlbiDiiz2f56R9GOwyxWeCxrUKbcS_RqXZ8x3trDWVQJIoaS1LCLX9hnBiIusU14GcOEmlN4I1wIJx-B3y1TAuyWHQM=&_URL=http%3A%2F%2Fneuroschool.narod.ru%2Fpub%2Fsibzhvm98.pdfя уже пробовал аппроксимировать такие определители двухслойными ИНС со степенной функцией активации. Результаты получились прямо скажем - не очень. Для 20 входных переменных и 100 нейронов 2-го слоя ошибка на выходе была не менее 1%. Но хуже всего то, что распределение ошибок сильно отличалось от нормального, следовательно и модель эта явно не адекватная
Теперь вот подумал, что может трёхслойная сеть сможет дать хорошие результаты