2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Потеря информационной энтропии в линейных фильтрах
Сообщение13.03.2020, 16:14 
В соответствии с теоремой, приведённой в работах Шеннона по теории информации и кибернетике (с. 301-302)

Цитата:
Если ансамбль функций, имеющий энтропию на степень свободы h_{1} в полосе частот $W$, пропускается через фильтр с характеристикой $Y(f)$, то ансамбль на выходе имеет энтропию $$h_{2} = h_{1} + \frac{1}{W}\int\limits_{W} \log_{2} |Y(f)|^2 df$$$


Но данный результат самому вывести не получается... В качестве пояснения результата в этих же работах приводится следующее:

Цитата:
Действие фильтра представляет собой линейное преобразование координат

то есть $y_{i} = \sum \limits_{j} a_{ij} \cdot x_{j}$,
или $Y = AX$.
Отсюда я могу получить, что $h_{2} = h_{1} + \log_{2}|\det A|$

Цитата:
Если рассматривать различные частотные как первоначальные координаты системы, то новые частотные компоненты будут просто равны исходным, умноженным на некоторые коэффициенты

Это вроде тоже понятно, фактически сказано, что если Фурье-преобразование исходной величины равно $\mathcal{F}(x)$, то после применения линейного преобразования получим масштабированное Фурье-преобразование $\frac{\mathcal{F}(x)}{|\det A|}$ с новыми частотами.
До этого момента всё более-менее ясно. Вопрос возникает в этом месте:

Цитата:
Якобиан преобразования равен (для $n$ синусоидальных и $n$ косинусоидальных компонент $$J = \prod_{i=1}^{n} |Y(f)|^2$$


Помогите, пожалуйста, разобраться, откуда появляется выражение для якобиана. По идее я каким-то образом могу связать с этим результатом выражение $h_{2} = h_{1} + \log_{2}|\det A|$.

Спасибо!

 
 
 [ 1 сообщение ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group