На рассмотрение общественности предлагается следующий любопытный и вполне практический вопрос, фактически сформулированный мною так:
Какой подход можно использовать (или выработать) для оценки информационной емкости (информационного содержания), которую, бесспорно, имеют "внутри себя" различные функциональные зависимости?
Это не задача из учебника и не вопрос из олимпиады, а практическая проблема, с которой я имел честь столкнуться, пытаясь подобрать меру сравнения между собой двух произвольных функциональных зависимостей (см. тему
http://dxdy.ru/topic17094.html) с точки зрения "запасённой" (агрегированной) в них информации.
Звучит несколько странно, но тем не менее, постараюсь объяснить суть вопроса.
Предположим, у нас есть некоторая линейная или нелинейная функциональная зависимость (ФЗ) - набор числовых пар
, по которым можно построить двумерную кривую. Зададим себе вопрос: какой объем информации она может "запасти"? Ответ вроде бы прост - если предположить, что каждое значение из числовой пары
будет вещественным одинарной точности, то на его кодирование потребуется 32 бита (1 бит на знак, плюс 8 бит на порядок числа, плюс 23 бита на мантиссу числа), умноженных еще на 2 (т.к. пара чисел) и на количество таких пар. Вроде бы получим конечное число! Но, если учесть, что кривая, построенная на основе таких пар, теоретически может проходить через бесконечное количество точек, имеющих также парные координаты, то выходит, что запоминаемый объем информации - близок к бесконечности.
В теории информации, разработанной Клодом Шенноном,
информационное содержание или
самоинформация — это мера количества информации, связанного с исходом
случайной величины; выражается в единицах информации, например, биты, наты, баны, диты, или харты, в зависимости от основания логарифма, используемого в определении. Но это определение связано со случайной величиной, а в нашем случае имеет место хорошо определенная функциональная зависимость, т.е. не случайная, а рассчитанная величина.
Аналогичная ситуация может возникнуть, если рассмотреть вопрос об
информационной емкости, которой обладают такие структуры, как нейронные сети (НС) прямого распространения, которые также предоставляют возможность получения отклика
, но только существенно более сложного. Процесс обучения самой простой нейросети с одним входом, одним выходом и одним скрытым слоем нейронов с нелинейными функциями активации (без обратных связей) - это фактически "упаковка" в структуре НС некоторого объема информации за счет изменения (перераспределения) значений коэффициентов функций активации и межнейронных связей (весовых коэффициентов). Пока не решаюсь сказать, в каких единицах правильнее будет измерить этот объем размещаемых данных - в битах, натах, банах, дитах, или хартах ...
Но что бы мы не взяли в качестве примера, — будь то набор числовых пар
или нейросеть
, — интуитивно понятно, что объем информации, сохраненный при помощи построения функциональной зависимости, опять-таки можно оценить, измерить. Очевидно также, что есть вполне определенный верхний предел такой информационной ёмкости, превысить который невозможно без усложнения структуры функциональной зависимости.
На основе этого краткого вступления хотелось бы вместе с Вами найти подход к измерению информационного объема заданной функциональной зависимости и порассуждать, каким образом его можно подсчитать?!