PAV писал(а):
Можно еще поступать примерно так. Не будем делить область значений параметров
на части...
Так сейчас и делается. Однако, если реальное число степеней свободы < 3, то группировка событий выглядит более приемлемой. Кроме того, (1) группировка позволит увеличить скорость работы программы: группировку можно провести только один раз; (2) через процедуру группировки можно сделать непрерывность распределения; (3) группировка нужна для другого алгоритма.
PAV писал(а):
Решение при этом автоматически должно получиться непрерывным.
Этот вопрос не очевиден (непрерывность по начальной точке (x0,d0,T0)? )...
PAV писал(а):
Более того, можно эвристически оценивать надежность оценки распределения в каждой точке по тому, насколько много оказалось близких к ней наблюдений.
Эвристика - это уже пройденный этап. Хотелось бы найти точное статистическое или machine learning решение.
PAV писал(а):
... Строгие обоснования возможны только при достаточно полном задании математической модели всего, что у Вас есть.
Как только задача будет принципиально решена, ничто не будет мешать задать полное описание модели (интересно точное решение для выбранной модели, которая не противоречит известным и достоверным фактам).
PAV писал(а):
Ведь теоретически может так оказаться, к примеру, что экспертные оценки вероятностей на самом деле никуда не годятся и величины
реально мало информации несут о распределении. Модель в этом случае должна нарушаться.
1) Ничто не мешает оценивать качество вероятностей
.
2) Практика говорит о том, что их точность не хуже ~ 5%.
3) Группировка как раз и нужна для того, чтобы уменьшить влияние грубых ошибок в
.
PAV писал(а):
Вообще задание модели требует указания довольно много теоретической информации о явлении, а на практике с этим обычно проблемы.
С информацией проблем нет. Вопрос - какая нужна информация, чтобы получить удовлетворительное решение.
PAV писал(а):
Я в самом начале попробовал вывести что-то достаточно строго, предполагая, что экспертные оценки вероятности на самом деле - точные значения, а также что известно априорное распределение переменных. Но Вам эти привнесенные соображения не понравились. Но без них строгих обоснований вряд ли удастся получить.
Насколько я знаю, прорыв в применении machine learning как раз и связан с тем, что для построения удовлетворительных решений нужны только данные + некоторые общие и важные свойства рассматриваемой системы (как и учит классик жанра - В.Вапник в своем фундаментальном труде
).
PAV писал(а):
По поводу третьего пункта я не очень понял. Что Вы называете факторизованной ф.р.?
прошу прощение. То есть, хотел сказать "каждая компонента факторизованной ф.р. - примерно пуассоновская".
Факторизованная ф.р - ф.р. построенная из ф.р. для компонет: g1(0), g2(0), g1(1), g2(1) (например, если считать их независимыми, то будут соответствующие свертки ф.р.).
Да, и еще можно добавить, что x,d,T можно моделировать как пуассоновские величины.