2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему На страницу Пред.  1 ... 5, 6, 7, 8, 9
 
 Re: Люди, порой, не видят очевидные вещи [нелин. аппроксимация]
Сообщение30.10.2016, 01:31 


17/10/08

1313
Аппроксимация - это же "внутреннее дело" математики, т. е. замена одного математического объекта на другой в соответствии с определенным критерием или еще как-то...

Если речь идет о математических моделях, т. е. применимости на практике, то наиболее универсальный механизм проверки - это перекрестная проверка (cross checking), разве нет? Проблема же не только в том, что "среднее" при заменах съезжает. Например, если прогнозируют продажи, то их иногда сначала логарифмируют, потом аппроксимируют, и потом обратно "экспонируют". Это делается для того, чтобы единичные случайные крупные продажи не "портили статистику". Как ни странно, результат прогнозирования при таком фокусе бывает выше, чем прямая аппроксимация продаж. Есть и другие примеры... дисбаланс данных, когда аппроксимируемые данные распределены неравномерно, скажем, по оси абсцисс. Или когда критерий математической модели таков (так нужно в реальности), что аппроксимация даже теоретически не совпадает со средним.

В общем, я бы на регрессию (в статистическом смысле) не налегал, а больше бы доверился перекрестной проверке. А при ней "любые преобразования" имеют право на рассмотрение.

 Профиль  
                  
 
 Re: Люди, порой, не видят очевидные вещи [нелин. аппроксимация]
Сообщение30.10.2016, 10:50 
Аватара пользователя


12/01/14
1127
mserg, в данном случае меня, все же, интересует именно регрессионный анализ.

-- 30.10.2016, 12:31 --

Евгений Машеров в сообщении #1164207 писал(а):
Да никакие не нужны. Кроме того, что это Наименьшие Квадраты. Это чисто алгебраический факт.
Регрессоры определяют некоторое натянутое на них пространство. Когда мы строим МНК-оценку, мы проецируем регрессанд на это пространство. Отклонения от регрессии лежат в пространстве, ортогональном к названному. "Игреки с крышкой" же лежат в этом пространстве. Соответственно, второе соотношение следует из того, что скалярное произведение ортогональных векторов ноль. А первое - теорема Пифагора.
"Предпосылки" нужны для того, чтобы обосновать, что МНК это хорошо. И затем получить статистические свойства. А сами соотношения чисто вычислительные. Лишь бы квадраты.

Да, нашел в Себер "Линейный регрессионный анализ".

 Профиль  
                  
 
 Re: Люди, порой, не видят очевидные вещи [нелин. аппроксимация]
Сообщение30.10.2016, 14:02 
Аватара пользователя


12/01/14
1127
Евгений Машеров в сообщении #1164207 писал(а):
Да никакие не нужны. Кроме того, что это Наименьшие Квадраты. Это чисто алгебраический факт.

Да, разобрался, из геометрии МНК следует:
$\sum (y_{i}-\bar{y})^2=\sum (\hat{y_{i}}-\bar{y})^2+\sum e_{i}^2$. (1)
$\sum (y_{i}-\hat{y_{i}})(\hat{y_{i}}-\bar{y})=0$, (2)
Но получается, что параметры в модель должны входить линейно.
Для произвольного нелинейного МНК (1) и (2) могут не выполняться?

 Профиль  
                  
 
 Re: Люди, порой, не видят очевидные вещи [нелин. аппроксимация]
Сообщение01.11.2016, 14:35 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
Для "произвольного нелинейного МНК", для начала, не то, чтобы нельзя посчитать среднее арифметическое игреков, но у него существенно меньше смысла, ввиду неаддитивности нелинейных связей.

 Профиль  
                  
 
 Re: Люди, порой, не видят очевидные вещи [нелин. аппроксимация]
Сообщение01.11.2016, 20:21 
Аватара пользователя


12/01/14
1127
Евгений Машеров в сообщении #1165038 писал(а):
Для "произвольного нелинейного МНК", для начала, не то, чтобы нельзя посчитать среднее арифметическое игреков, но у него существенно меньше смысла, ввиду неаддитивности нелинейных связей.

Да, но нелинейный МНК - очень распространенная на практике штука, ведь многие искусственные нейронные сети прямого распространения, по-сути, - нелинейный МНК, например, многослойный персептрон, обучающийся по методу обратного распространения ошибки.

 Профиль  
                  
 
 Re: Люди, порой, не видят очевидные вещи [нелин. аппроксимация]
Сообщение01.11.2016, 22:11 
Аватара пользователя


12/01/14
1127
mserg в сообщении #1164243 писал(а):
Аппроксимация - это же "внутреннее дело" математики, т. е. замена одного математического объекта на другой в соответствии с определенным критерием или еще как-то...

Если речь идет о математических моделях, т. е. применимости на практике, то наиболее универсальный механизм проверки - это перекрестная проверка (cross checking), разве нет?

Проверке адекватности модели посвящена тема post1159386.html?hilit=#p1159386

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 126 ]  На страницу Пред.  1 ... 5, 6, 7, 8, 9

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: BVR


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group