2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему
 
 СНАУ
Сообщение13.06.2018, 12:41 


07/10/15

2400
Процедура ресамплинга Parzen, Wei and Ying (1993) в итоге сводится к решению системы нелинейных уравнений
$\sum\limits_{i=1}^{n}x_i\cdot [I(y_i-b^T\cdot x_i \leqslant 0)-\tau]=0$,
где $I$ - индикаторная функция,
$ I=
$$\left\{
\begin{array}{rcl}
 1&|& y_i-b^T\cdot x_i \leqslant 0\\
 0&|& y_i-b^T\cdot x_i > 0\\
\end{array}
\right.$$
$

$x_i$ - известные векторы, $y_i$ - известные скаляры, $\tau$ - константа,
$b$ - вектор неизвестных переменных.

Есть идея заменить функцию $I$ - сигмоидой. Тогда можно реализовать итеративный алгоритм по типу Ньютона - Рафсона. Но мне кажется это не оптимальный подход, тем более, что есть основания полагать - система сводится к задаче линейного программирования, но к сожалению никак не соображу, каким образом это сделать.

Может быть кто то из участников сталкивался с подобными задачами и подскажет как их принято решать?

 Профиль  
                  
 
 Re: СНАУ
Сообщение14.06.2018, 15:33 
Заслуженный участник
Аватара пользователя


11/03/08
9526
Москва
http://citeseerx.ist.psu.edu/viewdoc/do ... 1&type=pdf

 Профиль  
                  
 
 Re: СНАУ
Сообщение14.06.2018, 21:46 


07/10/15

2400
Спасибо Евгений Машеров, точно такой формулы не нашел, но это то что надо!
вот здесь на это соответствие указано прямо http://www.ms.uky.edu/~mai/biostat277/KN.pdf (потом уже нашел),
сопоставляя все результаты - прихожу к выводу, что приведённая мною выше формула - это ни что иное как выражение для градиента $L_1$ - функционала.

(Оффтоп)

пользуясь случаем, не могу не задать Вам вопрос,
читая, или вернее - делая перевод "Roger Koenker Quantile Regression, 2000"
наткнулся один не до конца понятный момент,
автор ведёт речь о методе jackknife который в данном случае терпит неудачу,
при попытке восстановить распределение параметров,
я так понимаю метод реализуется идентично LOO контролю, но в последнем случае делается прогноз удалённого наблюдения, и оценивается ошибка прогноза, в случае jackknife никаких прогнозов не делается, а просто оцениваются параметры модели на подвыборках.
Правильно ли я понимаю, что отличия только в этом, или я что то упустил?

(идея в том, что можно сделать сразу и то и это, практически при тех же затратах)

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 3 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group