2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему
 
 СНАУ
Сообщение13.06.2018, 12:41 


07/10/15

2400
Процедура ресамплинга Parzen, Wei and Ying (1993) в итоге сводится к решению системы нелинейных уравнений
$\sum\limits_{i=1}^{n}x_i\cdot [I(y_i-b^T\cdot x_i \leqslant 0)-\tau]=0$,
где $I$ - индикаторная функция,
$ I=
$$\left\{
\begin{array}{rcl}
 1&|& y_i-b^T\cdot x_i \leqslant 0\\
 0&|& y_i-b^T\cdot x_i > 0\\
\end{array}
\right.$$
$

$x_i$ - известные векторы, $y_i$ - известные скаляры, $\tau$ - константа,
$b$ - вектор неизвестных переменных.

Есть идея заменить функцию $I$ - сигмоидой. Тогда можно реализовать итеративный алгоритм по типу Ньютона - Рафсона. Но мне кажется это не оптимальный подход, тем более, что есть основания полагать - система сводится к задаче линейного программирования, но к сожалению никак не соображу, каким образом это сделать.

Может быть кто то из участников сталкивался с подобными задачами и подскажет как их принято решать?

 Профиль  
                  
 
 Re: СНАУ
Сообщение14.06.2018, 15:33 
Заслуженный участник
Аватара пользователя


11/03/08
10232
Москва
http://citeseerx.ist.psu.edu/viewdoc/do ... 1&type=pdf

 Профиль  
                  
 
 Re: СНАУ
Сообщение14.06.2018, 21:46 


07/10/15

2400
Спасибо Евгений Машеров, точно такой формулы не нашел, но это то что надо!
вот здесь на это соответствие указано прямо http://www.ms.uky.edu/~mai/biostat277/KN.pdf (потом уже нашел),
сопоставляя все результаты - прихожу к выводу, что приведённая мною выше формула - это ни что иное как выражение для градиента $L_1$ - функционала.

(Оффтоп)

пользуясь случаем, не могу не задать Вам вопрос,
читая, или вернее - делая перевод "Roger Koenker Quantile Regression, 2000"
наткнулся один не до конца понятный момент,
автор ведёт речь о методе jackknife который в данном случае терпит неудачу,
при попытке восстановить распределение параметров,
я так понимаю метод реализуется идентично LOO контролю, но в последнем случае делается прогноз удалённого наблюдения, и оценивается ошибка прогноза, в случае jackknife никаких прогнозов не делается, а просто оцениваются параметры модели на подвыборках.
Правильно ли я понимаю, что отличия только в этом, или я что то упустил?

(идея в том, что можно сделать сразу и то и это, практически при тех же затратах)

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 3 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Geen


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group