2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Два индуса написали статью
Сообщение03.12.2015, 15:16 
Добрый день!
Два индуса на просторах англоязычного интернета разместили статью http://pubs.sciepub.com/ijdeaor/1/2/3/ о применении ГА (генетического алгоритма)для отбора переменных входа и выхода при реализации DEA -анализа, популярного сегодня среди экономистов (я экономист). Если я правильно понял из статьи, то они ,по сути, решают задачу снижения размерности с помощью неизвестного мне Rm -коэффициента. Вот его (часть) формула:
$\mathbf{RM=corr(A,K_r,A)=\sqrt{\frac{(A^t K_r A)}{tr(X^t X)}}}$
Пролопатил инет, так и не нашел для себя ничего в помощь об этом коэфф-те. Помогите разобраться , что это за коэффициент, что почитать о порядке его определения из отечественной литературы ?
Дайте удочку,- а уж рыбку постараюсь поймать сам.
Аркадий

 
 
 
 Re: Два индуса написали статью
Сообщение03.12.2015, 17:17 
123Arkadiy С понятием "корреляция" Вы знакомы?

 
 
 
 Re: Два индуса написали статью
Сообщение03.12.2015, 18:58 
Да, но не настолько, что бы глядя на эту формулу сказать, что это коэфф корреляции.
Если можн,о помогите без лишних вопросов делом.

 
 
 
 Re: Два индуса написали статью
Сообщение03.12.2015, 20:10 
Аватара пользователя
У индусов (и у Вас, переписавших у них формулу) запятая лишняя, после $K_r$, а ещё они переобозначили X, как A, но не везде)
Правильное выражение есть в инструкции к данному статпакету:
https://cran.r-project.org/web/packages ... select.pdf
Смысл примерно таков: у нас есть полная матрица данных, и мы можем посчитать сумму дисперсий всех переменных. Мы хотим сократить размерность данных, и проецируем матрицу данных на матрицу меньшей размерности (то ли главных компонент,то ли просто подмножество исходных переменных), эти проекции будут иметь меньшую дисперсию, в силу того, что часть вариабельности исходных переменных останется в пространстве, ортогональном тому, на которое проектируем. Вот отношение суммарной дисперсии проекций к суммарной дисперсии исходных переменных и равно RM. В общем, какая часть изменчивости переменных не потеряна при проецировании.

 
 
 
 Re: Два индуса написали статью
Сообщение04.12.2015, 03:42 
Евгений, Большое спасибо за участие!
К сожалению ссылка не работает.
Подскажите, что почитать о методах определении суммарной дисперсии проекций и о определении этого злосчастного показателя Rm.
Аркадий

 
 
 
 Re: Два индуса написали статью
Сообщение04.12.2015, 03:46 
123Arkadiy
Работает.

 
 
 
 Re: Два индуса написали статью
Сообщение04.12.2015, 06:29 
Аватара пользователя
Только что проверил - рабочая. В чём выражаются Ваши проблемы? Что не работает?

 
 
 
 Re: Два индуса написали статью
Сообщение04.12.2015, 08:00 
Евгений! Сейчас зашел в инет с планшета,-ссылка работает!
Rm нашел, буду переводить.
Но вопрос, правильно ли я понимаю идею авторов статьи (о применении генетического алгоритма), которая заключается в том, что ГА они применяют к поиску максимума Rm как функции. ?

 
 
 
 Re: Два индуса написали статью
Сообщение04.12.2015, 12:39 
Аватара пользователя
Да, именно так.

 
 
 
 Re: Два индуса написали статью
Сообщение04.12.2015, 16:59 
Евгений, большое спасибо за помощь!
Честно говоря не ожидал, думал что в России таких людей (способных помочь бескорыстно) уже нет ......, хотя сам же я помог вчера застрявшей в ночной дороге "Калинке" . Правда, это случилось под впечатлением от помощи полученной на этом сайте от Евгения, а потом в дорогу. Ну вот, в поле, ночь, Калинку то из сугроба и вытащил, Мне помогли ,- я помог. Правда, я бы все равно помог вне зависимости ....
Ну да ладно, еще раз спасибо, Евгений!
Аркадий

 
 
 
 Re: Два индуса написали статью
Сообщение05.12.2015, 08:46 
оффтоп: скажите пожалуйста , нужно ли в конце своего сообщения писать своё имя ? )))

 
 
 
 Re: Два индуса написали статью
Сообщение05.12.2015, 08:59 
Нет. И обращаться к собеседнику по имени тоже не нужно. Строго по никнейму.

 
 
 [ Сообщений: 12 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group