Такой алгоритм тоже приведёт к успеху, но ничего общего с ГА не имеет.
:) Вы уверены, что ничего общего не имеет? Я в самом первом посте пытался перевести ГА на обычный мат. язык с помощью введения расстояния Хэмминга
![$$d(\mathbf{x},\mathbf{y}) = \sum_{i=1}^K |\sign(x_i - y_i)|,$$ $$d(\mathbf{x},\mathbf{y}) = \sum_{i=1}^K |\sign(x_i - y_i)|,$$](https://dxdy-04.korotkov.co.uk/f/7/1/5/715154a4af7427bf2a320f7257b96b9b82.png)
чтобы из-за шелухи вроде "хромосома", "кроссиговер" и проч. не созадвалось обманчивое впечатление об уникальности алгоритма. Правда, при этом я предполагал, что идет обмен только половинками хромосом, потому сформулировал шаг 3 в виде выбора равноудаленной точки. Но, видимо, если предполагать случайный выбор точки обмена, то это будет нечто из разряда случайного выбора точек из окрестностей радиусов
![$r_1 = K - \alpha, r_2 = \alpha$ $r_1 = K - \alpha, r_2 = \alpha$](https://dxdy-03.korotkov.co.uk/f/e/5/2/e52412a8235648dacc767db3642b513382.png)
, где
![$\alpha$ $\alpha$](https://dxdy-01.korotkov.co.uk/f/c/7/4/c745b9b57c145ec5577b82542b2df54682.png)
- случайная величина, равномерное распределенная на значениях
![$1, 2, \dots, K$ $1, 2, \dots, K$](https://dxdy-04.korotkov.co.uk/f/7/5/7/7575bc78583b6f0baf1cd5817ee85cb482.png)
.
Тут не суть в том, как внешне выглядит, а в том, какие принципы используются. Вот вы говорите,
Цитата:
Но представьте себе такую последовательность розыгрышей, в которой полученные символы в некоторых позициях, если они приближают нас к требуемой строке фиксируются на своём месте. Прямо как в поле чудес: "Есть такая буква в этом слове!".
Но в "Поле чудес" вы знаете, какую букву отгадали, а здесь нет! В том-то и фокус. Иначе все бы было до безобразия просто: по порядку бы угадывали буквы - вот вам и ответ. И в этом, наверное, и главный вопрос - какой общий принцип использования "исторической информации", зашитый в ГА, делает его таким эффективным?
Например, один из выигрышных принципов, который сразу заметен - это параллельная работа сразу в нескольких точках пространства, в отличие от привычных методов поиска, когда на каждом шаге рассматривается только одна точка и окрестность около нее. Вот хотелось бы такого же порядка общности принцип вытащить и насчет использования предыстории.
В той теме, на которую я дал ссылку я много писал об этом и приводил примеры. Но там же много написано.
Да, довольно сложно читать. Я знаком лишь с основами (фактически только по той статейке, из которой пример). Ни про каких лидеров и проч. не в курсе (и, думаю, это не принципиально для сути метода).
Посмотрел пример 1.10. В общем символы преобразуются в числа. У меня в теме есть похожий пример в сообщении #432791
на целых 500 чисел (символов, если угодно).
И? Вывод ваш каков? Что вашим не "ГА-методом" вы бы тоже этот пример "щелкнули"? Тогда, может быть, стоило бы подробнее здесь изложить, чтобы сравнить с ГА?
На самом деле, на практике встречающийся очень часто. Точнее, случай, в котором члены
![$f_{12}(x,y)$ $f_{12}(x,y)$](https://dxdy-01.korotkov.co.uk/f/0/f/c/0fc8e4fbca44d1af38c36d438ce3646282.png)
есть, но сравнительно малы (и
![$x,y$ $x,y$](https://dxdy-01.korotkov.co.uk/f/0/a/c/0acac2a2d5d05a8394e21a70a71041b482.png)
- разумеется, векторы). Это случай, когда оптимизируется некая система, но (по крайней мере в области оптимума) влияние её подсистем друг на друга достаточно мало.
А это ваши собственные соображения (что ГА только к такому классу функций приложим), или общепринятый взгляд на этот алгоритм?