Хотя если ничему не мешает, то можно и максимально большую, раз уж до торможения не добрались.
Торможение там наступает на создание таблицы. Но это если проверять миллион. А если проверять 10 миллионов, то создание таблицы влияет в 10 раз меньше :)
В таблице в среднем одна проверка на уепочку на простоту, с ключом 1. А дальше 4 проверки на простоту на цепочку, с ключом 0.
В общем я подозреваю, что зависит и от паттерна, если числа большие, то проверке по таблице это пофиг, а вот полларду и mpqs уже нет, так что имеет смысл все-таки вызывать их поменьше если числа будут расти.
Я считаю, что модулярный метод проверки по таблице - наиболее быстрый из нам известных (для pari) и он реализован.
У меня там остались ещё счётчики это, но это скорее всего не тормозит.
Главный драйвер ускорения - уменьшение количества проверок на простоту.
Например "терапевтика" вообще не использует ispseudoprime, и уменьшает общее количество проверок в 4 раза, с 1,1 проверки на цепочку до 0,28
Ну то есть - скорость примерно обратно пропорциональна количеству проверок на простоту (а время - примерно прямо пропорционально).
Убыстрить ispseudoprime мы уже не можем. Значит, надо сокращать количество проверок.
-- 21.03.2026, 22:40 --С другой стороны, при достаточно хорошей фильтрации размер таблицы начиная с некоторой пороговой величины роли уже не играет - она никогда не перебирается до конца, всегда обрывается до того.
Ну нет конечно, всегда будут числа с тремя множителями скажем не менее 28..32 бит каждый, до которых вы перебором за достойное время не доберётесь. Именно поэтому существует метод Полларда и прочие.
Я не вникал в то, как готовятся паттерны, но вероятно там есть куда улучшаться.
Для "терапевтики" и проверки по таблице простых, размер числа в 50 разрядов или 70 роли почти не играет, как мне кажется.