Я часто думаю над таким вопросом: а вдруг мы сможем открыть алгоритм, с которым можно будет на обычном компьютере быстро разложить любое число на простые множители?
Ожидаю что тут всем типа смешно, а мне скорее страшно... Ну ладно, пока у меня два вопроса:
1) Я написал программу для вычислений с целыми числами любого размера. С этой программой, вычисление два в степени тысяча на моём компьютере заняло около четверти секунды, что достаточно много. А ведь если писать числа не в десятичной а в двоичной системе списания, то по определению считать вообще не надо будет. Наверно, такое число как

действительно куда как быстрее сначала записать в двоичной системе, а потом перевести в десятичную? Как будет выглядеть хороший алгоритм перевода? И как вообще с целыми числами быстро возвести число в степень?
2) Если мы запишем любое число в десятичных цифрах, то по последней цифры записи сразу видно, делится ли число на 2 и 5. Если мы запишем число в 21-ричных цифрах, то по последней цифре, сразу видно, делится ли это число на 3 и 7. Никто не пробовал применять этот подход на практике для быстрого разложения чисел на простые множители? Вроде того что, скажем, можно записать число в такой системе счисления, основание которой является произведением первых тысячи простых чисел.