Тут кстати кое-где есть предположение, что это всё должно быть применимо к любому живому сейчас человеку. Если его снять, можно говорить о чём-то типа 2.6, но без загрузки. А именно, в худшем случае мы вполне могли бы разработать достаточно точную модель человеческого мозга (проблема может быть только в доступных нам ресурсах), и плюс здесь в том, что даже этим скорее всего будет проще манипулировать, чем настоящим мозгом, в который чуть залезешь — и он портится. (В будущем мы, конечно, можем досконально разобраться, как именно портится от залезания куда именно, но можем наткнуться и на индивидуальную вариацию, которую может оказаться долго анализировать.) Может случиться и так, что нам не нужна будет поклеточная (и мельче) модель, мы можем добиться описания семейства сильных ИИ, ведущих себя так, как мы считаем достаточно человеческим, и настолько мелко параметризованного, чтобы можно было повторить нужные нам нюансы психики с достаточной точностью. Это всё можно с чистой совестью отнести к постгуманизму, но как долго мы вообще сможем растягивать понятие человека-вот-прям-похожего-на-нас?
Какие из этих способов могут быть наиболее эффективными?
Да вы издеваетесь — это же открытый вопрос, на который может ответить только специалист, разбирающийся во всех этих способах. А может и не ответить. Откуда ему знать, какие проблемы раскроются там или там. Неочевидно, почему они вообще не должны сыпаться ливнем; никто не гарантирует, что порождения эволюции можно неограниченно улучшать мелкими изменениями — а для крупных потребуется очень много времени, чтобы была уверенность, что их, и какие, можно делать, и притом возможность их применять может убивать индивидуальная вариация.
Пока наиболее радикальным выглядит криоконсервация организма до тех времен, когда научатся продлять жизнь неограниченно долго.
Опять вы используете предположение, что можно «довести до ума» каждое конкретное современное тело. Не видно, с чего это должно быть так.