Это думаю можно уже сейчас.
Как чуточку знакомый с процессом скажу, что это хоть и теоретически можно, но не нужно. По причине очень большой сложности (затратности времени). САПР схемы не проектируют, а максимум выступают оптимизирующими компиляторами с некоторого языка на массив готовых блоков (команд). И делают они это похуже человека (например мне постоянно приходится бороться с САПР чтобы уложить булевую функцию от 4-х переменных в одну ячейку, а не размазать её по нескольким - аппаратура ведь позволяет! приходится вместо простой записи функции преобразовывать в таблицу истинности, только тогда САПР соизволяет запихнуть её в одну ячейку), зато во много раз быстрее. Человеку же оставляя глубокую оптимизацию мелких блоков, которая как обычно на 80% и влияет на результат.
И автоматической оптимизации подвергают не всю схему целиком, а лишь послойно (отдельные ячейки ПЛИС, матрица ячеек с шинами соединений, функциональные блоки) ибо просчитать и
оптимизировать всю схему до транзисторов нереально. (Здесь как пример приведу программы расчётов электромагнитной совместимости разводки сигналов по плате, задача более-менее точно решается лишь при объединении сигналов в шины или изоляции сигналов друг от друга, расчёт произвольной разводки моментом упирается в вычислительную сложность численных методов.) Это разумеется приводит к потере производительности и когда она оказывается слишком большой - и привлекают ручную оптимизацию на нижних уровнях.
В общем для начального понимания можно считать ситуацию аналогичной программированию: есть компиляторы с языков весьма высокого уровня, но нет компиляторов, создающих рабочую программу по описанию её откликов на внешние воздействия (прям по ТЗ на чёрный ящик). И вручную оптимизированная программа (схема) почти всегда работает лучше.
Наверное можно создать такой компилятор, чтобы просчитывал возможные схемы/программы (вероятно с применением генетических методов) и отбирал максимально выгодные (типа как при игре в шахматы), но для этого понадобится суперкомпьютер вместо обычного ПК. Вроде были такие попытки, помню даже на уровне слухов что строили нейронную сеть для распознавания изображений, которую потом не поняли как она всё же работает, но это скорее байка и такие технологии в массы так и не пошли т.к. невыгодны.
-- 20.02.2017, 13:44 --Добавлю про закон Мура. Он был сформулирован не для быстродействия, а для размера кристаллов. И да, количество транзисторов всё ещё увеличивается довольно быстро, ограничением тут служит не тепловой барьер (как для быстродействия, тут действительно давно уже упёрлись в потолок), а лишь 2D размещение и взаимовлияние структур друг на друга, ну и квантовые явления. До размеров атомов ещё далеко. С развитием математических методов и увеличением производительности вычислений порог по взаимовлиянию и квантовым явлениям можно существенно отодвинуть, думаю как раз вплоть до размеров десятков атомов (т.е. вплоть до потери функциональности). Плюс пока ещё остаётся нереализованным переход к 3D размещению.
Но это всё вопросы довольно абстрактные т.к. намного раньше (фактически уже) упрёмся в порог экономической целесообразности: стоимость фабрик растёт слишком быстро, оправданными становятся лишь огромные тиражи, допуск брака для миллиардов транзисторов всё уменьшается что тоже увеличивает стоимость кристаллов, трудности проектирования настолько сложных кристаллов увеличиваются.
Так что закон Мура должен перестать работать заметно раньше чем достигнем физической нереализуемости элементов.
Выход тут вижу в переходе от сосредоточенных вычислений (на одном небольшом кристалле) к распределённым, когда вместо нескольких малонанометровых кристаллов схема создаётся по микронным технологиям, но зато большого размера (и возможно объёма). К примеру разместить процессор с памятью в виде пластиковой плёнки сзади на стекло монитора.
Не зря ведь интенсивно разрабатывают методы принтерной печати схем.
Или в виде сети из вычислителей (хм, сеть сотовых телефонов с объединением по Bluetooth/WiFi - уже готовая платформа ...).