Сравнивать процессор с видеокартами довольно бессмысленно, надо жёстко контролировать много неочевидных условий, причём я не уверен что это вообще возможно. Например мало того что надо включить одинаковые алгоритмы сглаживания (в том числе и текстур) и использовать одинаковые методы арифметических операций (разрядность вычислений), так и ещё пользоваться исключительно синтетическими тестами (а не играми!) так как только в них можно точно контролировать количество и местоположение всех объектов в кадре.
Стандарные бенчмарки типа 3DMark вроде это решают.
Нет. Точнее да, но с относительно большой погрешностью, и не всегда предсказуемой. Сугубо ИМХО, детально я не разбирался.
Может я в этом и не совсем прав и погрешности невелики, но помню про оптимизации драйверов видеокарт под конкретные приложения (и тесты тоже), про точность вычислений видеокарт (иногда на порядки хуже процессора, FP16 или INT4 форматы чего стоят, а ведь процессоры их аппаратно не поддерживают), про возможно разные алгоритмы интерполяции текстур видеокартой и процессором (тут не уверен что нельзя насильно сделать одинаковыми), про множество ещё столь же нетривиальных вещей. Может оно всё и решается тестами, но тогда становится малопонятно что с чем сравнивается, если некоторые аппаратные возможности видеокарт не используются, а процессор намеренно перегружается лишними действиями (типа эмуляции FP16). Тесты были придуманы не для сравнения программной и аппаратной скорости вычислений, а для сравнения скорости вычислений (отрисовки 3D сцены) в играх, это разные понятия. Про GPGPU умолчу, оно вообще практически не оптимизировалось отдельно от игр.