Вопрос некорректен: непонятно, про какой массив речь, что такое "производительность компьютера", "байт в секунду" чего и т.д.
(понятно, какой вопрос имелся в виду, и этот вопрос осмысленен, но отвечать на него, пока вы не сможете его сами хотя бы правильно сформулировать, бессмысленно)
Хорошо, ладно, переформулируем. Да, спасибо что поправили, сразу же обнаружил ошибку в первоначальном посте.
Есть некий цикл, который рассчитывает значение некой функции в зависимости от значения X (какую именно функцию считает, для постановки вопроса не имеет значения). Каждая итерация такого цикла производит определенное количество арифметических операций. Замерив время выполнения алгоритма, можно определить сколько
операций в секунду (т.н. FLOPS) было выполнено, исходя из количества итераций. Вопрос: почему увеличение количества элементов массива X (по которым и выполняется цикл), приводит к снижению получаемого значения? Что на это влияет?
P.S. Да, по большому счёту, я только въезжаю в мир Computer Science.