arseniiv,
Emergency,
wrestЧто-то я запутался... Было напечатано: 120 Герц и примерно не более не различает человеческий глаз и все такое... Что за частота указывается на современных, тоненьких мониторах для видео-игр?
Допустим... У нас 24-е дюйма диагональ дисплея, поток информации идет по пути: видеоадаптер — монитор — человеческий глаз, глаза точней. Какой-то предмет, например указатель мышки у видео-игре проходит путь с одного угла монитора в другой за одну секунду, т. е. его скорость постоянная и равна
соответственно. Допустим монитор имеет частоту обновления 60 Герц, это в четыре раза меньше кадров за секунду чем этому посылает видеокарта, в результате на 24-е дюйме пойдет не 240 кадров а 60. На один дюйм пути при этой скорости будет два с половиною кадра, то есть допустим первый кадр указатель в начальном положении, второй через две миллисекунды (примерно) в конце, но если учесть что кадры появляются мгновенно и между ними нету процесса "перересовки".
Итого получается, не понял особо что получается, но смысл в том из-за смены кадров при скорости объекта двадцять четыре дюйма на секунду, выходит 4-5 миллисекунд плюс задержки вроде как. То есть мы вдруг, мгновенно, захотели изменить направление курсора, и так и зделали, и не учесть скорость разпостранения сигнала считая ее мгновенной, то мышка окажеться на следующем кадре во первых с задержкой а во вторых в двох местах? А при обновлении в 240 Герц, этот эффект будет в четыре разы слабее? То есть задержка 1 миллисекунд? Это уже довольно мало...