FreeSync и G-Sync. Что лучше?
Мощность графических ускорителей растёт с каждым днём, но даже при достаточно высоком значении fps (просчитываемых кадров в секунду в игре) компьютер всегда имеет скрытый потенциал для более качественного геймплея. AMD и Nvidia практически одновременно пришли к постепенному извлечению этого потенциала, представив технологии адаптивной частоты кадров FreeSync и G-Sync.
Суть идеи заключается в том, чтобы отойти от стандартной для мониторов частоты развёртки изображения (оно обновляется 50, 60, 120, 240 раз в секунду и так далее в зависимости от класса и стоимости панели). Эта частота обновления фиксирована и никак не зависит от того, чем в текущую минуту занят пользователь. В то же время, во время игры или просмотра видео пользователь работает в условиях, когда компьютер выдаёт на монитор абсолютно хаотичное количество кадров в секунду (23-120 fps при просмотре видео с фиксированной/динамической частотой кадров, и ещё менее предсказуемая цифра при запуске 3D-игры). Отсутствие синхронизации между видеокартой и монитором часто приводит к тому, что многие кадры видеоряда либо трёхмерной сцены отображаются неидеальным образом, с задержками или 'разрывами'. Сам пользователь этого как бы не замечает, но вот его подсознание видит всё, и ему это не слишком нравится. Что в конечном итоге приводит к большему напряжению для глаз и нервов.
Что предлагают FreeSync и G-Sync? Они предлагают ликвидировать указанное выше недоразумение путём принудительной синхронизации экрана и графического ускорителя: новая картинка выдаётся аккурат в момент начала обновления. Такой подход экономит энергию, экономит ресурс монитора и делает игровой процесс или просмотр видео визуально более приятными.
В этом взаимодействии есть лишь один потенциальный недостаток: в играх, где компьютер не способен обеспечить достаточную производительность (да и фильмах, которые обычно задействуют анахронично низкую частоту кадров - 23.976), пользователь будет замечать характерное мельтешение картинки (тёмная полоса, бегущая из одной стороны экрана в другую - ведь изображение обновляется не целиком и сразу, а построчно). Но решения для этой досадной мелочи также существуют. Самое простое, что приходит в голову - банальное удвоение кадров (или любое другое кратное увеличение путём дорисовки промежуточных кадров за счёт существующих, с компенсацией движения либо без неё. Именно так поступают многие телевизоры с запредельно высокой частотой обновления, на которых изображение выглядит более 'живым'). Иллюстрация к простой интерполяции картинок приведена справа.
В чём же различия?
Принципиальное отличие подхода AMD и Nvidia заключается в том, что первые реализуют контроль частоты развёртки экрана через видеоинтерфейс DisplayPort, а вторые задействуют собственный чип, установленный в совместимый с G-Sync монитор.
Из этого вытекает масса последствий.
- 1. G-Sync обойдётся дороже FreeSync. 27-дюймовый монитор Acer XG270HU с поддержкой G-Sync стоит на $100 больше, чем тот же монитор без поддержки технологии.
- 2. G-Sync будет работать со всеми более-менее актуальными видеокартами Nvidia, не только с самыми новыми. Достаточно лишь обновления драйвера и совместимого монитора. В то же время, со стороны AMD поддержка FreeSync реализована лишь в 6 графических адаптерах (она будет поддерживаться также во всех будущих GPU).
- 3. У технологий различаются допустимые диапазоны частоты развёртки. AMD дозволяет более широкий диапазон: 9-240 fps (фактически, здесь цифра ограничена лишь аппаратной начинкой используемого монитора). Nvidia заметно проигрывает (30-144 fps).
Если частота кадров в игре опускается ниже минимально допустимой частоты развёртки монитора, AMD предлагает отключить синхронизацию полностью и установить частоту развёртки экрана на минимум. Nvidia, со своей стороны, на данный момент не даёт опции отключения синхронизации, но может автоматически дублировать кадры, чтобы попасть в рабочий диапазон монитора. Этот подход стоит назвать предпочтительным.
И что же лучше?
Времена меняются. Сложный выбор между мылом и шилом остаётся.
Решающего преимущества в реализации технологии адаптивной развёртки изображения не имеет ни Nvidia, ни AMD. У решения каждой компании есть свои сильные стороны. Однако же, владельцы видеокарт Nvidia остались в моральном выигрыше: им не нужно покупать новую видеокарту, чтобы испробовать G-Sync, достаточно лишь подключить совместимый с технологией монитор.
На данный момент единственный пропустившим свой ход игроком осталась компания Intel. Станет ли она представлять свою собственную вариацию FreeSync и G-Sync, покажет ближайшее будущее.
Обновление (24, август 2015): Intel присоединяется к AMD! Ноутбуки со встроенной графикой Intel и видеовыходом DisplayPort будут поддерживать технологию FreeSync.