Разное

G sync: Игровые мониторы NVIDIA G-SYNC

Руководство по включению G-sync на мониторе FreeSync

Что такое синхронизация в мониторе?

Видеокарты обычно неспособны поддерживать постоянную частоту смены кадров – в их работе высокие пики производительности могут чередоваться с внезапными падениями. Частота смены кадров зависит от того изображения, которое выводит видеокарта. Например, спокойные сцены без особой активности гораздо менее требовательны к производительности, чем эпические схватки с «боссами», полные спецэффектов.

Когда частота смены кадров видеокарты не совпадает с частотой смены кадров монитора, возникают определенные проблемы с отображением: разрывы, задержки или наложения, пока монитор ожидает новые данные или пытается отобразить два разных кадра как один.

Чтобы предотвратить подобные проблемы, видеокарту и монитор необходимо синхронизировать.

Технология обеспечения устойчивого качества изображения называется FreeSync и требует наличия видеокарты AMD и монитора FreeSync. В то же время существует и технология G-Sync от NVIDIA, которая подразумевает наличие видеокарты NVIDIA и монитора с поддержкой G-Sync.

Совместимость с G-Sync

Видеокарты нового поколения от NVIDIA могут использовать функции G-Sync на некоторых мониторах FreeSync от AOC. NVIDIA анонсировала список сертифицированных мониторов AOC, которые также совместимы с G-Sync. Если ваш монитор AOC в этом списке отсутствует, вы все равно можете включить G-Sync и протестировать его производительность.*

Как включить G-sync на вашем мониторе FreeSync

— Обновите драйвер NVIDIA хотя бы до версии 417.71 (более ранние версии работать не будут).

— Подключите монитор к видеокарте через DisplayPort.

— В панели управления монитора включите переменную частоту обновления.

После выполнения всех указанных выше шагов, G-Sync включится автоматически. В противном случае, вы можете включить эту функцию вручную, предприняв еще некоторые действия.

— Откройте панель управления Nvidia в правой нижней части рабочего стола Windows.

— Выберите «Display» (дисплей) и нажмите «Set up G-SYNC» (настроить G-SYNC).

— Выберите «Enable G-SYNC Compatible» (включить совместимость с G-SYNC).

— Выберите ваш монитор в «Enable settings for the selected display model» (включить настройки для выбранной модели дисплея).

— Проверьте параметр «Enable settings for the selected display model» (включить настройки для выбранной модели дисплея).

— Примените настройки.

Если вышеописанный метод не сработал, возможно, вам придется выполнить еще несколько действий.

— Перейдите в «Manage 3D Settings» (управление настройками 3D), нажмите «Global» (общие), прокрутите вниз до «Monitor Technology» (технологии монитора), выберите «G-SYNC Compatible» (совместимость с G-SYNC), затем нажмите «Apply» (применить).

— Также вы можете перейти к «Change Resolution» (сменить разрешение) слева и выбрать более высокую частоту обновления или другое разрешение.

Теперь вы успешно включили G-Sync на вашем мониторе AOC FreeSync. Качество изображения всегда будет идеальным и вы сможете получать максимальное удовольствие от игрового процесса без раздражающих искажений.

* Полный список видеокарт, поддерживающих мониторы FreeSync, а также мониторы, совместимые с G-Sync, см. на веб-сайте NVIDIA.

Что такое G-Sync, FreeSync, V-Sync и HDMI VRR?

Всех ПК-геймеров планеты Земля объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:

  • V-Sync,
  • G-Sync,
  • FreeSync
  • А ведь еще есть Adaptive Sync
  • А в HDMI 2.1 недавно добавили VRR.

Но легче от этого не становится. Только больше путаешься. Чем все эти технологии отличаются? Какую выбрать видеокарту и монитор? И будет ли это всё работать на телевизоре?

Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.

Для тех кто не в курсе. А в чём собственно проблема?

Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:

  1. графический процессор должен подготовить кадр и передать его на монитор,
  2. ваш монитор должен показать этот кадр.

Вроде бы всё просто! Но тут кроется небольшой конфликт. Монитор работает по строгому расписанию. Нужно обновлять изображение на экране через равные промежутки времени, строго определённое количество раз в секунду. Этот параметр называется частотой обновления и измеряется он в герцах.

Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.

А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.

Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.

Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.

Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.

V-Sync

Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.

Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.

При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.

Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.

Но история с кратными значениями — не самая главная проблема технологии. Есть другой не очевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть Input Lag.

Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее.

Почему так происходит?

Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.

  1. Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
  2. Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
  3. Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).

Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.

G-Sync

Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!

Представляете? Так тоже можно было!

В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.

А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.

Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?

Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.

Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.

VESA Adaptive Sync

Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?

Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!

А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.

AMD FreeSync

В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.

Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.

Кстати, чуть позже, FreeSync 2 переименовали в в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.

Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.

И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?

До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов — покупай Radeon. В другом случае, придется раскошелиться.

G-Sync Compatible

Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.

Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.

VRR

С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR — Variable Refresh Rate.

Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2. 1.

Итоги

Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!

Post Views: 7 437

NVIDIA снизила требования к мониторам с технологией G-Sync Ultimate

Компания NVIDIA без официального анонса снизила требования к мониторам с поддержкой фирменной технологии G-Sync. Она используется для динамической синхронизации частоты обновления экрана монитора с частотой кадров, выдаваемых видеокартой, и направлена на то, чтобы устранить разрывы изображения при смене кадров на экране.

Технология G-Sync появилась раньше, чем аналогичная технология AMD FreeSync, и изначально предполагала оснащение мониторов специальным проприетарным оборудованием. При этом аналогичная технология от AMD не требовала использования в мониторах дополнительного оборудования и поэтому быстро завоевала популярность среди производителей и потребителей. В итоге NVIDIA пришлось более гибко подойти к вопросу интеграции поддержки G-Sync. Она предложила три вида своей технологии: G-Sync Compatible (совместимость с G-Sync без наличия специальных аппаратных средств), поддержка G-Sync (монитор оснащается модулем NVIDIA), а также полная поддержка G-Sync Ultimate (аналогично предыдущему, только для мониторов с поддержкой HDR).

Для G-Sync Ultimate компанией были заданы особые требования. Например, ещё в рамках выставки CES 2019 компания заявила следующие необходимые спецификации для мониторов с поддержкой G-Sync Ultimate:

  • Яркость дисплея выше 1000 кд/м2;
  • Поддержка высокого разрешения и частоты обновления;
  • Быстрый отклик матрицы;
  • Многозонная подсветка;
  • Широкий охват цветового пространства;
  • Оснащение продвинутым процессором NVIDIA G-Sync;

Однако в ходе выставки CES 2021, когда было объявлено, что три новых монитора прошли сертификацию G-Sync Ultimate, выяснилось, что два из них не соответствуют изначальным требованиям — они не имеют сертификата VESA DisplayHDR 1000. При этом у них есть сертификат VESA DisplayHDR 600, но это противоречит ранним требованиям NVIDIA к стандарту G-Sync Ultimate.

Более того, изменения обнаружились и на сайте NVIDIA в разделе G-Sync. Производитель убрал упоминание яркости 1000 кд/м2 и вместо этого указал в качестве требования к дисплею наличие поддержки «реалистичного HDR». Иными словами, теперь поддержка G-Sync Ultimate не означает яркости дисплея выше 1000 кд/м2.

NVIDIA заявила, что поддержку G-Sync Ultimate получили мониторы ASUS PG32UQX (пиковая яркость 1400 кд/м2), MSI MEG MEG381CQR (HDR 600) и LG 34GP950G (HDR 600).

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

G-Sync vs FreeSync и VSync

Игровой сектор растет со все возрастающей скоростью. В последние годы появились новые технологии, которые позволяют лучше взаимодействовать с видеоиграми и повышать реализм. В этой статье мы расскажем, что такое технология Nvidia G-Sync и как она работает.

Эта технология все чаще встречается в мониторах, а также в телевизорах, хотя обычно она доступна только в высококачественных моделях. Однако, если вы настоящий геймер, то вам рекомендуется создать команду, обладающую этой технологией. Попробуем разобраться, из чего состоит технология G-Sync, какие преимущества она дает при игре и почему это важно. Также расскажем, что лучше: G-Sync или FreeSync.

Nvidia G-Sync — это:

G-Sync — это технология, разработанная известной компанией Nvidia — брендом, специализирующимся на видеокартах и других аппаратных компонентах. Опция G-Sync синхронизирует частоту кадров (FPS) видеокарты, поддерживающей эту функцию, с частотой обновления (Гц) монитора c поддержкой G-Sync.

Это дает преимущество динамической или переменной частоты обновления, которая полностью устраняет так называемый эффект разрыва изображения и «заикание экрана», устранение пометок экрана, задержки ввода VSync и пропусков. Обычные мониторы работают с фиксированной частотой обновления 60 Гц, 100 Гц, 144 Гц.

Это означает, что экран обновляется 60 раз за одну секунду (если это монитор с частотой 60 Гц) для создания изображения. Графический процессор в первую очередь должен, конечно, отрендерить определенное количество кадров и отправить их на экран.

Если графический процессор недостаточно мощный, чтобы поддерживать частоту обновления монитора, видеоигры будут вызывать заикание изображения на экране. Если карта отправляет больше кадров, чем частота обновления монитора, будут возникать микроотрезы. Именно здесь вступает в игру технология GSync, которая устраняет или значительно снижает эти проблемы.

Частота кадров в секунду остается в диапазоне динамической частоты обновления, который начинается с 30 Гц / fps и заканчивается максимальной частотой обновления монитора. Как мы уже говорили, экраны, поддерживающие G-Sync, обычно стоят намного дороже. Это связано с тем, что, в отличие от обычных игровых, мониторы G-Sync имеют специальный встроенный модуль для включения переменной частоты обновления.

Сертификаты G-Sync и их различия

В экосистеме G-Sync существует три типа сертификатов, позволяющих дифференцировать конечную производительность. Высшим является Ultimate, затем стандарт G-Sync и наконец тот, который классифицируется как просто совместимый.

G-Sync Ultimate

Версия под названием Ultimate обеспечивает поддержку игр HDR с минимальной задержкой ввода, сохраняя при этом все оригинальные преимущества G-Sync.

Требования к Nvidia G-Sync Ultimate
G-Sync видеокарта GTX 1050 или выше.
Монитор с максимальной яркостью не менее 1000 нит, цветовым пространством DCI-P3 и подсветкой Директ.
DisplayPort 1.4.
Переменная частота обновления, разгон и ULMB.

Мониторы с поддержкой G-Sync

Это стандартная версия, которая в отличие от версии Ultimate G-Sync, не имеет специальных характеристик для HDR.

G-Sync compatible

Сертификат Nvidia G-Sync compatible (совместимый), который Nvidia предлагает мониторам и телевизорам. На самом деле устройства с таким сертификатом не используют процессоры Nvidia. Однако они подтверждены брендом, который дает гарантию, что это устройство совместимо с переменной частотой обновления (VRR) и обеспечит хороший игровой процесс без фрагментации или мерцания изображения.

Помимо того, что у этих устройств нет собственного встроенного модуля, они также не прошли 300 тестов, которые компания проводит для обеспечения качества. Эту сертификацию можно найти в самых дешевых моделях мониторов. В то же время это хорошая отправная точка для тех, кто хочет получить удовольствие от игрового монитора, но без особых затрат.

Телевизоры с G-Sync

Как мы уже сообщали ранее, в сентябре 2019 года Nvidia заключила партнерское соглашение с LG, чтобы включить переменную частоту обновления на OLED-телевизорах LG C9, E9 и Z9 через HDMI 2.1. Из новой линейки 2020 совместимыми моделями являются новые серии с G-Sync: LG BX, CX, GX и ZX. Благодаря этим моделям LG OLED достигается низкая задержка и отклик в играх с переменной частотой обновления без разрывов или задержки ввода.

Мониторы FreeSync, совместимые с G Sync

Существует большое количество мониторов, которые совместимы не с G-Sync, а с поддержкой FreeSync. Некоторые из этих моделей могут также поддерживать и VRR FreeSync на видеокартах Nvidia. Однако в этом случае качество производительности не гарантируется.

В январе 2019 года Nvidia выпустила обновление драйвера, которое позволяет видеокартам GTX 10, GTX 16 и RTX 20 (или новее) использовать переменную частоту обновления через DisplayPort на мониторах с технологией FreeSync.

Кроме того, будущие Nvidia G-Sync мониторы будут поддерживать Adaptive Sync через HDMI и DisplayPort. На сегодняшний день многие мониторы Nvidia сертифицированы как совместимые с G-Sync. Это означает, что подобные мониторы FreeSync работают без мерцания, визуальных артефактов, чрезмерного двоения изображения или других проблем.

ULMB (сверхнизкое размытие при движении)

Хотя G-Sync обеспечивает более плавный игровой процесс, предотвращая разрывы экрана, уменьшая заикание и уменьшая задержку ввода, она не влияет на размытие при движении. По этой причине многие мониторы, поставляемые с G-Sync, также имеют функцию под названием ULMB.

Когда эта технология активирована, она запускает сканирование подсветки для уменьшения ощущения размытости изображения. Режим ULMB работает только при определенных заранее заданных фиксированных частотах обновления, таких как 100 Гц, 120 Гц и т. д., и не может быть активирован одновременно с G-Sync. Также стоит отметить, что использование ULMB имеет важный недостаток. Она значительно снижает яркость.

G-Sync vs FreeSync и VSync — отличия

VSync

Чем отличается G-Sync от FreeSync и VSync? Для начала следует знать, что G-Sync — это улучшенная версия VSync. VSync можно найти в настройках драйвера дисплея или в настройках видеоигры. Если включить VSync, то графический процессор будет удерживать кадр до тех пор, пока монитор не будет готов к его отображению. Это устраняет разрыв экрана, но увеличивает задержку ввода.

Когда VSync в играх отключена, графический процессор отправляет изображения непосредственно на монитор сразу после отрисовки. При выключенной VSync отправка изображения происходит независимо от того, завершил ли монитор цикл обновления и готов ли он перейти к следующему изображению. В результате пользователь может наблюдать частые разрывы экрана. Владельцам видеокарты с FreeSync AMD следует искать обычный игровой монитор с поддержкой FreeSync.

FreeSync

FreeSync — это технология, разработанная AMD. Она является прямым конкурентом GSync. Технологию AMD FreeSync легче внедрить, потому что она дешевле и проще в реализации. Мониторы FreeSync не имеют дополнительных затрат, поскольку в них нет специального модуля внутри дисплея. Однако мониторы FreeSync обычно имеют более узкий динамический диапазон.

Например, монитор G-Sync 144 Гц имеет динамический диапазон 30–144 Гц, а стандартный монитор FreeSync 144 Гц обычно имеет диапазон VRR 48–144 Гц. Конечно, бывают исключения, когда монитор FreeSync может иметь такой же широкий динамический диапазон, но такие мониторы встречается реже.

Большинство мониторов FreeSync также поддерживают технологию AMD LFC, которая обеспечивает плавную работу за счет умножения частоты обновления, когда частота кадров в секунду падает ниже динамического диапазона. Наконец, все дисплеи G-Sync поддерживают Variable Overdrive. Это позволяет динамически изменять время отклика в зависимости от текущей частоты обновления.

В результате устраняется сдвоенное изображение при высокой частоте кадров и лишние пиксели при низкой частоте кадров. Мониторы AMD Free-Sync не могут динамически изменять время отклика перегрузки. Поэтому, если появляется агрессивная перегрузка, и частота кадров падает, это приводит к излишним пикселям. К счастью, такое случается нечасто.

Так что же лучше: FreeSync или G-Sync

В целом технология FreeSync позиционируется как лучшая альтернатива для геймеров с ограниченным бюджетом. С другой стороны, G-Sync действительно предлагает лучшую производительность и является лучшим вариантом. Монитор с опцией G-Sync следует выбирать в том случае, если вы ценитель высочайшего качества изображения и готовы за это переплатить.

https://ultrahd.su/video/g-sync-vs-freesync-vs-vsync.htmlG-Sync vs FreeSync и VSync — отличияultrahdВидеовидеоИгровой сектор растет со все возрастающей скоростью. В последние годы появились новые технологии, которые позволяют лучше взаимодействовать с видеоиграми и повышать реализм. В этой статье мы расскажем, что такое технология Nvidia G-Sync и как она работает. Эта технология все чаще встречается в мониторах, а также в телевизорах, хотя обычно она…ultrahdultrahd AdministratorUltraHD

Как включить и проверить G-Sync на игровом мониторе FreeSync

В наши дни игры с высокой частотой обновления, безусловно, стали золотым стандартом компьютерных игр. С появлением хороших мониторов с частотой 120 Гц, 144 Гц и 165 Гц с разрешениями 1080p и 1440p, за последние несколько лет перспективы игровой индустрии для ПК сильно изменились. Технология мониторов временами быстро опережала технологические достижения в других областях, таких как графические процессоры. Даже в 2020 году лучшие игровые мониторы на рынке могут развивать частоту обновления до 165 Гц на панелях 4K, с чем реально не справится даже могучая GeForce RTX 3090. Таким образом, такой быстрый прогресс в технологиях мониторов привел к быстрому увеличению количества бюджетных мониторов с высокой частотой обновления на рынке. Эти мониторы представляют большую ценность для потребителей, ищущих безупречные игры по доступной для кошелька цене.

Теперь можно включить G-Sync на мониторе FreeSync – Изображение: Viewsonic

Игры с высокой частотой обновления также имеют свою долю причуд. Есть некоторые вещи, которых следует опасаться при покупке монитора с высокой частотой обновления. Помимо разрешения и частоты обновления, многие мониторы на рынке также указывают функцию, называемую Adaptive Sync, на странице продукта или даже в названии продукта. Эта функция реализована в формах Nvidia G-Sync или AMD FreeSync, и вполне возможно, что вы слышали об этих технологиях, когда-либо покупали игровой монитор. Адаптивная синхронизация – одна из ключевых функций, которую обязательно следует учитывать при принятии решения о покупке.

Адаптивная синхронизация

Так что же такое адаптивная синхронизация? Проще говоря, адаптивная синхронизация – это технология VESA, которая изменяет частоту обновления монитора в соответствии с FPS, создаваемым видеокартой. По сути, эта технология направлена ​​на сглаживание визуального вывода, который получает пользователь, путем синхронизации частоты обновления монитора с количеством кадров, производимых самой видеокартой. Эта технология может существенно повлиять на общее впечатление, производимое этими мониторами.

Отсутствие адаптивной синхронизации

Существует довольно много проблем, которые могут испортить впечатление пользователя, если в мониторе отсутствует какая-либо реализация адаптивной синхронизации, будь то G-Sync от Nvidia или FreeSync от AMD. Как правило, любая из двух реализаций адаптивной синхронизации приводит к значительному улучшению воспринимаемого вывода монитора. Отсутствие адаптивной синхронизации может привести к следующим проблемам:

  • Разрыв экрана: это довольно раздражающий артефакт, который может сильно раздражать визуальное восприятие во время игры. Обычно это происходит при высокой частоте кадров, когда количество кадров в секунду, выдаваемое видеокартой, превышает частоту обновления монитора. На дисплее появляется два или более кадра в течение одного цикла обновления, и изображение выглядит разорванным с видимыми линиями.
  • Отсутствие плавности: отсутствие какой-либо технологии адаптивной синхронизации приводит к значительному снижению воспринимаемой плавности движения на выходе дисплея. Это происходит из-за различного времени кадра в игре в сочетании с фиксированной частотой обновления дисплея.
  • Существенные подтормаживания: если частота кадров в игре довольно низкая (скажем, даже ниже 50 кадров в секунду), технологии адаптивной синхронизации могут помочь улучшить плавность игры даже при такой частоте кадров за счет снижения частоты обновления дисплея, чтобы она соответствовала частоте кадров, предоставляемой игра. Это может быть полезно в играх с очень интенсивной графикой.

Разрыв экрана – Изображение: DisplayNinja

AMD FreeSync

FreeSync – это реализация AMD технологии адаптивной синхронизации, в которой APU и видеокарты AMD могут управлять частотой обновления монитора, к которому они подключены. Это позволяет им изменять частоту обновления монитора, чтобы синхронизировать ее с частотой кадров, которую карта производит в конкретной игре или 3D-приложении. Обычно мониторы FreeSync дешевле, чем их аналоги G-Sync, потому что AMD не выбрала какой-либо проприетарный модуль в этих мониторах, а полагается на платы масштабирования VESA Adaptive Sync, встроенные в дисплеи. Однако AMD заверила пользователей, что брендинг FreeSync применяется только после тщательного тестирования и сертификации.

Технология AMD FreeSync – Изображение: AMD

Nvidia G-Sync

G-Sync – это бренд Nvidia для реализации технологии адаптивной синхронизации. Он работает почти так же, как метод AMD FreeSync, но Nvidia добавила еще несколько шагов для дальнейшей персонализации процесса. В то время как AMD FreeSync работает как через HDMI, так и через Displayport, стандарт Nvidia G-Sync использует исключительно кабельную технологию Displayport. Однако более важным является то, что теперь в мониторах доступны различные типы G-Sync.

G-Sync теперь доступен в 3-х различных «вариантах» для мониторов. Существует стандарт G-Sync, который требует, чтобы на мониторе был установлен отдельный отдельный модуль G-Sync, чтобы эффективно использовать технологию адаптивной синхронизации, а также есть G-Sync Ultimate, который также требует этого модуля и даже больше. тщательно протестирован и сертифицирован для обеспечения высочайшего уровня возможностей G-Sync. Эти аппаратные модули увеличивают стоимость самого дисплея, и поэтому мониторы FreeSync обычно дешевле, чем мониторы G-Sync в тех же категориях спецификаций. Производительность этих двух технологий более или менее одинакова.

3 типа реализаций Nvidia G-Sync в мониторах – Изображение: Nvidia

Есть еще один действительно интересный тип реализации G-Sync, который называется технологией G-Sync Compatible.

Мониторы, совместимые с G-Sync

Эти мониторы не имеют аппаратного модуля, который есть в других мониторах G-Sync, поэтому они также дешевле, чем более дорогие мониторы G-Sync и G-Sync Ultimate. Мониторы, совместимые с G-Sync, могут полностью использовать G-Sync с использованием традиционных модулей масштабирования Adaptive Sync, таких как FreeSync. Фактически, Nvidia сертифицировала только несколько мониторов как «совместимые с G-Sync», но многие мониторы FreeSync на рынке прямо сейчас отлично работают с G-Sync в паре с видеокартой Nvidia GeForce.

Различия между G-Sync Compatible, G-Sync и G-Sync Ultimate

Полный список сертифицированных мониторов, совместимых с G-Sync, можно найти ВотОднако это относительно короткий список, в нем всего несколько мониторов от нескольких брендов. Тем не менее, большое количество мониторов FreeSync (и других мониторов с Adaptive Sync) было протестировано на предмет безупречной работы с G-Sync с помощью нескольких простых шагов в сочетании с графической картой Nvidia. Если у вас есть монитор FreeSync, на котором вы хотите запустить G-Sync, выполните действия, указанные ниже.

Пошаговое руководство по включению G-Sync на мониторе FreeSync

Это простой пошаговый процесс включения G-Sync на мониторе FreeSync. Этот процесс можно использовать для проверки того, будет ли G-Sync работать с вашим монитором FreeSync или Adaptive Sync.

Шаг 1. Включите Monitor FreeSync

Прежде всего, вы должны включить FreeSync монитора, используя собственные элементы управления монитора. Возможно, вам придется просмотреть несколько страниц параметров, чтобы найти этот параметр. Его также можно обозначить как «Adaptive Sync». При выполнении этого процесса убедитесь, что вы подключены через Displayport, а не через HDMI. Это необходимо, потому что, хотя FreeSync действительно работает через HDMI, G-Sync требует подключения Displayport для оптимальной работы.

Шаг 2. Откройте панель управления Nvidia.

Щелкните правой кнопкой мыши на рабочем столе и откройте панель управления Nvidia. Мы предполагаем, что у вас есть видеокарта Nvidia в системе, которая поддерживает G-Sync и последние доступные драйверы от Nvidia.

Щелкните правой кнопкой мыши на рабочем столе и откройте панель управления Nvidia.

Шаг 3. Настройте G-Sync

Когда панель управления откроется, вы должны увидеть «Настроить G-Sync» на левой панели панели управления. Выберите этот вариант. Если он не появляется, попробуйте перезапустить панель управления или компьютер. Вы также можете попробовать подключить кабель Displayport к другому порту.

Шаг 4. Включите G-Sync

После выбора параметра «Настроить G-Sync» в правой части панели управления появится несколько параметров. В первой настройке установите флажок «Включить G-SYNC, G-SYNC Compatible», а также выберите «Включить для полноэкранного режима». Нажмите «Применить» и выйдите из панели управления.

Экран может мерцать после нажатия кнопки «Применить», это нормально. Мы также не рекомендуем выбирать параметр «Включить для оконного и полноэкранного режима», поскольку это включит G-Sync в нежелательных местах, таких как веб-браузеры, где он может работать не так, как задумано.

Если у вас более одного дисплея, вы также можете изменить конкретную настройку G-Sync для отдельных дисплеев, используя второй и третий параметры в этом окне. В этом окне может появиться предупреждение о том, что выбранный дисплей не подтвержден как совместимый с G-Sync. Это сообщение можно проигнорировать, поскольку Nvidia сертифицировала только несколько мониторов как совместимые с G-Sync.

Шаг 5. Протестируйте с помощью демонстрации G-Sync Pendulum

После включения G-Sync нам нужно проверить, действительно ли он работает правильно. У Nvidia есть удобный инструмент для этого процесса на своем веб-сайте. Инструмент, известный как «G-Sync Pendulum Demo», можно скачать с веб-сайта Nvidia и это идеальный тест для нашего конкретного сценария.

После загрузки и установки демоверсии откройте исполняемый файл «G-Sync Pendulum Demo». Монитор будет переключать разрешения, и зрителю будет представлена ​​сцена с маятником с несколькими ползунками и переключателями. Здесь следует отметить, что в верхнем левом углу экрана будет 3 варианта. Параметры будут называться «VSync», «Без VSync» и «G-Sync». Если G-Sync может быть успешно выбран, монитор отлично использует технологию G-Sync. Вы также можете провести дальнейшее тестирование с помощью этой демонстрации, изменяя частоту кадров и ища разрывы экрана или другие артефакты во время работы демонстрации.

G-Sync в верхнем левом углу экрана показывает, что G-Sync был успешно включен.

И эт вуаля! Ваш монитор FreeSync отлично работает с Nvidia G-Sync. Обязательно проверьте эффективность G-Sync в играх и во время длительных игровых сессий. Это позволит вам проверить долгосрочную надежность работы G-Sync на вашем конкретном мониторе FreeSync.

Преимущества FreeSync и G-Sync

G-Sync и FreeSync – это очень впечатляющие технологии, которые считаются практически незаменимыми для компьютерных геймеров, ищущих идеальный игровой процесс с высокой частотой обновления. Нет ничего более раздражающего, чем игра, якобы работающая с высокой частотой кадров, но представляющая огромное количество разрывов экрана, которые портят визуальное восприятие. FreeSync и G-Sync чрезвычайно эффективны при устранении упомянутых разрывов экрана, что обеспечивает плавный игровой процесс без артефактов при высокой частоте обновления.

Преимущества G-Sync (и FreeSync) – Изображение: Nvidia

Эти технологии также улучшают общую воспринимаемую плавность игры, поскольку они помогают поддерживать согласованное время кадров за счет синхронизации частоты кадров игры с частотой обновления монитора. Более того, адаптивная синхронизация также может помочь на другом конце спектра, уменьшая влияние низкой частоты кадров на визуальный результат игры. С G-Sync и FreeSync даже низкая частота кадров может быть значительно более плавной, чем нормальный вывод без какой-либо технологии адаптивной синхронизации. Это может значительно помочь, если видеокарта недостаточно мощная, чтобы поддерживать стабильные 60 кадров в секунду в конкретной игре с определенным разрешением.

Заключение

Итак, поехали! Процесс включения G-Sync на FreeSync или на обычном мониторе Adaptive Sync довольно прост и понятен. Конечно, совместимость G-Sync не гарантируется на всех мониторах FreeSync, но большое количество мониторов было протестировано пользователями на предмет безупречной работы с включенной G-Sync. Наше тестирование проводилось на мониторе FreeSync Monoprice Zero-G 1440p 144 Гц, который использует стандартный стандарт адаптивной синхронизации VESA. G-Sync был протестирован на предмет безупречной работы с этим монитором, даже несмотря на то, что он не указан в списке Nvidia для мониторов, совместимых с G-Sync. Конечно, следует поблагодарить Nvidia за то, что это стало возможным и за устранение необходимости в установке проприетарного модуля G-Sync в монитор, чтобы G-Sync работала.

Это позволило большому количеству более дешевых мониторов FreeSync быть совместимыми не только с FreeSync, но и с G-Sync, что может быть огромным преимуществом для людей, ищущих наиболее выгодную покупку. Этот процесс также может оказаться весьма кстати, если вы приобрели монитор FreeSync для использования с видеокартой AMD, но позже купили видеокарту Nvidia, которая не могла использовать технологию FreeSync. С помощью этого процесса на этом мониторе можно включить G-Sync, чтобы обеспечить такой же уровень плавности и такую ​​же эффективность при удалении раздражающих артефактов, таких как разрыв экрана.

Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще

Для комфортной игры всегда важно не только качество картинки (о чём мы говорили отдельно), но и частота её обновления, которая зависит от многих факторов — модели монитора, мощности компьютера и метода синхронизации. В этой статье мы рассмотрим существующие виды синхронизаций: вертикальную и адаптивную синхронизации, а также G-Sync и FreeSync, чтобы понять, в чем между ними разница и что лучше использовать.

Связь видеокарты с монитором и её проблемы

Прежде всего следует напомнить, как работает видеокарта и монитор компьютера. Во время игры видеокарта формирует кадры. Рендер каждого кадра занимает какое-то время и чем сам кадр сложнее, тем рендер дольше — увеличивают время рендера разрешение экрана, качество и количество эффектов и объектов и так далее. Сформированный кадр посылается на монитор, и видеокарта начинает создавать следующий кадр. Проблема в том, что время рендера кадра и его время на мониторе не всегда совпадают. Все проблемы начинаются отсюда.

В идеальном случае эти два отрезка времени должны быть равны — тогда, когда на мониторе закончится старый кадр, к нему подоспеет новый кадр и они плавно пойдут друг за другом, не создавая проблем. Но видеокарта может «обгонять» монитор.

И тут необходимо понимать, что мониторы работают с определёнными частотами обновления — количеством обновления кадров в секунду. Измеряется частота обновления в герцах. Мониторы с 60 Гц обновляют картинку 60 раз за секунду, 144 Гц — 144 раза за секунду.

Возвращаясь к видеокарте и монитору — значение кадров в секунду, выходящих из видеокарты, плавает, и может быть как меньше 60, так и больше. Оба случая приводят к проблемам.

Если кадры «тяжёлые» (большой взрыв трёх машин в 4K-разрешении, например), то рендер будет долгим и видеокарта может выдать меньше 60 кадров за секунду. Из-за этого монитору не хватает кадров, чтобы воспроизвести одну секунду, и игра компенсирует это и формирует кадры, где действие проходит быстрее, чтобы игровой процесс не замедлился. Но потом «тяжёлые» кадры проходят, и время рендера становится прежним. Но игра ещё не успела перестроиться и по-прежнему заставляет рендерить ускоренные кадры — из-за чего в какой-то момент может пойти смещение и возникнет статтер. Пример работы такого алгоритма — ниже (в верхней части ролика все кадры рендерятся за одинаковое время, в нижней время колеблется).