Карта

Видеокарта самая слабая: Что может в играх самая слабая видеокарта? — PC-01

Что может в играх самая слабая видеокарта? — PC-01

Обычно люди спорят о том какая видеокарта самая быстрая или самая мощная. И как правило оказывается, что самой мощной является самая дорогая.

Учитывая текущие реалии — тема не самая актуальная. Поэтому я решил задаться вопросом — а какая же видеокарта самая слабая.

Что будем считать самой слабой видеокартой?

И тут возникают некоторые сложности с определениями.

Дело в том, что по сути самые слабые видеокарты — это карты вообще без 3D ускорения, то есть которые только выводят картинку, а вся отрисовка — софтверная.

Карта видеовывода Intel SBX275

И такое когда-то было нормой, но сейчас под видеокартами мы понимаем устройство которое ускоряет графику.

Казалось бы — тогда надо взять просто самые первые 3D ускорители.

3D ускоритель подключенный к видеокарте

Но проблема в том, что они не могут быть установлены на современные системы где запустятся современные игры, а в старых играх — они не будут уж сильно плохо себя показывать.

Иными словами — важно чтобы можно было запускать самые новые игры, иначе будет просто старая карта в старых играх.

И это уже конкретные критерии, которые помогут сделать вывод о том какая карта самая слабая. Чтобы запускать современные игры нужна поддержка Windows 8 или 10, не важно официальная или нет, а так же поддержка текущих API, что и накладывает основные ограничения на выборку. Благо DX12 и Vulkan работают на всех картах совместимых с DX11. То есть самая слабая — это видеокарта которая имеет меньшую производительность среди всех DX11 совместимых видеокарт.

А это уже, очевидно, довольно чёткие критерии которые помогут найти конкретное решение. И удовлетворяет этим требованиям Radeon HD 5450 на 512 МБ DDR3 памяти — это самая слабая видеокарта в мире, имеющая поддержку DX11.

Последние официально поддерживаемые драйвера на HD 5450 относятся к 2016 году. Ну и вдобавок имеется и официальная поддержка Windows 10 так что с запуском карты никаких сложностей нет.

Новые драйвера от AMD эту карту не поддерживают, то есть те что на сайте AMD — это и есть самые новые возможные версии.

Условия тестирования в играх

Теперь по играм. Тут тоже есть свои условия. Во первых игры запускаются как есть. Для некоторых игр есть модерские конфигурационные файлы, которые снижают графику ниже минимальной. Этими инструментами пользоваться мы не будем, то есть менять можно только те настройки, которые есть в игре.

Так же отмечу, что запустились не все игры, которые я хотел попробовать. Например RDR2 честно сказала, что со старыми драйверами работать не будет.

Некоторые игры жаловались на объём памяти и малую производительность, но всё же позволяли себя запускать, правда запускались не все.

Допустим Shadow of the Tomb Raider загружалась, но показывала чёрную картинку, причём в меню, которое трёхмерное на движке игры картинка была, а после первого выключения игры — она больше не запускалась даже с чёрным экраном.

Far Cry 5 тоже зависал в процессе загрузки.

В бенчмарке GTA 5 игра стабильно зависала, но при этом сама игра работала нормально.

Так же во время загрузки зависала NFS 15 и Metro Exodus. В метро, кстати, меню тоже на движке игры и меню работало, пусть и с не очень хорошей производительностью. Несколько иная ситуация в The Division 2. Меню там так же на движке игры, но пункты меню не прогружались, так что я просто не мог запустить бенчмарк игры. Или хотя бы снизить настройки графики, чтобы добиться лучшей работы меню.

Зависания в процессе загрузки и другие проблемы с пропадающими ресурсами — это скорее всего из-за 512 МБ видеопамяти, то есть игра просто не знает как выгрузить ненужные ресурсы так чтобы поместиться в 512 МБ и происходит бесконечная загрузка либо загрузка без ресурсов.

Но в целом — где-то ⅔ игр запустить удалось.

Воспроизведения видео и аппаратное декодирование видео

Но перед играми ещё я бы хотел сказать про просмотр видео. Это тоже важный аспект работы.

Для начала стоить отметить, что видеокарта не имеет декодера для VP9. Так что при просмотре самых качественных видео на YouTube декодирование будет софтверное процессором.

Если говорить про аппаратное декодирование, то обычные 1080р 60 FPS h.264 видео с YouTube воспроизводятся нормально. А вот 4к h.264 видеокарта уже нормально проигрывать не может. Происходит много потерь кадров.

Ещё перед тем как показать как работают игры стоит сказать, что в целом — карту можно немного разогнать.

Но с имеющимся охлаждением даже в стоке температуры радиатора поднимаются почти до 90 градусов, так что ни про какой разгон и речи быть не может.

Тесты в играх
CS:GO

С минимальными настройками на разрешении 1152х648 можно получить уже почти стабильные 30 FPS.

Моментами он падает ниже 20, но в целом — играя с ботами особых сложностей не было.

В общем — про результативность естественно тут не стоит говорить, но в целом — игра запускается так что в неё можно играть.

Sims 3

На удивление на почти минимальных настройках удалось запустить игру даже в FullHD.

И игра выдавала 30-40 FPS. Для подобного жанра — более чем достаточно для того чтобы можно было спокойно играть.

GTA V

Разрешение 800 на 600 с половинным рендерингом, то есть фактическое разрешение 400 на 300 пикселей. Настройки минимальные.

FPS редко падает ниже 20. Сам интерфейс рендерится на разрешении 800х600, так что в целом — проблем с разбором текста в интерфейсе нет. Допустим минимальные настройки в метро исход выглядят вот так:

И если бы я не знал на какую кнопку запускается игра в меню, то понять по тексту на экране как запустить игры было бы невозможно. И на фоне того что было в метро — чёткость в GTA 5 вполне приемлемая. Больших задержек управления тоже нет, то есть управлять автомобилем и целиться вполне реально.

PC Building Simulator

Но после того как мы увидели меню в метро — первое желание, которое возникает — это желание сменить видеокарту. Поэтому следующая игра — PC Building Simulator.

Разрешение 1024х768, настройки минимальные. В игре мы видим от 7 до 10 FPS.

Очень большие проблемы с нажатием кнопок, то есть надо как-то нажатиями попадать в активное время работы игры между кадрами, иначе нажатия не регистрируются игрой. Я попытался в игре купить видеокарту помощнее, и купил…

Но FPS или качество картинки от этого, к сожалению, не улучшились.

Watch_Dogs 2

Разрешение 1024х768 масштаб рендеринга 0,5. То есть разрешение рендеринга 512 на 384 пикселя. Но интерфейс рендериться в 1024х768, поэтому все шрифты и элементы читаются нормально, но, к сожалению, FPS около 10 и очень высокие задержки управления, поэтому играть невозможно.

Project CARS

На минимальных настройках в разрешении 640 на 480 хоть и получается выше 30 FPS, но задержки управления слишком высокие чтобы результативно играть, из-за замедленного парироования увода машины она уходит в разнос и даже в 480р играть не выходит.

Mass Effect: Andromeda

Игра позволяет выставить разрешение 1024х768, правда вместо растягивания изображения она отрезает верх и низ, что делает игру несколько менее комфортной. Но кроме снижения разрешения игра позволяет уменьшить разрешение рендеринга в 4 раза. То есть разрешение игры 256 на 192 пикселя (обрезанное изображение 256х170). Тем не менее значительных задержек управления нет, и FPS редко снижается ниже 30, а порой доходит и до 50, при том что я записывал игру на планете в которой требования к видеокарте довольно высокие.

(чтобы понять где именно противник откройте фото в полном размере)

Однако на данном разрешении сложно распознать противников, так что результативность игры под вопросом.

Control

Из всех протестированных игр с наилучшей графикой, что мне удалось запустить — это Control. Естественно трассировку лучей включить не получится. Но и без неё на минимальных настройках с разрешением 640х480 выходит от 5 до 10 FPS и  играть естественно с таким фремрейтом не получиться.

Выводы

Вообще мне изначально было интересно какие возможности разработчики игр закладывают в свои продукты, чтобы охватить максимальный рынок игроков. А данная видеокарта нужна была для того чтобы понять насколько эти возможности актуальны. Особенно в условиях невероятно долгой программной совместимости со старыми картами. Целых 10 лет тянуться совместимости по оборудованию. И для видеокарт — это рекордные цифры. До этого с обновлением шейдеров или DX в новых картах, с появлением универсальных вычислительных архитектур старые видеокарты просто становились грудой бесполезного мусора.

Как показала практика разработчики игр, несмотря на то, что задают относительно высокие рекомендуемые требования, всё же дают возможности по запуску своих игр на видеокартах которые в несколько раз менее производительны чем современные встройки в процессоры.

У меня есть, например, тесты Vega 11.

И для сравнения в Mass Effect: Andromeda radeon HD5450 работала на разрешении около 50 Килопикселей, тогда как Vega 11 с большим FPS на тех же настройках отрисовывала 2 Мегапикселя, то есть работала в разрешении в 42 раза большем чем у этой видеокарты.

(нажмите для увеличения)

В 42 раза, и это в сравнении со встройкой в процессор.

Настолько эта видеокарта слабая.

И даже «такое» умудряется запускать игры, при том что в некоторые ещё можно даже и поиграть, что довольно удивительно и несколько рушит общие представления о том, что для игр обязательно требуется производительная видеокарта.

Записывая это видео я вспоминал прошлое. Конечно, времена не 2010 года, когда вышла Radeon HD 5450, а времена на лет 5-7 раньше. И тогда разрешения на подобии 800х600 были у многих в играх наиболее актуальными, и то что я видел в играх сейчас напомнило мне именно о тех временах (GTA San Andreas я в своё время проходил даже не в 800х600). И подобные пиксельные каши, показанные на скриншотах выше — были нормой. Так что за всё это время не только выросли производительности видеокарт и улучшилось качество графики в играх, но ещё и серьёзно изменились требования со стороны игроков к тому, что можно считать приемлемым уровнем качества графики.

Видео на YouTube канале «Этот компьютер»

play

Может ли проектор заменить монитор/телевизор?

play

Сравнительный тест 120 мм кулеров

play

Ответы на ваши вопрос по случаю 200к подписчиков

play

InfoCAST #034 | Главные IT новости июля

play

Насколько реален переход компьютеров на ARM?

play

Моделирование воздушных потоков. Эволюция компьютерных корпусов.

play

Связаны ли частоты CUDA, RT и тензорных ядер в RTX картах?

play

Охлаждение на Пельтье часть 3 | Финал | intel i9 9900k @5,5 ГГц

play

Внутри CPU: Intel 8086

play

InfoCAST #033 | Главные «железные» новости июня

play

Сглаживание в играх. Причины появления и эволюция. Принципы работы.

play

SSD. Как работают, почему ломаются? SLC, MLC, TLC, QLC

Не играми едиными. Ускорение программ с помощью видеокарты | Видеокарты | Блог

Что такое видеокарта, знает каждый, ведь это главный элемент ПК, отвечающий за игры. И чем он мощнее, тем лучше. Однако в словосочетание «графический адаптер» вложено намного больше смысла. И кроме умения отапливать помещение и жрать электроэнергию «майнить» видеокарты способны ускорять работу некоторых полезных программ. В их число входят приложения для видеомонтажа, графического дизайна, 3D-моделирования, VR-разработок.

Техническая сторона вопроса

Обычно основная часть нагрузки ложится на центральный процессор. Но есть задачи, с которыми GPU справится во много раз быстрее, и было бы глупо этим не воспользоваться. Логично, что чаще всего это касается программ для работы с графикой, видео и 3D-моделированием.

Во время GPU-ускорения задействуется исключительно память видеокарты. Для простой работы с FHD достаточно 2 ГБ. Однако, когда один кадр компонуется из нескольких (картинка в картинке) или используются эффекты, одновременно обрабатывающие несколько кадров (шумодавы и т. д.), расход возрастает. Для UHD/4K-видео необходимо уже минимум 4 ГБ видеопамяти.

Конечный прирост производительности зависит от правильности настройки и общих параметров системы. В случае, например, рендеринга иногда разница с CPU составляет разы, а это сэкономленное время, которое, как известно, — деньги. Гарантировать точный результат ускорения не возьмется ни один производитель, ссылаясь на индивидуальность каждой системы.

Любая видеокарта в той или иной степени способна проводить сложные вычисления и обрабатывать графику. Больше других акцентирует внимание на неигровых возможностях и технологиях своих GeForce компания nVidia.

  • Тензорные ядра — присутствуют в адаптерах серии RTX, повышают производительность и энергоэффективность. Поддержка ИИ ускоряет расчеты и работу с графикой.

  • CUDA — проприетарная технология nVidia, доступная для устройств GTX и RTX. Позволяет использовать графический процессор для вычислений общего назначения, улучшает работу с фото, видео и 3D.

  • NVENC — отдельный аппаратный блок, способный кодировать и декодировать видеопоток. Благодаря этому разгружаются центральный и графический процессоры для запуска игр и других ресурсоемких задач. В первую очередь это интересно стримерам, но многие программы видеомонтажа уже приспособили NVENC под себя.

  • NVIDIA STUDIO DRIVER — выходит для видеокарт серии 10хх и моложе. Оптимизирует работу адаптера под такие приложения, как Autodesk Maya, 3ds Max, Arnold 5, DaVinci Resolve и т. д.

Карты AMD тоже хорошо справляются с вычислениями и обработкой графики, но любит говорить об этом исключительно компания Apple. AMD использует открытые технологии OpenGL и Vulcan — альтернативу CUDA.

Программы, работающие с GPU-ускорением

О возможности ускорения программы с помощью видеокарты можно узнать на официальном сайте. Все ведущие производители софта дают четкие инструкции, какая видеокарта подойдет и как включить GPU-ускорение. А первое, что приходит на ум, когда речь идет о работе с графикой и видео, — решения студии Adobe.

  • Adobe Premiere Pro использует вычислительные ресурсы видеокарт, начиная с версии CS5. Текущие версии для Windows поддерживают все современные GPU (включая встроенную графику Intel).                                                                                                                                                                                                                                                                                  CS6 и выше имеют функцию стабилизации видео Warp Stabilizer, которая устраняет дрожание камеры. Плагин использует GPU-ускорение только при финальном рендеринге изображения. Также в CS6 появился рендер Ray-traced 3D, который обсчитывает на видеокарте 3D-слои, камеру и источники света в композиции.                                                                                                                                                                                                      Adobe Premiere CC научился работать одновременно с несколькими видеокартами, причем допускается использование разных серий и даже производителей (MultipleGPU). Выигрыш зависит от общей конфигурации ПК.                                                                                                                                                                                                                                    Интересные возможности дает использование GPU сторонними плагинами. Можно ускорять Premiere при помощи CUDA одной видеокарты, при этом его плагин будет ускоряться OpenGL другой видеокарты. Такие плагины, как Magic Bullet Looks, Elements3D и т. п. могут использовать ресурсы GPU независимо от настроек Adobe. Подробные требования приложения к видеокарте можно найти на официальном сайте.

  • Adobe After Effects предъявляет к видеокартам аналогичные с предыдущим клиентом требования.
  • Adobe Photoshop также активно использует видеокарты в процессе обработки изображений. Фоторедактор закрывает некоторые свои возможности, если видеокарта их не поддерживает. Яркими примерами таких функций являются «Деформация перспективы», «Умная резкость», «Размытие». Пользователю доступны три режима: базовый, обычный и расширенный. Наиболее интенсивно использует видеокарту последний. Если наблюдается снижение быстродействия, стоит переключиться на уровень ниже, воспользовавшись вкладкой Дополнительные параметры.

Кроме продукции компании Adobe нельзя не вспомнить такие программы, как 3ds Max, DaVinci Resolve  и Vegas Pro.

Данные о поддержке наиболее адаптированных приложений производители видеокарт публикуют на своих официальных сайтах:

eGPU — внешний графический процессор

Этот раздел касается в первую очередь техники компании Apple. Купертиновцы любят делать упор на творческие возможности своих устройств, однако пользователи макбуков и аймаков ограничены исходной комплектацией. На помощь приходит eGPU — внешняя видеокарта, с помощью которой, по заявлению производителя, можно увеличить скорость обработки графики на Mac в несколько раз.

По сути, это обычная видеокарта в специальном боксе с блоком питания и дополнительным охлаждением. Она подключается к макам посредством Thunderbolt 3. Уже много лет Apple использует видеокарты AMD, и весь софт Apple затачивается под новый API Metal. Графические решения nVidia ощутимого прироста производительности на Apple не дают, так как из-за патологической жадности компании не смогли договориться, и весь софт на маке заточен исключительно под AMD. В отместку nVidia недавно полностью отменила поддержку CUDA на MacOS.

А что могут «профи»?

Есть заблуждение, что для работы с графикой нужно купить максимальную видеокарту, а процессор любой сойдет. Это не так. Если процессор не будет успевать давать задания видеокарте, пользователь столкнется с простоем в ресурсоемких задачах. Есть и обратная зависимость: слабая видеокарта может сдерживать процессор в финальном рендеринге. Важен баланс. Если потребности пользователя все же переросли возможности обычных моделей, можно направить свой взгляд на дорогие и узкоспециализированные решения. Технически профессиональные и потребительские видеокарты отличаются несильно, все дело в ПО.

Несколько лет назад компания nVidia выпустила первый TITAN — запредельную по производительности и цене игровую видеокарту. Но вместо того, чтобы стать нишевым продуктом, она была буквально сметена с прилавков. Оказалось, что карта прекрасно справляется с расчетами, и многие компании с удовольствием покупали ее вместо дорогих про-аналогов. Разумеется, nVidia быстро смекнула, в чем дело, и в начале 2018 года прикрыла лавочку запретила использовать графические процессоры GeForce и Titan в составе дата-центров. По словам nVidia, нельзя гарантировать их безотказную работу в жарких условиях (и это не фигуральный оборот) в режиме 24/7.  В качестве альтернативы предлагается использовать, например, Tesla V100, который гораздо мощнее GeForce и стоит в десять раз больше создан специально для работы в условиях ЦоД.

nVidia имеет три линейки профессиональных видеокарт: Quadro, NVS и Tesla.

  • Quadro — служит для рендеринга видео, производства VR/AR, 3D-моделирования. Быстрые и дорогие. Чтобы оправдать стоимость, производитель оснащает их самыми современными и совершенными разработками, которые появятся только в следующих сериях GeForce. Для очень богатых дизайнеров и инженеров.
  • NVS — многопортовые карточки, созданные для подключения большого количества мониторов в одну панель. Например, с их помощью в Макдональдсе можно выбрать бигмак с помидорами или беконом, а в аэропорте найти свой рейс. По сути, это самая обычная «затычка», на которой распаяли много портов. Очень слабые по железу и очень дорогие по соотношению цена/производительность, но ценят их не за FPS в Батле.

  • Tesla ­— узкоспециализированная и сверхдорогая линейка для математических и физических расчетов. Для работы требуется CPU. Портов нет, поиграть нельзя, расходимся пацаны.

Компания AMD в качестве профессионального решения предлагает серию Radeon Pro.  Также у них есть вычислительные аналоги Tesla с космическим ценником под названием Instinct.

12 мифов о видеокартах, про которые пора забыть

Безымянный.jpg

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Безымянный.jpg

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

Безымянный.jpg

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение: 

Безымянный.jpg

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Безымянный.jpg


Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%. 

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

Безымянный.jpg

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений. 

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше. 

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:

Похожее изображение

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

Если вы знаете еще какие-либо мифы — делитесь ими в комментариях.

Самые необычные видеокарты за всю историю компьютеров — часть №1

pascal-gpu.jpg

Видеокарты давно уже стали неотъемлемой частью ПК: кому-то хватает интегрированных решений, а кто-то вынужден брать дискретные. И как раз на рынке дискретных видеокарт мы видим ситуацию, схожую с рынком смартфонов: производителей дискретных GPU всего два, AMD и Nvidia, они же производят референсные видеокарты, но при этом позволяют другим производителям изгаляться как угодно — любой дизайн платы, системы охлаждения, цепей питания и т.д. И с учетом того, что производителей больше десятка (Asus, MSI, KFA2, Sapphire, Gainward, Palit, Inno3D, EVGA, PowerColor, Gigabyte и т.д.) — конкуренция на рынке жесткая, и каждый старается придумать что-то свое, и зачастую получаются очень странные решения — о них и поговорим.

KFA2 GTX 460

Сама GTX 460 особого интереса не представляла — в свое время это был хороший середнячок. Однако KFA2 сумела привлечь внимание, сделав на торце видеокарты… 5 антенн:
kfa2-gtx-460-whdi-1280x1024.jpg
Вы думаете, что она интегрировала в видеокарту Wi-Fi-адаптер? Нет, до этого еще пока не дошло — эти антенны были созданы для беспроводной передачи картинки по стандарту WHDI, что позволяло передавать изображение в 1080р на расстояние до 30 метров на ресивер, который подключался к монитору или телевизору. Увы — на практике задержка сигнала была достаточно большой, так что для игр такая технология подходила слабовато. С учетом более высокой цены, чем у конкурентов (она была сравнима с GTX 470), особых продаж не было, и больше сей трюк уже никто не повторял.

MSI Radeon RX800

Из моего цикла статей по истории видеокарт вы помните (а может и сами знали), что в середине нулевых совершался переход от уже достаточно медленного интерфейса AGP к более быстрому PCI Express, который используется до сих пор. И на рынке из-за этого был раздрай: производители выпускали видеокарты на одних GPU с разными интерфейсами, аналогично как и производители материнских плат. И чтобы облегчить жизнь пользователям, компания MSI выпустила видеокарту… у которой с одной стороны был PCIe, а с другой — AGP:

yX1AlBE.jpg

Да-да, в зависимости от того, какой интерфейс есть на вашей материнской плате, вы можете вставлять видеокарту разными сторонами. Вы скажете — а что же с подключением мониторов? Все предусмотрено — интерфейсы DVI и VGA были вынесены на гибких проводах, так что в любом положении вы сможете подключить ТВ или монитор. К счастью, через пару лет все производители окончательно забросили AGP (за редким исключением), так что сейчас такая «дичь» хороша только как музейный экспонат.

ATI Radeon HD 2400 XT Bite-Taken-Out-Edition 

Как вы знаете, впервые SLI (объединение двух видеокарт) был применен ныне несуществующей компанией 3dfx. После ее покупки про эту технологию забыли, пока Nvidia в середине нулевых не решила ее возродить. Ее конкурент, ATi, разумеется не хотела остаться в стороне, и придумала свою, аналогичную SLI, технологию CrossFire. Казалось бы — ну придумала и ладно, внедрила бы ее в следующем поколении видеокарт. Но борьба за рынок была настолько жесткой, что «красные» взяли свою однослотовую видеокарту HD 2400… и удлинили ей текстолит, на котором разместили чип для работы с CrossFire и специальный коннектор:
X-2007071614595960580.jpg

Выглядело такое решение, мягко сказать, странно, но своей цели ATi добились — CrossFire появился на рынке немногим позже SLI.

Galaxy GTX 680

В свое время (эдак лет 6 назад) GTX 680 была топовой одночиповой видеокартой современности, имела теплопакет свыше 200 Вт и требовала качественной системы охлаждения, занимавшей как минимум 2 слота. Однако малоизвестная компания Galaxy решила это исправить, и сделала однослотовую (то есть тонкую) GTX 680, да и еще с одной турбиной:

Geforce_GTX_680_Single_Slot-7d4094f3c7e5b45f.jpg

Увы — в продажу она так и не поступила, видно все же такая слабая система охлаждения не смогла справиться с горячим нравом флагмана.

HIS HD 5450 PCI-E x1 Edition

Думаю, уже из названия понятно, какая «особенность» у этой видеокарты. Да, она для подключения использовала не PCIe x16, а x1 — слот, который обычно используется для подключения всяких аудио- и сетевых карт:
3601_002_1_1600.jpg
Разумеется, скорости такого интерфейса не хватает для нормальной работы даже среднеуровневых видеокарт, но с учетом того, что HD 5450 является по сути «интернет-затычкой», то тут никаких проблем со скоростью нет.

Zotac GT 610 PCI

Вы думали, что видеокарта на шине PCIe x1 — это предел извращений? Как бы не так — в 2011 году Zotac выпустила видеокарту на шине PCI — да-да, то самой, по которой два десятка лет назад подключались видеокарты, и которая в начале нулевых была вытеснена AGP:
ZOTAC-GeForce-GT-520-PCI-Express-x1-graphics-cards-picture-1.jpg
Абсолютно непонятно, зачем было выпускать такую видеокарту — пропускной способности PCI уже не хватало для не самых топовых 3dfx Voodoo, так что видеокарта 2011 года, пусть и самая слабая в линейке, не работала и на треть своих возможностей. Вы скажете — эта видеокарта нужна тем, у кого на материнской плате нет ни PCIe, ни AGP. Соглашусь, но это материнские платы конца 90ых-начала нулевых, и в лучшем случае там стоит Pentium 3 — сейчас его возможностей с трудом хватает даже для работы с документами, про интернет можно вообще забыть (обычный яндекс грузится с полминуты). Так что видеокарта, которая тянет GTA 5 на минимальных настройках с играбельным FPS, для ПК конца 90ых — жуткий перебор.

На этом мы заканчиваем первую часть статьи — разумеется, диковинных видеокарт еще очень много, и о них мы еще поговорим в дальнейшем.

Что такое видеокарта?

Обновлено: 16.11.2019 компанией Computer Hope

Также известный как адаптер дисплея , видеокарта , видеоадаптер , видеоплата или видеоконтроллер , видеокарта представляет собой карту расширения, которая подключается к материнской плате компьютера. Он используется для создания изображения на дисплее; без видеокарты вы не сможете увидеть эту страницу. Проще говоря, это часть оборудования внутри вашего компьютера, которая обрабатывает изображения и видео, а некоторые задачи обычно выполняет процессор.Видеокарты используются геймерами вместо интегрированной графики из-за их дополнительной вычислительной мощности и видеопамяти.

Визуальный обзор видеокарты компьютера

Ниже приведены два наглядных примера того, как видеокарта может выглядеть внутри компьютера. Во-первых, это изображение видеокарты AGP старой модели с несколькими типами соединений и компонентов на ней. Во-вторых, это пример более современной видеокарты PCI Express, используемой в современных игровых компьютерах.

Заметка

Некоторые материнские платы могут также использовать встроенную видеокарту, что означает, что видеокарта не является отдельной платой расширения, как показано ниже.

Порты для видеокарт

Рисунки выше также помогают проиллюстрировать типы видеопортов, используемых с видеокартами. Для получения дополнительных сведений о любом из этих портов щелкните ссылки ниже.

В прошлом VGA или SVGA были наиболее популярным соединением для компьютерных мониторов. Сегодня в большинстве плоских дисплеев используются разъемы DVI или HDMI.

Слоты расширения видеокарты (подключения)

Слот расширения видеокарты — это место, где карта подключается к материнской плате.На картинке выше видеокарта вставлена ​​в слот расширения AGP на материнской плате компьютера. В процессе разработки компьютеров было несколько типов слотов расширения для видеокарт. Сегодня наиболее распространенным слотом расширения для видеокарт является PCIe, пришедший на смену AGP, пришедший на смену PCI, пришедший на смену ISA.

Заметка

Некоторые OEM-компьютеры и материнские платы могут иметь встроенную или встроенную в материнскую плату видеокарту.

Могу ли я установить более одной видеокарты?

Да.Карты AMD Radeon (использующие CrossFire) и NVIDIA GeForce (использующие SLI) могут одновременно работать с двумя или более видеокартами.

Адаптер, подключение, CUDA, выделенная графика, графический процессор, аппаратные средства, устройство вывода, устройство обработки, видеоускоритель, условия видеокарты

,

протестированы на всех основных графических процессорах Nvidia и AMD • Eurogamer.net

Замена видеокарты — это обновление номер один, которое вы можете сделать для своего ПК, и самое серьезное с точки зрения повышения производительности в играх, поэтому имеет смысл потратить некоторое время на изучение вашего параметры. Выбор подходящей карты зависит от многих факторов, поэтому мы оптимизировали этот процесс для вас. Прямо здесь вы найдете строгие рекомендации по видеокартам для бюджетных игровых ПК с разрешением 1080p вплоть до 4K и с высокой частотой обновления, основанные на нашем обширном тестировании каждой видеокарты на рынке.

Если вам просто нужны наши прямые, серьезные рекомендации по обновлению графического процессора, это не проблема.

  • На данный момент, Nvidia GeForce RTX 2080 Ti — наш лучший выбор для лучшей видеокарты. Если вам нужна максимально возможная частота кадров в играх, а также поддержка аппаратно-ускоренной трассировки лучей и других современных технологий, тогда RTX 2080 Ti стоит на голову выше любой другой потребительской карты от Nvidia или AMD.
  • Если вы хотите максимизировать производительность за доллар, Nvidia GeForce RTX 2060 предлагает отличную частоту кадров 1080p и 1440p и является самой дешевой картой с аппаратно-ускоренной трассировкой лучей.Поэтому мы выбрали видеокарту с лучшим соотношением цены и качества.
  • С точки зрения выбора нижнего уровня мы нацелены на долговечность и пропускную способность, превосходящую консольную, для нашей лучшей бюджетной видеокарты — в данном случае старой, но все еще мощной AMD Radeon RX 570 .

Хотя это наш лучший выбор, мы также выделили несколько альтернатив для каждой категории, поэтому ищите их после каждой основной рекомендации.

Хотите знать, на какое обновление вы можете рассчитывать? Взгляните на шкалу мощности графических процессоров Digital Foundry, которая оценивает каждую текущую видеокарту от самой слабой до самой сильной на основе нашего обширного тестирования.

Руководство покупателя видеокарты

Хотя игровые настольные ПК обычно служат дольше, чем обычная игровая консоль или игровой ноутбук, видеокарта — это один из компонентов, который вам необходимо регулярно заменять, если вы хотите сохранить хорошую производительность в новейших играх. Если процессоры могут становиться быстрее всего на несколько процентных пунктов каждые несколько лет, видеокарты могут получать прирост на 25 процентов от поколения к поколению, а иногда повышение производительности даже более существенное.Например, Intel Core i7 2600K, выпущенный еще в 2011 году, по-прежнему неплохо работает в современных играх, но видеокарты аналогичного года выпуска будут бороться даже при низких настройках качества.

Выбор правильной видеокарты важен, потому что это компонент, который делает большую часть тяжелой работы, которая оживляет ваши игры. Графическое оборудование, способное легко запускать игры Triple-A, начинается примерно с отметки 110 фунтов стерлингов / 110 долларов, при этом GTX 1050 от Nvidia и AMD RX 560 предлагают (по крайней мере, на бумаге) значительно большую мощность обработки графики, чем базовые PlayStation 4 и Xbox One.Это означает, что каждая крупная мультиплатформенная игра должна работать, по крайней мере, с примерно эквивалентной производительностью. С этого момента все дело в том, чтобы платить больше и расширяться, а Nvidia GeForce RTX 2080 Ti находится на вершине списка.

Конечно, также важно избегать создания узких мест в системе, поэтому вы должны стремиться сочетать выбранную видеокарту с достаточно мощным процессором, ОЗУ и другими компонентами. Обычно мы рекомендуем системным сборщикам использовать как минимум 8 ГБ оперативной памяти, при этом 16 ГБ являются стоящим обновлением.Если вы используете AMD Ryzen или основной процессор Intel, использование двух модулей оперативной памяти в двух- или даже четырехканальном режиме гарантирует, что вы не снизите производительность. Ваш выбор процессора также имеет решающее значение для построения сбалансированной системы. AMD Ryzen 5 и Intel Core i5 являются чемпионами по соотношению цена / производительность для игр со скоростью 60 кадров в секунду, но если вы хотите запускать новейшие игры с максимально возможной частотой кадров, особенно на дисплее с высокой частотой обновления, мы рекомендуем Intel Core i7 8700K или его преемники девятого поколения.

К счастью, мы достигли точки, когда даже более дешевая часть рынка дискретных графических процессоров предлагает неплохие результаты, если вы готовы приложить немного усилий для настройки графических настроек в игре. Помимо этого, по-видимому, существует видеокарта для любого типа использования — и именно здесь появляется это руководство. В это исчерпывающее руководство включены все графические процессоры, которые стоит рассмотреть, и, если вы ищете более подробные показатели производительности, мы можем связать ознакомьтесь с одними из самых подробных игровых тестов, чтобы вы могли точно увидеть, какой производительности вам следует ожидать.

Лучшая видеокарта

Nvidia GeForce RTX 2080 Ti: игры в разрешении 4K со скоростью 60 кадров в секунду и более, а также некоторые захватывающие новые технологии.

Поколение: Тьюринг | Количество ядер графического процессора: 4352 | Частота разгона: 1545 МГц | RTX-OPS: 76T | Память: 11 ГБ GDDR6 | Частота памяти: 11 Гбит / с | Пропускная способность памяти: 616 ГБ / с

RTX 2080 Ti — результат десятилетий работы Nvidia, и это видно. В 2080 Ti значительно улучшена необработанная графическая мощность по сравнению с картой GTX 1080 Ti, которую она номинально заменяет, плюс эксклюзивный доступ к новым технологиям, таким как трассировка лучей в реальном времени (RTX) и суперсэмплинг с глубоким обучением (DLSS), которые могут улучшить внешний вид и производительность поддерживаемых игр.С появлением трассировки лучей в реальном времени на PlayStation 5 и Xbox Series X ожидается, что ценность этой технологии со временем только возрастет.

Помимо новых технологий, мощный RTX 2080 Ti может легко обрабатывать разрешения до 4K, а также хорошо работает при высоких частотах обновления — просто помните, что для высоких частот обновления также требуется мощный процессор, поэтому не тратьте все свои деньги. на новой карте RTX, не имеющей по крайней мере Core i7 7700K или лучше в вашей сборке. RTX 2080 Ti также является отличным выбором для игр виртуальной реальности, особенно для гарнитур виртуальной реальности с высоким разрешением, таких как Valve Index.

При наличии правильной системы для резервного копирования вы можете примерно ожидать, что RTX 2080 Ti будет выдавать не менее 144 кадров в секунду при 1080p, 100 кадров в секунду при 1440p и 60 кадров в секунду при 4K. Очевидно, что более свежие и интенсивные игры могут показывать более низкую производительность, в то время как более старые игры, ориентированные на киберспорт, вероятно, будут работать значительно лучше.

Плюсов:

  • Самая быстрая из доступных потребительских видеокарт
  • Превосходная производительность при разрешении 4K и менее
  • Такие функции, как трассировка лучей в реальном времени и DLSS, со временем становятся лучше

Минусы:

  • Самая дорогая доступная видеокарта для потребителей
  • Поддержка
  • RTX и DLSS по-прежнему не является обязательной, хотя ожидайте гораздо большего в 2020 году.

Лучшая альтернатива AMD для 4K или HFR: Radeon RX 5700 XT

Поколение: Navi | Количество ядер графического процессора: 2560 | Частота разгона: 1755 МГц | Память: 8 ГБ GDDR6 | Частота памяти: 14 Гбит / с | Пропускная способность памяти: 448 ГБ / с

RX 5700 XT — лучшая карта Radeon на рынке после ухода недолговечной Radeon 7.Этот графический процессор хорошо работает в разрешении 1080p и 1440p, а игры в 4K также доступны, если вы готовы пойти на некоторые компромиссы в меню настроек. Одной из приятных особенностей RX 5700 XT является то, что он основан на более продвинутом 7-нм техпроцессе, чем предыдущие 14-нанометровые карты AMD или существующая линейка 12-нм Nvidia, что приводит к повышению энергоэффективности и меньшему тепловыделению — большое улучшение по сравнению с исторически горячими и энергоэффективными AMD. голодные флагманы.

RX 5700 XT включает поддержку новейших программных функций AMD, включая Radeon Image Sharpening (фильтр, делающий края изображения более заметными) и Radeon Anti-Lag (функция, которая синхронизирует CPU и GPU для минимизации задержки ввода в DX9, DX11 и Vulkan).Однако нет поддержки аппаратно-ускоренной трассировки лучей, которая станет более популярной в 2020 году, поскольку обе консоли следующего поколения будут поставляться с этой функцией.

Плюсов:

  • Высокая производительность в играх, особенно в играх DX12 и Vulkan
  • Кулер и более энергоэффективный, чем предыдущие карты Radeon
  • Обеспечивает доступ к новейшим функциям программного обеспечения Radeon.

Минусы:

  • Производительность в играх DX11, особенно в 1080p и 1440p, оставляет желать лучшего
  • Нет поддержки трассировки лучей с аппаратным ускорением или шейдинга с переменной скоростью

Лучшая альтернатива Nvidia для 4K или HFR: GeForce RTX 2070 Super

Поколение: Тьюринг | Количество ядер графического процессора: 2560 | Частота разгона: 1770 МГц | RTX-OPS: 52T | Память: 8 ГБ GDDR6 | Частота памяти: 14 Гбит / с | Пропускная способность памяти: 448 ГБ / с

Недавно обновленная карта Nvidia верхнего и среднего уровня предлагает максимальную производительность 1440p, а также упаковывает новые функции, которые определяют поколение Тьюринга: трассировку лучей в реальном времени (RT) и суперсэмплинг глубокого обучения (DLSS).RTX 2070 Super обрабатывает разрешения 4K лучше, чем 2060 Super и RX 5700 XT, обеспечивая комфортную скорость 60 кадров в секунду с небольшой настройкой настроек — и это без учета DLSS. Точно так же мониторы с высокой частотой обновления также можно приручить с помощью 2070 Super, хотя мощный процессор здесь также является ключевым.

Плюсов:

  • Высокая производительность 1080p и 1440p даже в самых сложных играх
  • 4K-игры можно использовать в большинстве игр, с некоторыми изменениями настроек
  • DLSS и трассировка лучей в реальном времени могут быть преобразовательными

Минусы:

  • Дорого для карты GeForce xx70

Лучшая видеокарта

Nvidia GeForce RTX 2060: самый дешевый перспективный графический процессор для 1080p и 1440p.

Поколение: Тьюринг | Количество ядер графического процессора: 1920 | Частота разгона: 1680 МГц | RTX-OPS: 76T | Память: 6 ГБ GDDR6 | Частота памяти: 14 Гбит / с | Пропускная способность памяти: 336 ГБ / с

RTX 2060 — отличная карта по цене, предлагающая стабильную производительность среднего уровня, а также функции RTX и DLSS, которые определяют карты Nvidia 20-й серии — и по новой более низкой цене, благодаря выпуску RTX 2060 Super. Чтобы дать вам некоторое представление о своем мастерстве, RTX 2060 превосходит Titan X Maxwell 2015 года, который когда-то был лучшим из лучших с точки зрения графического оборудования.

Уровень производительности позволяет 2060 работать с более высоким разрешением (1440p против 1080p) или более высокой частотой обновления (например, 144 Гц). Если вы готовы поэкспериментировать с настройками более низкой детализации или играете в менее требовательные киберспортивные игры, такие как CSGO или Rocket League, ваш компьютер может легко использовать популярную комбинацию мониторов 1440p / 144 Гц. Используя DLSS, вы можете снимать с еще более требовательными разрешениями и частотой обновления. Однако помните, что высокая частота обновления и низкое разрешение переносят большую часть нагрузки на ваш процессор, поэтому убедитесь, что у вас есть достойный процессор; мы рекомендуем Core i7 8700K или лучше для оптимальной производительности.

Наконец, вопреки ожиданиям, RTX 2060 действительно может отображать визуальные эффекты с трассировкой лучей с разрешением 1080p60 в таких играх, как Battlefield 5 и Control. Благодаря тому, что DLSS доступен во многих играх для компенсации дополнительных требований к мощности, RTX 2060 со временем только стал лучше. Эта карта также кажется особенно разумным выбором с потоковой передачей обратной связи сэмплера и шейдингом с переменной скоростью, которые появятся в Xbox Series X, не говоря уже о трассировке лучей, доступной на обеих консолях следующего поколения — все они здесь поддерживаются.

Плюсов:

  • Великолепная производительность 1080p и 1440p
  • Может расширяться до игр 4K, особенно с монитором G-Sync
  • Относительно круто и эффективно
  • Включение RTX и DLSS дает большой бонус

Минусы:

  • Значительно дороже, чем GTX 1060
  • последнего поколения
  • Всего 6 ГБ видеопамяти по сравнению с 8 ГБ на GTX 1070 и RX 5700
  • Достижение 4K со скоростью 60 кадров в секунду требует значительных настроек

Лучшая альтернатива AMD для 1440p: Radeon RX 5600 XT

Поколение: Navi | Количество ядер графического процессора: 2304 | Частота разгона: 1750 МГц | Память: 6 ГБ GDDR6 | Частота памяти: 14 Гбит / с | Пропускная способность памяти: 336 ГБ / с

RX 5600 XT была довольно ничем не примечательной на момент первого анонса, но предварительное обновление BIOS для нескольких моделей, включая Sapphire Pulse, которое мы тестировали, оставило карту на значительно быстрее, чем ожидалось.В нашем тестировании с разрешением 1440p RX 5600 XT был всего на шесть процентов медленнее, чем RX 5700, который стоит примерно на 25 процентов дороже. Это делает этот графический процессор выдающимся качеством для игр 1080p или 1440p, с достаточной мощностью, чтобы конкурировать с RTX 2060 и смущать GTX 1660 Super — просто убедитесь, что вы выбрали такую ​​карту, как Sapphire Pulse, которая работает с памятью 14 Гбит / с и тактовой частотой 1750 МГц. Единственным серьезным недостатком этой карты является ее будущая производительность, которая может быть ограничена отсутствием поддержки таких функций, как аппаратно-ускоренная трассировка лучей, которая должна появиться как на Xbox Series X, так и на PlayStation 5.

Плюсов:

  • Превосходная частота кадров при 1080p и 1440p
  • Обычно и дешевле, и быстрее, чем карты Nvidia аналогичной цены

Минусы:

  • Нет поддержки трассировки лучей или шейдинга с переменной скоростью на этом поколении карт Radeon
  • Агрессивный BIOS означает, что при разгоне почти не будет производительности.
  • Не все карты имеют обновленный BIOS, поэтому внимательно проверьте спецификации

Лучшая альтернатива Nvidia для 1440p: GeForce GTX 1660 Super

Поколение: Тьюринг | Количество ядер графического процессора: 1408 | Частота разгона: 1785 МГц | Память: 6 ГБ GDDR6 | Частота памяти: 14 Гбит / с | Пропускная способность памяти: 336 ГБ / с

GTX 1660 Super — это более новая версия GTX 1660 с более быстрой памятью GDDR6, обеспечивающая хорошие результаты при разрешении 1080p и возможность увеличения изображения до 1440p с некоторыми изменениями настроек.Это делает его хорошей альтернативой RTX 2060 по сниженной цене, которая всего на 20 процентов быстрее в большинстве игр, которые мы тестировали. Тем не менее, GTX 1660 Super не является нашим лучшим выбором, потому что ему не хватает поддержки некоторых технологий следующего поколения, таких как RTX и DLSS, что может повредить его долгосрочной жизнеспособности в качестве лучшей видеокарты. Он также превосходит AMD RX 5600 XT с аналогичной ценой, особенно модели, которые работают с молниеносной тактовой частотой 1750 МГц.

Плюсов:

  • Значительно лучшая производительность, чем RX 580 / GTX 1060
  • Хороший вариант для 1080p; обычно можно растянуть до 1440p
  • Более ориентированный на будущее, чем его конкуренты RX 580 / GTX 1060, с VRS и новым NVENC

Минусы:

  • Немного меньше видеопамяти, чем у RX 580 8 ГБ, хотя в большинстве игр это не имеет значения
  • Отсутствие RTX и DLSS может ограничить полезность этой карты в будущем

Лучшая бюджетная видеокарта

AMD Radeon RX 570: более старая карта среднего уровня, доступная по цене начального уровня.

Поколение: Polaris | Количество ядер графического процессора: 2048 | Частота разгона: 1244 МГц | Память: 4 ГБ GDDR5 | Частота памяти: 7 Гбит / с | Пропускная способность памяти: 224 ГБ / с

С выпуском новых поколений видеокарт AMD и Nvidia в конце 2019 и начале 2020 года цены на старые карты AMD значительно упали, что придает им новую актуальность. В качестве примера можно привести RX 570, некогда карту среднего уровня, которая теперь является одной из самых дешевых и самых производительных доступных видеокарт. Эта карта обеспечивает хорошую производительность при разрешении 1080p даже в новейших играх, хотя в некоторых играх вам, возможно, придется снизить некоторые настройки, чтобы гарантировать среднюю скорость 60 кадров в секунду.

Однако у RX 570 есть свои недостатки. Главным из них является более высокая загрузка ЦП, чем аналогичные мощные карты от Nvidia, поэтому мы рекомендуем по крайней мере четырехъядерный процессор — предпочтительно новейшую модель AMD Ryzen или Intel Core — чтобы избежать узких мест в ЦП. RX 570 также имеет тенденцию потреблять больше энергии, чем GTX 1060 3GB или GTX 1050 Ti, поэтому он может плохо работать в системах с ограниченными или нестандартными источниками питания.

Если вы настроены на разгон, вы можете выжать из RX 570 больше производительности.Сколько, как всегда, зависит от кремниевой лотереи, но некоторые устройства — особенно с более мощными решениями для охлаждения — смогут почти соответствовать RX 580.

Плюсов:

  • Беспрецедентная производительность за свою цену
  • Разрешение Full HD при 60 кадрах в секунду — в пределах досягаемости

Минусы:

  • Не всегда удается достичь 60 кадров в секунду при максимальных настройках
  • Требуется четырехъядерный процессор, чтобы избежать узких мест

Лучшая альтернатива AMD для 1080p: Radeon RX 5500 XT

Поколение: Navi | Количество ядер графического процессора: 1408 | Частота разгона: 1725 МГц | Память: 4 ГБ / 8 ГБ GDDR6 | Частота памяти: 14 Гбит / с | Пропускная способность памяти: 224 ГБ / с

Хотя RX 570 остается одной из лучших видеокарт 1080p, в последних играх может потребоваться немного более мощная карта, особенно если вы ориентируетесь на высокую частоту кадров.RX 5500 XT — хороший выбор в таких ситуациях, предлагая лучшую производительность, чем вариант Nvidia в этой ценовой категории, GTX 1650. Доступны версии с 4 ГБ и 8 ГБ, причем вариант с 8 ГБ лучше справляется с настройками ультра текстуры в последних играх. но модель 4 ГБ предлагает идентичную производительность, если вы не превысите ее более ограниченный объем видеопамяти.

Плюсов:

  • Отличная производительность при 1080p даже в современных играх
  • Может расширяться до 1440p в играх с настройками
  • Лучшая энергоэффективность и тепловые характеристики, чем у RX 570

Минусы:

  • Вариант 4 ГБ ОЗУ может быть ограничением в некоторых последних играх
  • Не достаточно мощный для бескомпромиссных игр 1440p

Лучшая альтернатива Nvidia для 1080p: GeForce GTX 1650 Super

Поколение: Тьюринг | Количество ядер графического процессора: 1280 | Частота разгона: 1725 МГц | Память: 4 ГБ GDDR6 | Частота памяти: 12 Гбит / с | Пропускная способность памяти: 192 ГБ / с

В настоящее время Nvidia немного уступает в сегменте low-end, но их лучшим предложением является GTX 1650 Super.Эта карта предлагает немного меньшую производительность 1080p и 1440p, чем RX 5500 XT, но обычно стоит немного дешевле. Сюда включены несколько функций эпохи Тьюринга, в том числе шейдинг с переменной скоростью и новый кодировщик NVENC, что делает карту немного более перспективной, чем некоторые из ее конкурентов. Однако выдающиеся функции Nvidia RTX и DLSS отсутствуют, как и все карты GTX.

Плюсов:

  • Хорошая производительность при 1080p, на уровне GTX 1060 6GB
  • Драйвер Nvidia более эффективен, чем драйвер AMD, что снижает нагрузку на ЦП.
  • Включает некоторые функции Тьюринга, включая VRS и новый кодировщик NVENC

Минусы:

  • 4 ГБ ОЗУ затрудняет работу с ультра настройками текстуры в некоторых играх
  • Младшие предложения AMD, старые и новые, как правило, более производительны

На этом мы подошли к концу наших текущих рекомендаций по видеокартам.Обязательно ознакомьтесь с шкалой мощности графического процессора Digital Foundry, которая ранжирует каждую текущую видеокарту от самой слабой до самой сильной, чтобы получить еще один полезный взгляд на то, имеет ли смысл обновление графического процессора для вас.

Если вам нужна персональная рекомендация по видеокарте или просто дружеский разговор об играх на ПК, вы можете связаться со мной или Digital Foundry по адресам @wsjudd и @digitalfoundry соответственно.

,

графики — как в Vulkan вы можете связать каждую отдельную видеокарту с мониторами, к которым они напрямую подключены?

Переполнение стека
  1. Около
  2. Товары
  3. Для команд
  1. Переполнение стека Общественные вопросы и ответы
  2. Переполнение стека для команд Где разработчики и технологи делятся частными знаниями с коллегами
  3. работы Программирование и связанные с ним технические возможности карьерного роста
  4. Талант Нанимайте технических специалистов и создавайте свой бренд работодателя
  5. реклама Обратитесь к разработчикам и технологам со всего мира
  6. О компании
,

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *