С момента старта консолей нового поколения системные требования игр подросли. Расширившиеся возможности аппаратной части этих устройств и значительное увеличение памяти позволило разработчикам работать с текстурами высокого разрешения, и, как следствие, выросли общие требования у мультиплатформенных проектов. Потихоньку набирают популярность и мониторы сверхвысоких разрешений. Еще пару лет назад два гигабайта были атрибутом мощных видеокарт, а сейчас в топовом сегменте конкурируют с модели с четырьмя, шестью и даже восемью гигабайтами. Стандартная версия GeForce GTX 960 предусматривает два гигабайта видеопамяти. Но многие производители успели выпустить альтернативные варианты с четырьмя гигабайтами. Оправдано ли это для устройства с такой производительностью? Попытаемся найти ответ.
Для этого понадобятся два экземпляра GeForce GTX 960 с разным объемом памяти. Они будут протестированы в ряде игр при использовании разрешения 1920x1080 с Ultra-качеством графики. Чтобы выявить прямое влияние объема памяти на производительность нужно провести сравнение видеоадаптеров при одинаковых частотах. В свете разнообразия выпускаемых моделей по частотных характеристикам такая операция потребует небольшого ручного вмешательства.
В данном сравнении примет участие ASUS STRIX GTX 960 DC2OC с 4 ГБ видеопамяти. Это видеоадаптер с заводским разгоном. Полностью подогнать его к уровню референса не позволяют определенные ограничения по изменению рабочих частот GPU. Минимальный доступный вариант — 1138 МГц по базовой частоте при Boost до 1289 МГц, что чуть выше частот обычной версии. Под такую конфигурацию 1138/1289 МГц подгонялся второй участник с 2 ГБ.
Обойдемся без изучения особенностей конкретных моделей, а сосредоточимся на производительности.
Основной частотной конфигурацией для обоих версий GeForce GTX 960 станет 1138-1289/7012 МГц. Оба экземпляра дополнительно протестированы в разгоне. Частотный потенциал разный. Младший GeForce GTX 960 с 2 ГБ разогнался до 1352-1516/8074 МГц, вариант с 4 ГБ смог работать на 1378-1530/7840 МГц. При таких частотах они и сравнивались в режиме разгона. Разное соотношение частот ядра и памяти в сочетании с разным объемом памяти вызывают дополнительный интерес. Это выявит более важные для итоговой производительности параметры.
Не обойдется без сравнения с другими видеоадаптерами. В их числе GeForce GTX 770 2 ГБ, Radeon R9 380 2 ГБ, Radeon R9 280X и Radeon HD 7970 с 3 ГБ.
Во время тестирования велось отслеживание загрузки видеопамяти при помощи утилиты MSI Afterburner.
Участники тестирования
Характеристики всех участников отображены ниже в таблице. Для GeForce указано базовое значение частоты и пиковое значение Boost
|
GeForce GTX 770 |
GeForce GTX 960 |
GeForce GTX 960 |
Radeon R9 280X |
Radeon HD 7970 |
Radeon R9 380 |
Кодовое имя GPU |
GK104 |
GM206 |
GM206 |
Tahiti |
Tahiti |
Antigua |
Количество транзисторов, млн. |
3500 |
2940 |
2940 |
4313 |
4313 |
5000 |
Техпроцесс, нм |
28 |
28 |
28 |
28 |
28 |
28 |
Площадь ядра, кв. мм |
294 |
228 |
228 |
352 |
352 |
366 |
Количество потоковых процессоров |
1536 |
1024 |
1024 |
2048 |
2048 |
1792 |
Количество текстурных блоков |
128 |
64 |
64 |
128 |
128 |
112 |
Количество блоков ROP |
32 |
32 |
32 |
32 |
32 |
32 |
Частота ядра, МГц |
1045/1137 |
1138/1289 |
1138/1289 |
1000 |
925 |
970 |
Шина памяти, бит |
256 |
128 |
128 |
384 |
384 |
256 |
Тип памяти |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5 |
Эффективная частота памяти, МГц |
7010 |
7012 |
7012 |
6000 |
5500 |
5500 |
Объём памяти, Мбайт |
2048 |
4096 |
2048 |
3072 |
3072 |
2048 |
Интерфейс |
PCI-E 3.0 |
PCI-E 3.0 |
PCI-E 3.0 |
PCI-E 3.0 |
PCI-E 3.0 |
PCI-E 3.0 |
Уровень TDP, Вт |
230 |
120 |
120 |
250 |
250 |
190 |
Тестовый стенд
- процессор: Intel Core i7-3930K @4,4 ГГц
- материнская плата: ASUS Rampage IV Formula
- память: Kingston KHX2133C11D3K4/16GX, 1866 МГц, 4x4 ГБ
- жесткий диск: Hitachi HDS721010CLA332, 1 TБ
- блок питания: Seasonic SS-750KM
- операционная система: Windows 7 Ultimate SP1 x64
- драйвер GeForce: NVIDIA GeForce 353.06
- драйвер Radeon: ATI Catalyst 15.6 и ATI Catalyst 15.7 для R9 380
Тесты проводились с соблюдением методики и конфигурации настроек, описанных ранее в общем материале по GeForce GTX 960. Детали тут. Повторятся не будем. Сразу перейдем к результатам.