Gigabyte geforce gtx 680 2gb

Оглавление

Вступление

По странному стечению обстоятельств видеокарты Gigabyte — нечастые гости в лаборатории, особенно решения, относящиеся к верхнему ценовому сегменту. В данном материале будет рассмотрена версия Gigabyte GV-N680OC-2GD с оригинальной СО WindForce 3X.

Среди альтернативных систем охлаждения конструкция WindForce по праву считается очень удачной разработкой, сочетая в себе хороший функционал, красоту и условную (относительно других моделей СО) тишину. Создав единый дизайн, компания Gigabyte стремится придерживаться его, чтобы выделить свои продукты среди графических ускорителей остальных производителей. Но под кожухом часто встречается большое разнообразие конструкций, поскольку, к примеру, для охлаждения GeForce GTX 680 и GeForce GTX 650 требуется разная, скажем так, производительность. Мне остается только снять вентиляторы и разобраться, так ли хороша система охлаждения WindForce, как о ней высказываются участники нашей конференции.

Упаковка и комплект поставки

реклама

Внешний вид и размеры

Модель A, мм B, мм C, мм D, мм A1, мм B1, мм C1, мм
AMD HD 7970 266 98 34 71 277 98 39
NVIDIA GTX 680 254 98 34 63 254 98 38
Gainward GTX 680 Phantom 254 98 49 75 254 98 53
KFA 2 GTX 680 EX OC 254 98 35 86 256 100 38
KFA 2 GTX 680 LTD OC 268 98 34 88 288 100 39
Gigabyte GV-N680OC-2GD 254 98 34 75 273 110 39

А — длина печатной платы, без учета системы охлаждения и планки портов видеовыходов.
В — ширина печатной платы, без учета контактов PCI-E и системы охлаждения.
С — высота от горизонтальной плоскости печатной платы до уровня верхней поверхности системы охлаждения.
D — диаметр вентилятора/ов по внешнему радиусу.

А1 — длина печатной платы, с учетом системы охлаждения (если выходит за пределы печатной платы) до планки портов видеовыходов.
В1 — ширина печатной платы, без учета контактов PCI-E, но с замером системы охлаждения (если выходит за пределы печатной платы).
С1 — высота, с учетом задней пластины (если есть)/винтов крепления радиатора до уровня верхней поверхности системы охлаждения. Если она ниже высоты задней планки портов видеовыходов, то измеряется высота до верхней точки планки.

реклама

На первый взгляд — обыкновенная плата производства Gigabyte с фамильными узнаваемыми очертаниями. На задней панели расположены стандартные видеовыходы: пара DVI, HDMI и DP. В отличие от модели референсного дизайна используется горизонтальное расположение разъемов питания, на этом все различия и заканчиваются.

Ниже печатная плата будет рассмотрена более подробно, но пока я не вижу значимых изменений по сравнению с оригинальной видеокартой NVIDIA GeForce GTX 680. Хотя нет, мне удалось найти еще одно малозаметное отличие — на задней панели нет отверстий между HDMI и DVI, которые обычно встречаются на референсной карте.

Печатная плата

Сверху пока незаметно, но в данном случае применен штатный дизайн GTX 680, который рекомендует использовать сама NVIDIA. Причин здесь несколько. Во-первых, большая экономия времени и денег. Нет надобности загружать инженеров созданием эксклюзивной печатной платы. Нет необходимости проводить специфические тесты на совместимость, электромагнитные излучения и многие другие замеры. Не надо тратить драгоценное время, упуская выгоду вступить первыми в конкурентный бой.

К сожалению, не обошлось и без минусов. Если вы помните, в NVIDIA, руководствуясь собственными размышлениями и общим ограничением максимального TDP, создали плату лишь с четырьмя фазами питания GPU. На взгляд профессионального оверклокера этого явно мало, но я уверен, что для среднего разгона хватит и их. К тому же на рынке присутствует масса оригинальных моделей и, в конце концов, если вы противник референсных карт, то можете сами подобрать себе версию под свои запросы. Я не вижу большой проблемы в сокращении количества фаз, поскольку от ограничения по энергопотреблению никуда не деться, да и референсный вариант всегда будет совместим с массой программ для разгона. Как итог, плюсы немного, но перевешивают минусы.

После снятия системы охлаждения перед нами открывается истинный формат карты. На Gigabyte GV-N680OC-2GD две фазы питания памяти расположены сверху печатной платы. Вопреки привычному ранее разделению питания на MEM и PLL, инженеры NVIDIA не выделяют отдельный ШИМ-контроллер, используя комбинированное питание. Совсем необычно размещены фазы питания GPU. Если раньше фазы вытягивались вертикально в ряд, то теперь они расположены горизонтально. Чем обусловлено такое изменение, сказать сложно, но разработчикам и инженерам должно быть виднее. Помимо этого можно отметить тот факт, что в версии Gigabyte распаяно все пять доступных фаз.

ШИМ-контроллер питания памяти покрыт тайной под семью печатями. Причем по невразумительной маркировке истинного производителя не выяснить.

ШИМ-контроллер питания видеоядра – Richtek RT8802A, он поддерживает управление до пяти фаз. В списке совместимости значится протокол связи между программой и VID-значениями напряжений, что открывает пользователю доступ к изменениям напряжений как памяти, так и графического процессора.

Графический процессор GK104 площадью

294 мм 2 размещен на текстолитовой подложке на 6 неделе 2012 года. Вместо привычной цельной пластины кремниевый кристалл по периметру защищен металлической рамкой. Финальная формулировка фаз питания звучит так: 5+2+1 (GPU/MEM/PLL).

реклама

На плате распаяно восемь микросхем памяти с шиной обмена данными в 256 бит и плотностью 2 Гбита производства Hynix. Они маркированы как H5GQ2H24MFR-R0C и рассчитаны на частоту до 1500 МГц (эффективная частота 6000 МГц).

Штатные частоты Gigabyte GV-N680OC-2GD составляют соответственно 1071 МГц (Turbo Boost до 1137 МГц) и 1502 МГц для графического процессора и памяти.

Заявленная производителем частота совпадает с реальной. Вопрос только в том, удержится ли она на этой планке в стресс-тесте Furmark. В играх все просто, зачастую Boost частота вовсе не означает максимальную, чаще диапазон составляет от 1137 МГц до 1150 МГц.

Читайте также:  Можно ли посмотреть удаленные фото на айфоне

Система охлаждения

реклама

Одновременно с этим я поражен сложностью конструкции, что является редкостью. Объяснение простое. Чем больше составных частей содержится в устройстве, тем сложнее собирать систему в единое целое и тем больше требуется рук или манипуляторов. Большое количество операций влечет за собой увеличение как стоимости, так и сборки, и самой конструкции. Но Gigabyte все же решилась и пошла на усложнение ради одной-единственной цели – максимально улучшить эффективность системы охлаждения.

Сверху установлен крупный кожух с тремя вентиляторами, состоящий из одной монолитной части. Три модели 75 мм в диаметре закреплены на пластиковых обоймах, вмонтированных в кожух. Наплывы по его поверхности создают ламинарные потоки, проходящие точно на ребра радиатора. Такая конструкция, по мнению инженеров, полностью избавила систему охлаждения от турбулентных потоков.

реклама

1800-1900 об/мин. Между кожухом и платой разместился основной радиатор, но о нем чуть позже.

Дополнительный радиатор, установленный на VRM, ничтожно мал, поскольку высоту ребер нельзя нарастить из-за отсутствия места. Но так как большая часть воздушного потока при высоких оборотах вентиляторов полностью достигает его поверхности, то и беспокоиться за его эффективность не стоит.

Под кожухом находится крупный радиатор, вытянутый на всю длину карты. В основании радиатора размещена медная вставка, спаянная с тепловыми трубками.

‘> ✔2 Гб ✔PCI Express 3.0 16x ✔GDDR5 ✔DisplayPort, DVI-D, DVI-I, HDMI ✔Поддержка SLI ✔GeForce® GTX 680 ✔256 бит ✔Triangle Cool
Видеокарты с видеопамятью 2 Гб Артикул: #137166 Сравнить ® GTX 680 2 Гб GDDR5"> Назад Вперед

Подобрать замену

Купить в магазине:

Заказать с доставкой:

Поступление в продажу не ожидается, как правило это состояние товара означает, что он снят с производства.

  • Характеристики
  • Видео
  • Опции и расходники
  • Примеры фотографий
  • Отзывы (нет)
  • Оставить отзыв
  • Тесты
  • Информация

Характеристики

Основные характеристики
Производитель GIGABYTE
Модель GV-N680OC-2GD найти похожую видеокарту
Тип оборудования Игровая видеокарта
Поддержка API DirectX 11, OpenGL 4.x
Длина 274 мм
Технологии TXAA (временное сглаживание), GPU Boost (динамическое изменение тактовой частоты процессора), Adaptive V-Sync (адаптивная вертикальная синхронизация), DSR (динамическое суперразрешение)
Поддержка ОС Windows XP x64, Windows XP, Windows Vista, Windows 7, Windows 8
Видео
RAMDAC 400 МГц
Максимальное разрешение экрана 2560 x 1600 при подключении к разъемам DVI, DisplayPort или HDMI, 2048 x 1536 (при подключении аналогового монитора)
Поддержка SLI Возможно объединение карт при помощи Tri-SLI, SLI
Макс. кол-во подключаемых мониторов 4, с возможностью объединения до 3 дисплеев в 3D Vision Surround
Конфигурация видеокарты
GPU GeForce® GTX 680
Частота GPU 1071 МГц
Кол-во шейдерных процессоров 1536
Видеопамять 2 Гб
Тип видеопамяти GDDR5
Разрядность шины видеопамяти 256 бит
Частота видеопамяти 1502 МГц (6.008 ГГц QDR)
Кол-во пиксельных конвейеров 128, 32 блока выборки текстур
Конфигурация
Техпроцесс 28 нм
Интерфейс, разъемы и выходы
Интерфейс PCI Express 3.0 16x (совместим с PCI Express 2.x/1.х) с возможностью объединения карт при помощи SLI.
Поддержка HDCP Есть (1080p)
Порты DisplayPort, DVI-D, DVI-I, HDMI порты
Прочие характеристики
Поддержка PhysX Есть
Поддержка вычислений общего назначения на GPU DirectCompute 11, NVIDIA PhysX, CUDA, CUDA C++, OpenCL
Охлаждение
Охлаждение видеокарты Активное охлаждение (радиатор + 3 вентилятора Triangle Cool на лицевой стороне платы)
Название системы охлаждения Triangle Cool
Управление скоростью вентилятора видеокарты Автоматическое
Конструкция системы охлаждения Двухслотовая система охлаждения
Питание
Потребление энергии 195 Вт
Совместимость
Разъем питания 8 pin+6 pin подходящие переходники питания
Требования к системе (рекомендуемые) Блок питания мощностью 550 Вт
Низкопрофильная плата Нет
Логистика
Размеры упаковки (измерено в НИКСе) 40.5 x 23.5 x 9.3 см
Вес брутто (измерено в НИКСе) 1.429 кг
Размеры упаковки по дальномеру (измерено в НИКСе) 40.5 x 23.5 x 9.3 см
Вес брутто по весам (измерено в НИКСе) 1.429 кг

Отзывы

Мы старались сделать описание как можно более хорошим, чтобы ваш выбор был безошибочным и осознанным, но т.к. мы, возможно, этот товар не эксплуатировали, а только со всех сторон пощупали, а вы его после того, как купите, испробуете в работе, ваш отзыв может сделать этот мир лучше, если ваш отзыв действительно будет полезным, то мы его опубликуем и дадим вам возможность следующую покупку у нас сделать по 2-й колонке.

Сравнение производительности и результаты тестов

Чтобы вы могли оценить производительность выбранного товара (пока еще не побывавшего в нашей тестовой лаборатории, но мы над этим работаем), на диаграмме приведены результаты тестов для 10 товаров, схожих по цене с выбранным. Показатели в процентах указывают на приближение к макcимальному из зарегистрированных результатов.

Для сравнений используются только товары, которые сейчас есть в наличии.

Содержание

Казалось бы, Geforce GTX 680 уже предстал во всей красе; изучили самые разнообразные карты на его основе: и частотами манипулировали, как могли, и системы охлаждения ставили всевозможных калибров и видов, и PCB какие только ни попадались. Вот только лишь никто пока не ставил ядро на оборотную сторону: вероятно смущало, что СО упрется в кулер системного чипсета или даже в кулер CPU. Что еще осталось?

А осталось лишь увеличивать объем памяти на карте. Было 2 гигабайта, теперь будет 4. Зачем? Ну чтобы было, ведь еще много пользователей, уверенных, что чем больше памяти на ускорителе, тем он производительнее. 🙂 Поэтому мы можем видеть сейчас объем памяти в 2 гигабайта даже на картах уровня GT 640, где не востребуется даже 1 гигабайт, так как производительность такова, что карта может демонстрировать сносную играбельность только в очень низких разрешениях, да и то при настройках качества в играх среднего или низкого уровней. А вот на GTX 680 маловат ли объем памяти в 2 гигабайта? Может быть всем пора переходить на 4?

Исследования показали, что разница в производительности минимальна. Да, пока всем играм вполне хватает 2 гигабайт памяти даже если настройки выставлены на максимальное качество. Лишь иногда мы можем видеть, что желателен объем памяти чуть выше 2 гигабайт. Так что вполне резонно думать, что новый продукт Gigabyte — это маркетинговое решение, продиктованное расширением ассортимента и привлечением потребителя оригинальным дизайном ускорителя. Однако давайте рассмотрим всё по порядку.

Читайте также:  Вычисление определенного интеграла методом трапеций

Плата

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)
  • GPU: Geforce GTX 680 (GK104)
  • Интерфейс: PCI Express x16
  • Частота работы GPU (ROPs): 1070—1170 МГц (номинал — 1000—1100 МГц)
  • Частота работы памяти (физическая (эффективная)): 1500 (6000) МГц (номинал — 1500 (6000) МГц)
  • Ширина шины обмена с памятью: 256 бит
  • Число вычислительных блоков в GPU/частота работы блоков: 8/1070—1170 МГц (номинал — 8/1000—1100 МГц)
  • Число операций (ALU) в блоке: 192
  • Суммарное число операций (ALU): 1536
  • Число блоков текстурирования: 128 (BLF/TLF/ANIS)
  • Число блоков растеризации (ROP): 32
  • Размеры: 285×110×45 мм (карта занимает 3 слота в системном блоке)
  • Цвет текстолита: синий
  • Энергопотребление (пиковое в 3D/в режиме 2D/в режиме «сна»): 210—225/82/61 Вт
  • Выходные гнезда: 1×DVI (Dual-Link/HDMI), 1×DVI (Single-Link/VGA), 1×HDMI 1.4a, 1×DisplayPort 1.2
  • Поддержка многопроцессорной работы: SLI (Hardware)

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)

Карта имеет 4096 МБ памяти GDDR5 SDRAM, размещенной в 16 микросхемах (по 8 на каждой сторонe PCB).

Микросхемы памяти Samsung (GDDR5). Микросхемы рассчитаны на максимальную частоту работы в 1500 (6000) МГц.

Сравнение с эталонным дизайном, вид спереди
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) Reference card Nvidia Geforce GTX 680

Сравнение с эталонным дизайном, вид сзади
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) Reference card Nvidia Geforce GTX 680

Даже не надо упоминать о том, что дизайн карты — собственной разработки инженеров Gigabyte. Мы видим обновленную PCB, которая имеет не 8, а 16 посадочных гнезд под микросхемы памяти, схема питания ядра стала шестифазной, а для микросхем памяти предусмотрено 2 фазы. Из-за увеличенного энергопотребления дополнительное питание подается теперь через 8-контактный и 6-контактный разъемы, которые, кстати, получили стандартное продольное расположение (а не ужасное «двухэтажное», которое неприятно для тестеров: все пальцы сломать можно, пока отключишь замки на разъемах и вытащишь «хвосты» от БП).

Видеокарта в качестве основы имеет фирменную печатную плату Durable с большим количеством медных слоев, поэтому PCB нагревается не так сильно, как обычный референс.

Ускоритель имеет стандартный для GTX 670/680 набор гнезд вывода: 2 DVI (один из которых Single-Link и совместим с выводом на VGA) и по одному DisplayPort и HDMI (второе гнездо DVI обладает возможностью через адаптер передавать сигнал на HDMI, поэтому суммарно можно подключить 2 приемника с HDMI). Напомним, что ускорители Nvidia достаточно давно обладают собственными звуковыми кодеками, поэтому передача на HDMI-монитор будет полноценной, со звуком.

Максимальные разрешения и частоты:

  • 240 Гц — максимальная частота обновления;
  • 2048×1536@85 Гц — по аналоговому интерфейсу;
  • 2560×1600@60 Гц — по цифровому интерфейсу (для DVI-гнезд с Dual-Link/HDMI).

Из-за улучшенной организации схемы питания, а также переделанной PCB ускоритель может работать на весьма высоких частотах (во всяком случае, 1300 МГц по ядру данная карта выдержала на отлично, не потеряв стабильности в работе).

Что касается возможностей по ускорению декодирования видео — в 2007 году мы проводили такое исследование, с ним можно ознакомиться здесь.

О системе охлаждения.

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)

Данное устройство охлаждения представляет собой развитие серии особых кулеров Gigabyte (мы не знаем, разработка ли это конструкторов самой компании или же Gigabyte где-то заказывает такие устройства, но факт остается фактом, что всякий раз, когда мы сталкиваемся с их СО, то получаем только положительные ощущения).

СО состоит из двух толстых радиаторов, соединенных меж собой тремя тепловыми трубками, проходящими прямо через подошву и соприкасающимися непосредственно с ядром GPU. Тепловые трубки разносят тепло по периферийным пластинам. Микросхемы памяти на лицевой стороне также охлаждаются. К сожалению, странно выглядят микросхемы на оборотной стороне без какого-либо охлаждения (какой смысл тогда вообще охлаждать? Уж или охлаждать все микросхемы, или ни одной). Силовые транзисторы БП имеют свой собственный маленький радиатор охлаждения.

Сверху все это накрыто кожухом с тремя вентиляторами. Максимальные обороты вращения вентиляторов, обдувающих эти радиаторы, составляют 2400 оборотов в минуту. Это уже несколько заметно в плане шума, однако все же уровень шума не критичный — из-за особой конструкции лопастей вентиляторов. В режиме работы в 2D частота вращения не превышает 1500 оборотов в минуту (кулер при этом практически бесшумен).

Мы провели исследование температурного режима с помощью утилиты EVGA PrecisionX (автор А. Николайчук AKA Unwinder) и получили следующие результаты:

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)

После 6-часового тестирования под нагрузкой нагрев не поднялся выше 70 градусов — и это великолепный результат для GPU такого класса, особенно если учитывать повышенные частоты работы.

Теперь о комплектации.

Базовый комплект поставки должен включать в себя: руководство пользователя, диск с драйверами и утилитами.

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)
Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)

Установка и драйверы

Конфигурация тестового стенда:

  • Компьютеры на базе процессора Intel Core i7-3960X (Socket 2011):
  • 2 процессорa Intel Core i7-3960X (o/c 4 ГГц);
  • системная плата Asus Sabertooth X79 на чипсете Intel X79;
  • системная плата MSI X79A-GD45(8D) на чипсете Intel X79;
  • оперативная память 2×8 ГБ DDR3 SDRAM Corsair 1866 МГц;
  • жесткий диск Seagate Barracuda 7200.14 3 ТБ SATA2;
  • жесткий диск WD Caviar Blue WD10EZEX 1 TБ SATA2;
  • 2 блокa питания Enermax Platimax 1200 Вт.
  • операционная система Windows 7 64-битная; DirectX 11;
  • монитор Dell UltraSharp U3011 (30″);
  • драйверы AMD версии Catalyst 12.11beta; Nvidia версии 310.54
  • Результаты тестов: сравнение производительности

    В качестве инструментария мы использовали:

      Hard Reset (Flying Wild Hog) — DirectX 11.0, для тестирования использовался встроенный в игру бенчмарк, все настройки выставлены на максимальное качество.
      Благодарим компанию Nvidia за предоставление лицензионного продукта.

    Читайте также:  Чем отличается мобильный от сотового телефона

    Total War: Shogun 2 (Creavive Assembly/SEGA) — DirectX 11.0, для тестирования использовался встроенный в игру бенчмарк, все настройки выставлены на максимальное качество.
    Благодарим компанию Nvidia за предоставление лицензионного продукта.

    3DMark’11 (FutureMark) — DirectX 11.0, настройки тестирования — Performance.

    Aliens vs. Predator (2010) (Rebellion/SEGA), DirectX 11.0, настройки тестирования — Very High (запуск бенчмарка из меню).

    Nexuiz (2012) (IllFonic/THQ) — DirectX 11.0, для тестирования использовался встроенный в игру бенчмарк, все настройки выставлены на максимальное качество.

    Crysis 2 Maximum (Crytek/EA), DirectX 11.0, настройки тестирования — Very High, используется уровень Central Park. Бенчмарк запускался с помощью утилиты Adrenaline Crysis 2 Benchmark Tool.

    Formula 1 (2010) (Codemasters) — DirectX 11.0, настройки тестирования — Ultra High (запуск бенчмарка: formulaone.exe -benchmark example_benchmark.xml).
    Благодарим компанию Nvidia за предоставление лицензионного продукта.

    Unigine Heaven Benchmark 2.0 (Unigine) — DirectX 11.0, скачать здесь, настройки тестирования — High.
    Хотим отдельно поблагодарить коллектив компании Unigine и лично Александра Запрягаева за помощь в настройках работы бенчмарка.

    DiRT Showdown (Codemasters) — DirectX 11.0, настройки тестирования — Ultra High (запуск бенчмарка: dirt showdown.exe -benchmark example_benchmark.xml).
    Благодарим компанию AMD за предоставление лицензионного продукта.

    Metro 2033 (4A Games/THQ) — DirectX 11.0, настройки тестирования — Super High, PhysX отключен (запуск бенчмарка в самой игре в виде отдельного файла).
    Благодарим компанию Nvidia за предоставление лицензионного продукта.

    Sleeping Dogs (United Front Games/Square Enix) — DirectX 11.0, для тестирования использовался встроенный в игру бенчмарк, все настройки выставлены на максимальное качество.

    Все наши пояснения направлены, как правило, на новичков или неопытных пользователей, желающих, однако, произвести апгрейд своего компьютера или просто собрать новый.

    Тем, кто вообще не понимает, что́ такое ядро, почему в нем столько процессоров, что́ такое потоки и прочее, имеет смысл ознакомиться с нашими краткими справочниками по семействам современных видеокарт и процессоров, на основе которых они выпускаются. Следует отметить частоты работы, поддержку современных технологий (шейдеры), а также конвейерную архитектуру.

    А теперь посмотрим на тесты.

    Выводы

    Начнем с анализа Рейтинга ускорителей iXBT.com, который демонстрирует нам функциональность видеокарт друг относительно друга и нормирован по самому слабому ускорителю — Geforce GT 630 (то есть сочетание скорости и функций GT 630 приняты за 100%). Приведем выборку из этого рейтинга.

    Рейтинг 3D-ускорителей iXBT.com

    Название ускорителя Рейтинг iXBT.com Рейтинг полез. Цена
    04 HD 7970 3072 МБ, 1180/1180/6000 890 182 490
    05 GTX 680 4096 МБ, 1071—1200/6000 840 147 570
    06 HD 7970 GHz 3072 МБ, 1050/1050/6000 790 161 490
    07 GTX 670 2048 МБ, o/c 1100—1200/6600 790 185 426
    08 GTX 680 2048 МБ, 1000—1100/6000 780 142 548
    09 GTX 670 2048 МБ, 915—1030/6000 740 174 426
    10 HD 7970 3072 МБ, 925/925/5500 720 153 470
    11 HD 7950 3072 МБ, o/c 925/925/5500 700 197 356

    Рассматриваемый сегодня ускоритель находится на втором месте наших рейтингов, отстав лишь от абсолютного лидера однопроцессорных ускорителей — Radeon HD 7970X компании HIS, который мы не так давно изучали.

    Теперь посмотрим Рейтинг полезности тех же карт (показатели предыдущего рейтинга делятся на цены соответствующих ускорителей):

    Рейтинг полезности (возможности/цена)

    Название ускорителя Рейтинг полез. Рейтинг iXBT.com Цена
    16 HD 7950 3072 МБ, o/c 925/925/5500 197 700 356
    21 GTX 670 2048 МБ, o/c 1100—1200/6600 185 790 426
    22 HD 7970 3072 МБ, 1180/1180/6000 182 890 490
    25 GTX 670 2048 МБ, 915—1030/6000 174 740 426
    29 HD 7970 GHz 3072 МБ, 1050/1050/6000 161 790 490
    30 HD 7970 3072 МБ, 925/925/5500 153 720 470
    31 GTX 680 4096 МБ, 1071—1200/6000 147 840 570
    32 GTX 680 2048 МБ, 1000—1100/6000 142 780 548

    А вот тут картина не очень приятная. Да, пока цены на GTX 680 в целом (и на этот вариант в исполнении Gigabyte в частности) чрезмерно велики, что явно не идет на пользу таким продуктам. Однако цены имеют свойство постоянно меняться, так что надо следить за ними, а также за нашими выпусками i3D Speed, где ежемесячно можно увидеть обновления рейтингов.

    Теперь по самой карте.

    Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD) — как всегда, отлично выполненный компанией Gigabyte вариант Geforce GTX 680. Ускоритель имеет много плюсов в плане оверклокинга, реально может стать удачной покупкой для энтузиастов (если их не смутит цена). Следует учитывать, что акселератор займет 3 слота в системном блоке, да и длина карты весьма приличная — 285 мм. Что касается интересующего многих вопроса, нужны ли 4 гигабайта на борту, то ответ: пока не нужны. На приведенных выше диаграммах данный ускоритель обошел по производительности референс GTX 680 исключительно из-за более высоких частот работы. На диаграммах нет показателей работы этой же карты на штатных частотах, но поверьте, мы исследовали этот вопрос, и разница по скорости между GTX 680 с 2 и 4 ГБ составила менее 2% в среднем. Только в паре игр в разрешении 2560×1600 ускоритель с 4 гигабайтами показал отрыв в 5%, но на минимальном уровне играбельности. В целом пока такой объем памяти не востребован, и даже там, где 2 ГБ не хватает, 3 ГБ, как у Radeon HD 79xx, очевидно хватило бы с лихваой. А 4 ГБ — это на сегодня просто популярный маркетинговый прием. Подчеркну: на сегодня, на начало декабря 2012-го. Быть может, через год или два тот, кто будет читать этот материал, усмехнется — ему уже и трех гигабайт будет маловато 🙂

    Окончательное решение традиционно остается за нашими читателями. Мы лишь даем информацию о рассмотренных продуктах, но не делаем прямых указаний по выбору того или иного изделия.

    В номинации «Оригинальный дизайн» (за декабрь 2012 года) получила награду карта: