Видеокарты компаний NVIDIA и AMD

Один из компонентов компьютера, от которого требуется наибольшая производительность, это графический контроллер, являющийся сердцем всех мультимедиа систем. Фраза «требуется производительность» означает, что некоторые вещи происходят настолько быстро, насколько это обеспечивается пропускной способностью. Пропускная способность обычно измеряется в мегабайтах в секунду и показывает скорость, с которой происходит обмен данными между видеопамятью и графическим контроллером.

Современные видеокарты не ограничиваются простым выводом изображения, они имеют встроенный графический процессор, который может производить дополнительную обработку, снимая эту задачу с центрального процессора компьютера. Например, все современные видеокарты NVIDIA и AMD (ATi) осуществляют рендеринг графического конвейера OpenGL и DirectX на аппаратном уровне. В последнее время также имеет место тенденция использовать вычислительные возможности графического процессора для решения неграфических задач.




Видеокарты постоянно улучшаются и дорабатываются. Производители создают всё новые и новые модели, более мощные, чем старые. Требования современных программ и компьютерных игр точно так же повышаются, и для нормальной их работы требуется постоянное обновление всех частей компьютера, в частности и видеокарт. Отсюда возникает вопрос, какие видеокарты и от какого производителя лучше для конкретных целей пользователя компьютера.

  1. История видеокарт

Одним из первых графических адаптеров для IBM PC стал MDA (Monochrome Display Adapter) в 1981 году. Он работал только в текстовом режиме с разрешением 80Ч25 символов (физически 720Ч350 точек) и поддерживал пять атрибутов текста: обычный, яркий, инверсный, подчёркнутый и мигающий. Никакой цветовой или графической информации он передавать не мог, и то, какого цвета будут буквы, определялось моделью использовавшегося монитора. Обычно они были чёрно-белыми, янтарными или изумрудными. Фирма Hercules в 1982 году выпустила дальнейшее развитие адаптера MDA, видеоадаптер HGC (Hercules Graphics Controller — графический адаптер Геркулес), который имел графическое разрешение 720Ч348 точек и поддерживал две графические страницы. Но он всё ещё не позволял работать с цветом. Первой цветной видеокартой стала CGA (Color Graphics Adapter), выпущенная IBM и ставшая основой для последующих стандартов видеокарт. Она могла работать либо в текстовом режиме с разрешениями 40Ч25 и 80Ч25 (матрица символа — 8Ч8), либо в графическом с разрешениями 320Ч200 или 640Ч200. В текстовых режимах доступно 256 атрибутов символа — 16 цветов символа и 16 цветов фона (либо 8 цветов фона и атрибут мигания), в графическом режиме 320Ч200 было доступно четыре палитры по четыре цвета каждая, режим высокого разрешения 640Ч200 был монохромным. В развитие этой карты появился EGA (Enhanced Graphics Adapter) — улучшенный графический адаптер, с расширенной до 64 цветов палитрой, и промежуточным буфером. Было улучшено разрешение до 640Ч350, в результате добавился текстовый режим 80Ч43 при матрице символа 8Ч8. Для режима 80Ч25 использовалась большая матрица — 8Ч14, одновременно можно было использовать 16 цветов, цветовая палитра была расширена до 64 цветов. Графический режим также позволял использовать при разрешении 640Ч350 16 цветов из палитры в 64 цвета. Был совместим с CGA и MDA.

Стоит заметить, что интерфейсы с монитором всех этих типов видеоадаптеров были цифровые, MDA и HGC передавали только светится или не светится точка и дополнительный сигнал яркости для атрибута текста «яркий», аналогично CGA по трём каналам (красный, зелёный, синий) передавал основной видеосигнал, и мог дополнительно передавать сигнал яркости (всего получалось 16 цветов), EGA имел по две линии передачи на каждый из основных цветов, то есть каждый основной цвет мог отображаться с полной яркостью, 2/3 или 1/3 от полной яркости, что и давало в сумме максимум 64 цвета. В ранних моделях компьютеров от IBM PS/2, появляется новый графический адаптер MCGA (Multicolor Graphics Adapter — многоцветный графический адаптер). Текстовое разрешение было поднято до 640×400, что позволило использовать режим 80×50 при матрице 8×8, а для режима 80×25 использовать матрицу 8×16. Количество цветов увеличено до 262144 (64 уровня яркости по каждому цвету), для совместимости с EGA в текстовых режимах была введена таблица цветов, через которую выполнялось преобразование 64-цветного пространства EGA в цветовое пространство MCGA. Появился режим 320x200x256, где каждый пиксел на экране кодировался соответствующим байтом в видеопамяти, никаких битовых плоскостей не было, соответственно с EGA осталась совместимость только по текстовым режимам, совместимость с CGA была полная. Из-за огромного количества яркостей основных цветов возникла необходимость использования уже аналогового цветового сигнала, частота строчной развертки составляла уже 31,5 KГц.

Потом IBM пошла ещё дальше и сделала VGA (Video Graphics Array — графический видео массив), это расширение MCGA, совместимое с EGA и введённое в средних моделях PS/2. Это фактический стандарт видеоадаптера с конца 80-х годов. Добавлены текстовое разрешение 720×400 для эмуляции MDA и графический режим 640×480, с доступом через битовые плоскости. Режим 640×480 замечателен тем, что в нём используется квадратный пиксел, то есть соотношение числа пикселов по горизонтали и вертикали совпадает со стандартным соотношением сторон экрана — 4:3. Дальше появился IBM 8514/a с разрешениями 640x480x256 и 1024x768x256, и IBM XGA с текстовым режимом 132×25 (1056×400) и увеличенной глубиной цвета (640x480x65K).

С 1991 года появилось понятие SVGA (Super VGA — «сверх» VGA) — расширение VGA с добавлением более высоких режимов и дополнительного сервиса, например возможности поставить произвольную частоту кадров. Число одновременно отображаемых цветов увеличивается до 65 536 (High Color, 16 бит) и 16 777 216 (True Color, 24 бита), появляются дополнительные текстовые режимы. Из сервисных функций появляется поддержка VBE (VESA BIOS Extention — расширение BIOS стандарта VESA). SVGA воспринимается как фактический стандарт видеоадаптера где-то с середины 1992 года, после принятия ассоциацией VESA стандарта VBE версии 1.0. До того момента практически все видеоадаптеры SVGA были несовместимы между собой.




Графический пользовательский интерфейс, появившийся во многих операционных системах, стимулировал новый этап развития видеоадаптеров. Появляется понятие «графический ускоритель» (graphics accelerator). Это видеоадаптеры, которые производят выполнение некоторых графических функций на аппаратном уровне. К числу этих функций относятся, перемещение больших блоков изображения из одного участка экрана в другой (например при перемещении окна), заливка участков изображения, рисование линий, дуг, шрифтов, поддержка аппаратного курсора и т. п. Прямым толчком к развитию столь специализированного устройства явилось то, что графический пользовательский интерфейс несомненно удобен, но его использование требует от центрального процессора немалых вычислительных ресурсов, и современный графический ускоритель как раз и призван снять с него львиную долю вычислений по окончательному выводу изображения на экран.

  1. Теоретический раздел
  • Назначение видеокарт

Видеокарта (известна также как графическая плата, графическая карта, видеоадаптер, графический адаптер) (англ. videocard) — устройство, преобразующее графический образ, хранящийся как содержимое памяти компьютера или самого адаптера, в иную форму, предназначенную для дальнейшего вывода на экран монитора. В настоящее время эта функция утратила основное значение и в первую очередь под графическим адаптером понимают устройство с графическим процессором — графический ускоритель, который и занимается формированием самого графического образа.

Обычно видеокарта является платой расширения и вставляется в разъём расширения, универсальный (PCI-Express, PCI, ISA, VLB, EISA, MCA) или специализированный (AGP), но бывает и встроенной (интегрированной) в системную плату (как в виде отдельного чипа, так и в качестве составляющей части северного моста чипсета или ЦПУ).

  • Устройство видеокарт

Современная видеокарта состоит из следующих частей:

1) графический процессор (Graphics processing unit — графическое процессорное устройство) — занимается расчётами выводимого изображения, освобождая от этой обязанности центральный процессор, производит расчёты для обработки команд трёхмерной графики. Является основой графической платы, именно от него зависят быстродействие и возможности всего устройства. Современные графические процессоры по сложности мало чем уступают центральному процессору компьютера, и зачастую превосходят его как по числу транзисторов, так и по вычислительной мощности, благодаря большому числу универсальных вычислительных блоков.

2) видеоконтроллер — отвечает за формирование изображения в видеопамяти, даёт команды RAMDAC на формирование сигналов развёртки для монитора и осуществляет обработку запросов центрального процессора. Кроме этого, обычно присутствуют контроллер внешней шины данных (например, PCI или AGP), контроллер внутренней шины данных и контроллер видеопамяти. Современные графические адаптеры (ATI, NVidia) обычно имеют не менее двух видеоконтроллеров, работающих независимо друг от друга и управляющих одновременно одним или несколькими дисплеями каждый.

3) видеопамять — выполняет роль кадрового буфера, в котором хранится изображение, генерируемое и постоянно изменяемое графическим процессором и выводимое на экран монитора (или нескольких мониторов). В видеопамяти хранятся также промежуточные невидимые на экране элементы изображения и другие данные. Видеопамять бывает нескольких типов, различающихся по скорости доступа и рабочей частоте. Современные видеокарты комплектуются памятью типа DDR, DDR2, GDDR3, GDDR4 и GDDR5. Следует также иметь в виду, что помимо видеопамяти, находящейся на видеокарте, современные графические процессоры обычно используют в своей работе часть общей системной памяти компьютера, прямой доступ к которой организуется драйвером видеоадаптера через шину AGP или PCIE

4) цифро-аналоговый преобразователь (ЦАП, RAMDAC — Random Access Memory Digital-to-Analog Converter) — служит для преобразования изображения, формируемого видеоконтроллером, в уровни интенсивности цвета, подаваемые на аналоговый монитор. Возможный диапазон цветности изображения определяется только параметрами RAMDAC. Чаще всего RAMDAC имеет четыре основных блока — три цифроаналоговых преобразователя, по одному на каждый цветовой канал (красный, зелёный, синий, RGB), и SRAM для хранения данных о гамма-коррекции. Большинство ЦАП имеют разрядность 8 бит на канал — получается по 256 уровней яркости на каждый основной цвет, что в сумме дает 16,7 млн цветов (а за счёт гамма-коррекции есть возможность отображать исходные 16,7 млн цветов в гораздо большее цветовое пространство). Некоторые RAMDAC имеют разрядность по каждому каналу 10 бит (1024 уровня яркости), что позволяет сразу отображать более 1 млрд цветов.

5) видео-ПЗУ (Video ROM) — постоянное запоминающее устройство, в которое записаны видео-BIOS, экранные шрифты, служебные таблицы и т. п. ПЗУ не используется видеоконтроллером напрямую — к нему обращается только центральный процессор. Хранящийся в ПЗУ видео-BIOS обеспечивает инициализацию и работу видеокарты до загрузки основной операционной системы, а также содержит системные данные, которые могут читаться и интерпретироваться видео-драйвером в процессе работы (в зависимости от применяемого метода разделения ответственности между драйвером и BIOS). На многих современных картах устанавливаются электрически перепрограммируемые ПЗУ (EEPROM, Flash ROM), допускающие перезапись видео-BIOS самим пользователем при помощи специальной программы.

6) система охлаждения — предназначена для сохранения температурного режима видеопроцессора и видеопамяти в допустимых пределах.

Современные графические процессоры отличаются не только высокой производительностью, но и значительным энергопотреблением и, соответственно, большим тепловыделением. Применяемые для борьбы с этим системы охлаждения, как правило, достаточно громоздки и сильно шумят. Впрочем, приятным исключением являются видеокарты GigaByte — у них достаточно эффективное пассивное охлаждение на термотрубках. Главный минус – оно весьма некомпактно.

Самой «горячей» видеокартой оказалась XFX GF 8600GT 620M — при длительной нагрузке графический процессор нагрелся до 83 градусов Цельсия. И это при наличии активной системы охлаждения.

Правильная и полнофункциональная работа современного графического адаптера обеспечивается с помощью видеодрайвера — специального программного обеспечения, поставляемого производителем видеокарты и загружаемого в процессе запуска операционной системы. Видеодрайвер выполняет функции интерфейса между системой с запущенными в ней приложениями и видеоадаптером. Так же как и видео-BIOS, видеодрайвер организует и программно контролирует работу всех частей видеоадаптера через специальные регистры управления, доступ к которым происходит через соответствующую шину.

  • Характеристики видеокарт

Ширина шины памяти, измеряется в битах — количество бит информации, передаваемой за такт. Важный параметр в производительности карты.

Объём видеопамяти, измеряется в мегабайтах — объём собственной оперативной памяти видеокарты. Больший объём далеко не всегда означает большую производительность.

Видеокарты, интегрированные в набор системной логики материнской платы или являющиеся частью ЦПУ, обычно не имеют собственной видеопамяти и используют для своих нужд часть оперативной памяти компьютера (UMA — Unified Memory Access).

Частоты ядра и памяти — измеряются в мегагерцах, чем больше, тем быстрее видеокарта будет обрабатывать информацию.

Текстурная и пиксельная скорость заполнения, измеряется в млн. пикселов в секунду, показывает количество выводимой информации в единицу времени. Выводы карты — видеоадаптеры MDA, Hercules, CGA и EGA оснащались 9-контактным разьемом типа D-Sub. Изредка также присутствовал коаксиальный разьем Composite Video, позволяющий вывести черно-белое изображение на телевизионный приемник или монитор, оснащенный НЧ-видеовходом. Видеоадаптеры VGA и более поздние обычно имели всего один разъём VGA (15-контактный D-Sub). Изредка ранние версии VGA-адаптеров имели также разьем предыдущего поколения (9-контактный) для совместимости со старыми мониторами. Выбор рабочего выхода задавался переключателями на плате видеоадаптера. В настоящее время платы оснащают разъёмами DVI или HDMI, либо Display Port в количестве от одного до трех. Некоторые видеокарты ATi последнего поколения оснащаются шестью видеовыходами. Порты DVI и HDMI являются эволюционными стадиями развития стандарта передачи видеосигнала, поэтому для соединения устройств с этими типами портов возможно использование переходников. Порт DVI бывает двух разновидностей. DVI-I также включает аналоговые сигналы, позволяющие подключить монитор через переходник на разьем D-SUB. DVI-D не позволяет этого сделать. Display Port позволяет подключать до четырёх устройств, в том числе акустические системы, USB-концентраторы и иные устройства ввода-вывода. На видеокарте также возможно размещение композитных и S-Video видеовыходов и видеовходов (обозначаются, как ViVo). В современных видеокартах мы можем видеть разъем HDMI

  • Интерфейс

Первое препятствие к повышению быстродействия видеосистемы — это интерфейс передачи данных, к которому подключён видеоадаптер. Как бы ни был быстр процессор видеоадаптера, большая часть его возможностей останется незадействованной, если не будут обеспечены соответствующие каналы обмена информацией между ним, центральным процессором, оперативной памятью компьютера и дополнительными видеоустройствами. Основным каналом передачи данных является, конечно, интерфейсная шина материнской платы, через которую обеспечивается обмен данными с центральным процессором и оперативной памятью. Самой первой шиной использовавшейся в IBM PC была XT-Bus, она имела разрядность 8 бит данных и 20 бит адреса и работала на частоте 4,77 МГц. Далее появилась шина ISA (Industry Standart Architecture — архитектура промышленного стандарта), соответственно она имела разрядность 16/24 бит и работала на частоте 8 МГц. Пиковая пропускная способность составляла чуть больше 5,5 МиБ/с. Этого более чем хватало для отображения текстовой информации и игр с шестнадцатицветной графикой. Дальнейшим рывком явилось появление шины MCA (Micro Channel Architecture) в новой серии компьютеров PS/2 фирмы IBM. Она уже имела разрядность 32/32 бит и пиковую пропускную способность 40 МиБ/с. Но то обстоятельство, что архитектура MCI являлась закрытой (собственностью IBM), побудило остальных производителей искать иные пути увеличения пропускной способности основного канала доступа к видеоадаптеру. И вот, с появлением процессоров серии 486, было предложено использовать для подключения периферийных устройств локальную шину самого процессора, в результате родилась VLB (VESA Local Bus — локальная шина стандарта VESA). Работая на внешней тактовой частоте процессора, которая составляла от 25 МГц до 50 МГц, и имея разрядность 32 бит, шина VLB обеспечивала пиковую пропускную способность около 130 МиБ/с. Этого уже было более чем достаточно для всех существовавших приложений, помимо этого возможность использования её не только для видеоадаптеров, наличие трёх слотов подключения и обеспечение обратной совместимости с ISA (VLB представляет собой просто ещё один 116 контактный разъём за слотом ISA) гарантировали ей достаточно долгую жизнь и поддержку многими производителями чипсетов для материнских плат, и периферийных устройств, даже несмотря на то, что при частотах 40 МГц и 50 МГц обеспечить работу даже двух устройств подключенных к ней представлялось проблематичным из-за чрезмерно высокой нагрузки на каскады центрального процессора (ведь большинство управляющих цепей шло с VLB на процессор напрямую, безо всякой буферизации). И всё-таки, с учётом того, что не только видеоадаптер стал требовать высокую скорость обмена информацией, и явной невозможности подключения к VLB всех устройств (и необходимостью наличия межплатформенного решения, не ограничивающегося только PC), была разработана шина PCI (Periferal Component Interconnect — объединение внешних компонентов) появившаяся, в первую очередь, на материнских платах для процессоров Pentium. С точки зрения производительности на платформе PC всё осталось по-прежнему — при тактовой частоте шины 33 МГц и разрядности 32/32 бит она обеспечивала пиковую пропускную способность 133 МиБ/с — столько же, сколько и VLB. Однако она была удобнее и в конце-концов вытеснила шину VLB и на материнских платах для процессоров класса 486.

С появлением процессоров Intel Pentium II, и серьёзной заявкой PC на принадлежность к рынку высокопроизводительных рабочих станций, а также с появлением 3D-игр со сложной графикой, стало ясно, что пропускной способности PCI в том виде, в каком она существовала на платформе PC (обычно частота 33 МГц и разрядность 32 бит), скоро не хватит на удовлетворение запросов системы. Поэтому фирма Intel решила сделать отдельную шину для графической подсистемы, несколько модернизировала шину PCI, обеспечила новой получившейся шине отдельный доступ к памяти с поддержкой некоторых специфических запросов видеоадаптеров, и назвала это AGP (Accelerated Graphics Port — ускоренный графический порт). Разрядность шины AGP составляет 32 бит, рабочая частота 66 МГц. Первая версия разъема поддерживала режимы передачи данных 1x и 2x, вторая — 4x, третья — 8x. В этих режимах за один такт передаются соответственно одно, два, четыре или восемь 32 — разрядных слов. Версии AGP не всегда были совместимы между собой в связи с использованием различных напряжений питания в разных версиях. Для предотвращения повреждения оборудования использовался ключ в разъеме. Пиковая пропускная способность в режиме 1x — 266 МиБ/с. Выпуск видеоадаптеров на базе шинах PCI и AGP на настоящий момент ничтожно мал, так как шина AGP перестала удовлетворять современным требованиям для мощности новых ПК, и, кроме того, не может обеспечить необходимую мощность питания. Для решения этих проблем создано расширение шины PCI — E — PCI Express версий 1.0, 1.1 и 2.0, это последовательный, в отличие от AGP, интерфейс, его пропускная способность может достигать нескольких десятков ГБ/с. На данный момент произошёл практически полный отказ от шины AGP в пользу PCI Express. Однако стоит отметить, что некоторые производители до сих предлагают достаточно современные по своей конструкции видеоплаты с интерфейсами PCI и AGP — во многих случаях это достаточно простой путь резко повысить производительность морально устаревшего ПК в некоторых графических задачах.

  1. Практический раздел

В современном мире из-за неконкурентоспособности производителей видеокарт, фирмы, которые их выпускают всего две. Это видеокарты компаний NVIDIA GeForce и AMD Radeon. Для сравнений самых последних моделей видеокарт на сегодняшний день для настольных ПК, были выбраны модели – GeForce GTX Titan и Radeon R9 295 X2.

  • GeForce GTX Titan
  • Описание

NVIDIA отошла от своего принципа наименования видеокарт для Titan, но в подобной эксклюзивной модели вполне можно пойти на такой шаг. Единственная исключительная модель получила слово, а не цифры в конце названия, что отличает новинку от всех видеокарт линейки GeForce GTX 600(700). Ускоритель вычислений NVIDIA Tesla K20X также основан на наиболее мощном чипе семейства Kepler, содержащем 2688 вычислительных CUDA-ядер, и вообще — это почти что близнец вышедшей игровой карты на этом же GPU, который применяется в быстрейшем суперкомпьютере мира под названием Titan. Поэтому неудивительно, что NVIDIA решила назвать свою игровую карту GeForce GTX Titan, чтобы рынок ассоциировал их игровые решения с успешными суперкомпьютерными.

На рынке GeForce GTX Titan не заменяет никакую модель видеокарты в линейке компании NVIDIA, а будет сосуществовать с двухчиповой GeForce GTX 690 в самых верхних ее строчках. Модель GTX 690 будет продолжать производиться и продаваться, так как эти две видеокарты друг другу ничуть не мешают — они очень разные. GeForce GTX 690 лучше подходит для одних целей, когда важен максимальный FPS, несмотря на объективные недостатки мультичипового AFR-рендеринга, а Titan лучше подойдет в качестве универсального решения с большим объемом локальной памяти и быстрым к ней доступом, что скажется в сверхвысоких разрешениях. Кроме того, Titan компактнее и требует меньше энергии, поэтому подойдет для большего количества систем, а еще он тише и предлагает дополнительные возможности вроде GPU Boost 2.0 и полноскоростных вычислений с двойной точностью.

В отличие от предыдущих быстрейших видеокарт на базе одного GPU компании NVIDIA последнего поколения, Titan сделан на базе чипа GK110 и имеет 384-битную шину памяти. Поэтому объем установленной на нее видеопамяти теоретически мог быть равен 3 или 6 ГБ. В случае столь дорогой и элитной модели установка 6 ГБ памяти совершенно оправдана, хотя из практических соображений было бы вполне достаточно и 3 ГБ. Но ведь это ровно как у лучших моделей конкурента, ставить с которыми Titan на одну полку NVIDIA явно не хочет. Ну и для серьезных вычислений объем в 6 ГБ может быть вполне актуальным. Так что даже в условиях самых требовательных приложений и максимальных настроек качества с полноэкранным сглаживанием любого уровня видеопамяти у Titan всегда хватит.

  • Конструкция и система охлаждения

Длина платы GeForce GTX Titan — 10,5 дюймов (267 мм), для питания она использует один 8-контактный и один 6-контактный разъемы от блока питания. Для вывода изображения используется стандартный набор из двух разъемов Dual-Link DVI, одного HDMI и одного разъема DisplayPort.

Дизайн корпуса GeForce GTX Titan схож с дизайном другой топовой видеокарты NVIDIA — GeForce GTX 680. Выглядит плата в целом очень солидно, и качество сборки и материалов на уровне. Понятно, что для премиум-сегмента принято использовать соответствующие материалы, и инженеры NVIDIA решили накрыть конструкцию «Титана» алюминиевой крышкой. В центре крышки есть прозрачное пластиковое окно, открывающее пытливому взору чудесный вид на испарительную камеру и двухслотовый алюминиевый радиатор, участвующий в охлаждении чипа GK110.

Логотип GeForce GTX на боковом торце видеокарты имеет светодиодную подсветку. Она служит также индикатором включения, а интенсивность подсветки светодиодами можно отрегулировать вручную, используя специальное ПО от партнеров NVIDIA. Можно даже настроить светодиоды так, чтобы интенсивность их свечения изменялась в зависимости от нагрузки на GPU.

Так как GeForce GTX Titan спроектирован и предназначен для энтузиастов и любителей выжать из системы все до последнего, это не могло не сказаться на некоторых технических решениях, примененных в конструкции. Сам чип GK110 снабжает энергией 6-фазная схема питания с защитой от перенапряжения, а дополнительная схема с двумя фазами используется для питания GDDR5 видеопамяти. 6+2-фазная схема обеспечивает плату питанием даже с учетом возможного разгона, процесс которого стал еще легче благодаря возможности повышения напряжения (читайте об этом ниже). К слову, сама NVIDIA уверяет, что при стандартном охлаждении для графического процессора возможно достижение тактовой частоты выше 1 ГГц.

Для своей новой видеокарты высшего класса инженеры NVIDIA разработали новую систему охлаждения, которая отличается высокой эффективностью. В кулере используется технология испарительной камеры, которая отлично рассеивает тепло, были увеличены ребра радиатора, а также в очередной раз улучшена схема управления вентилятором, изменяющая рабочее напряжение и частоту его вращения для достижения оптимального сочетания акустического и температурного режимов.

 

Медная испарительная камера в кулере GeForce GTX Titan работает как тепловая трубка, но она более мощная и эффективная. Кроме того, для улучшения работы камеры используется новый материал термоинтерфейса от компании Shin-Etsu, который обеспечивает двукратное преимущество перед тем, что применялся ранее в GeForce GTX 680. В результате, новая испарительная камера и термоинтерфейс позволяют отводить больше тепла от GK110, давая возможность работы на более высокой тактовой частоте.

Тепло от испарительной камеры отводится при помощи большого двухслотового радиатора из алюминиевого сплава. По сравнению с предыдущими решениями линейки GeForce GTX 600, в кулере Titan применяются удлиненные ребра радиатора, что увеличивает площадь рассеивания и повышает его эффективность. На GeForce GTX Titan также установлена алюминиевая пластина с обратной стороны, которая дополнительно охлаждает печатную плату и компоненты на ней. В конструкции вентилятора используются те же демпфирующие материалы, что и в GeForce GTX 680 — они служат для снижения уровня шума.

  • Графическая архитектура

Новая модель GeForce GTX Titan основана на базе самого сложного видеочипа NVIDIA, да и вообще в мире. Интересно, что первое практическое применение процессор GK110 впервые получил в суперкомпьютере Окриджской национальной лаборатории, который получил имя собственное — Titan. Еще в ноябре прошлого года этот суперкомпьютер был включен в «суперкомпьютерный» список TOP500 как самое быстрое подобное устройство. Всего в конструкции Titan используется 18668 профессиональных вычислительных систем NVIDIA Tesla K20X, что позволило суперкомпьютеру показать рекордный результат в 17,59 петафлопс (речь о вычислениях двойной точности) в общепризнанном тесте Linpack.

Топовый GPU компании поддерживает все возможности, появившиеся в GK104 (GeForce GTX 680), и все особенности архитектуры Kepler относятся и к нему, включая организацию мультипроцессоров SMX, хотя есть и явные отличия. Графический процессор GK110 имеет в своем составе пять (нечетное число, что необычно) кластеров графической обработки Graphics Processing Cluster (GPC), состоящих из трех (снова нечетное!) мультипроцессоров SMX каждый, то есть схема 5Ч3, в отличие от схемы 4Ч2 для GK104. Видимо, при схеме 8Ч2 чип получался слишком сложным.

Объем локальной GDDR5 видеопамяти для Titan равен 6 ГБ. Столь огромный даже по нынешним меркам объем памяти явно предназначен для энтузиастов. Компания NVIDIA неоднократно получала запросы об увеличенном объеме памяти от пользователей — они хотят еще более высокой производительности в высоких разрешениях с применением нескольких мониторов в современных играх и проектах будущего. Пожалуй, в случае продукта премиум-класса и такой объем памяти вполне оправдан. А практически он может понадобиться разве что в расчетных GPGPU-задачах да при появлении первых мультиплатформенных игр, предназначенных для будущего поколения консолей, которые будут иметь довольно большой объем памяти. 6 ГБ памяти с 384-битным интерфейсом должны дать GeForce GTX Titan все необходимое для достижения высокой частоты кадров во всех возможных играх и условиях, даже в ближайшие годы.

Как и другие старшие модели, GeForce GTX Titan поддерживает фирменную технологию GPU Boost, теперь уже второй версии (подробнее см. ниже). Это комбинация программно-аппаратных решений, позволяющая автоматически увеличивать рабочие частоты GPU в зависимости от его энергопотребления для достижения максимальной производительности. Базовая тактовая частота графического процессора GK110 в GeForce GTX Titan равна 836 МГц, а средняя турбочастота (Boost Clock) равна 876 МГц, что немногим больше. Как и в случае предыдущих решений, это лишь средняя частота, которая изменяется в зависимости от игры и нагрузки, а реальные частоты GPU в играх могут быть и выше. Частота памяти GDDR5 в GeForce GTX Titan составляет традиционные 6008 МГц, как и в предыдущей топовой плате компании.

  • Технические характеристики

Частота ядра — 836 (876) МГц;

Количество универсальных процессоров — 2688;

Количество текстурных блоков — 224, блоков блендинга — 48;

Эффективная частота памяти — 6000 (1500Ч4) МГц;

Тип памяти — GDDR5, 384-битная шина памяти;

Объем памяти — 6 ГБ;

Пропускная способность памяти — 288,4 ГБ/с;

Вычислительная производительность (FP32/FP64) — 4,5/1,3 терафлопс;

Теоретическая максимальная скорость закраски — 40,1 гигапикселей в секунду;

Теоретическая скорость выборки текстур — 187,3 гигатекселей в секунду;

Два разъема Dual Link DVI-I, один mini HDMI, один DisplayPort 1.2;

Шина — PCI Express 3.0;

Энергопотребление до 250 Вт;

Один 8-контактный и один 6-контактный разъемы питания;

Двухслотовое исполнение;

Средняя цена от 40000 рублей.

  • Radeon R9 295X2
  • Описание

Логично, что модель Radeon R9 295X2 занимает самое верхнее положение в новой линейке компании, высоко над R9 290X, так как и по производительности, и по цене она заметно выше одночипового варианта. Рекомендованная цена на Radeon R9 295X2 равна $1500, что ближе всего к цене «эксклюзивного» одночипового решения конкурента из этого же ценового сегмента — GeForce GTX Titan. Ну и частично можно привести в пример GTX 780 Ti, хотя она заметно дешевле. И до анонса и выхода на рынок игрового двухчипового решения NVIDIA, именно топовые одночиповые модели GeForce и будут оставаться соперниками для Radeon R9 295X2.




На новую двухчиповую видеокарту Radeon устанавливается память типа GDDR5 объемом в 4 гигабайта на каждый GPU, что обусловлено 512-битной шиной памяти у чипов Hawaii. Такой большой объем более чем обоснован для продукта такого высокого уровня, так как в некоторых современных игровых приложениях при максимальных настройках, включенном сглаживании и высоких разрешениях, меньшего объема памяти (по 2 гигабайта на чип, к примеру) уже иногда не хватает. И уж тем более это замечание относится к рендерингу в UltraHD-разрешении, в стереорежиме или на нескольких мониторах в режиме Eyefinity.

Естественно, что столь мощная двухчиповая видеокарта имеет эффективную систему охлаждения, отличающуюся от традиционных кулеров для референсных видеокарт AMD, но о ней мы поговорим несколько позже. А вот про энергопотребление платы с двумя мощными GPU на борту можно упомянуть уже сейчас — оно не просто высокое, но поставило очередной рекорд по официальной цифре TDP для платы референсного дизайна, даже двухчиповой. По понятным причинам, карта имеет и два 8-контактных разъема питания, что также объясняется ее гигантским энергопотреблением.

  • Конструкция и система охлаждения

Видеокарта Radeon R9 295X2 не только обеспечивает максимальную 3D-производительность, она и выглядит солидно — согласно своему статусу топовой видеосистемы. Данное изделие компании AMD имеет довольно крепкую и надежную конструкцию, включающую металлические заднюю пластину и кожух системы охлаждения. При этом не забыли украсить и внешний вид платы, применив подсветку логотипа Radeon, расположенного на торце кожуха кулера, а также подсвеченный центральный вентилятор видеокарты.

 

Длина новой карты составляет более 30 см (если точнее, то 305-307 мм), а по толщине это двухслотовое решение, а не трехслотовое, какими бывают мощные модели для игровых энтузиастов.

Естественно, что при потреблении энергии даже одночиповой видеокартой Radeon R9 290X, доходящем почти до 300 Вт, в случае двух GPU, работающих на той же частоте и имеющих то же количество активных функциональных устройств, энергопотребление двухчиповой карты никак не могло ограничиться планкой в 375 Вт, которая ранее была стандартом даже для мощных двухчиповых решений. Поэтому в AMD решили выпустить бескомпромиссное решение для энтузиастов, имеющее два 8-контактных разъема дополнительного питания и требующее аж 500 Вт. Соответственно, использование Radeon R9 295X2 в системе предполагает довольно высокие требования к применяемому блоку питания, которые гораздо выше тех, что предъявляют одночиповые модели видеокарт, даже самые мощные. Блок питания должен иметь два 8-контактных PCI Express разъема питания, каждый из которых должен обеспечивать по 28 А по выделенной линии. А в целом, по двум линиям питания, подходящим к видеокарте, БП должен давать не меньше 50 А — и это без учета требований остальных компонентов системы. Так как даже один графический процессор Hawaii очень сильно греется, потребляя более 250 Вт в некоторых случаях, то в AMD решили использовать в двухчиповом решении систему водяного охлаждения, так как вода значительно (в 24 раза) эффективнее воздуха при передаче тепла. Если точнее, то специально сконструированное для Radeon R9 295X2 устройство охлаждения компании Asetek является гибридным, так как сочетает охлаждение при помощи воды и воздуха для разных элементов видеокарты.

Новая двухчиповая видеокарта модели Radeon R9 295X2 имеет кулер, который является герметичной необслуживаемой системой охлаждения, включающей интегрированную помпу, крупный теплообменник с вентилятором типоразмера 120 мм, пару резиновых шлангов и отдельные радиатор с вентилятором для охлаждения микросхем памяти и системы питания. Система водяного охлаждения Asetek спроектирована для максимально эффективного отбора тепла от пары GPU, и для улучшения теплообмена в подошвах, прижатых к обоим чипам, сделаны специальные микроканалы.

Вентилятор на теплообменнике работает на автоматически изменяемой частоте оборотов, которая зависит от температуры охлаждающей жидкости. Вентилятор, служащий для охлаждения памяти и системы питания, также изменяет свои обороты в зависимости от степени нагрева.

Новая двухчиповая видеокарта компании AMD, несмотря на сложный гибридный кулер, поставляется полностью готовой к установке в систему, нужно просто установить ее в слот расширения как обычно и смонтировать теплообменник на корпусе ПК. Но из-за такой массивной системы охлаждения к установке Radeon R9 295X2 в систему есть дополнительные требования и рекомендации.

Корпус ПК должен иметь как минимум одно посадочное место для вентиляторов типоразмера 120 мм. В случае пары видеокарт Radeon R9 295X2 будут нужны два таких места, а если и центральный процессор системы охлаждается аналогичным устройством, то и три. При этом, теплообменник видеокарты желательно устанавливать выше самой видеокарты, для более эффективной циркуляции охлаждающей жидкости, заранее убедившись, что длины трубок кулера в 38 см хватит для подобного монтажа. Вентилятор размерности 120 мм установлен на радиатор теплообменника так, чтобы прогонять воздух через радиатор, и рекомендуется установить его в корпусе таким образом, чтобы горячий воздух выходил из ПК наружу.

  • Графическая архитектура

Новая модель Radeon R9 295X2 поддерживает все те технологии, что и другие модели на этом же GPU. В частности, рассмотренное сегодня решение обладает поддержкой нового графического API Mantle, который помогает более эффективно использовать аппаратные возможности графических процессоров AMD, не будучи ограничен недостатками имеющихся графических API: OpenGL и DirectX, так как в Mantle используется более «тонкая» программная оболочка между игровым движком и аппаратными ресурсами GPU подобно тому, как это давно делается на игровых консолях.

Mantle был разработан в AMD при значительном участии ведущих игровых разработчиков из компании DICE, и игра Battlefield 4, ставшая первым проектом, использующим Mantle, показывает вполне приличный прирост производительности при переходе от Direct3D к Mantle. А среди заинтересовавшихся Mantle можно особенно выделить несколько компаний: Crytek, Rebellion, и уже упоминавшиеся ранее Oxide, Nixxes Software и Cloud Imperium Games. Количество игровых движков и проектов с поддержкой Mantle растет, но игр пока не очень много: Battlefield 4, Thief и Star Citizen. Впрочем, и грядущий DirectX 12 новинка также будет поддерживать.

В остальном, остается лишь отметить, что новая плата также поддерживает и все остальные современные технологии компании AMD, которые были внедрены и улучшены в новых видеочипах линейки: TrueAudio, PowerTune, ZeroCore, Eyefinity и другие.

  • Технические характеристики

Частота ядр — до 1018 МГц

Количество универсальных процессоров — 5632

Количество текстурных блоков — 352, блоков блендинга — 128

Эффективная частота памяти — 5000 МГц (4Ч1250 МГц)

Тип памяти — GDDR5

Объем памяти — 2Ч4 гигабайта

Пропускная способность памяти — 2Ч320 гигабайт в секунду

Вычислительная производительность — (FP32) 11,5 терафлопс

Теоретическая максимальная скорость закраски — 130,3 гигапикселей в секунду

Теоретическая скорость выборки текстур — 358,3 гигатекселей в секунду

Шина — PCI Express 3.0

Разъемы: DVI Dual Link, четыре Mini-DisplayPort 1.2

Энергопотребление до 500 Вт

Два 8-контактных разъема дополнительного питания

Двухслотовый дизайн

Средняя цена от 50000 рублей.

Заключение

Конечно, если вы покупаете компьютер для офиса или только для работы в текстовых редакторах, то мощность видеокарты для вас не так уж и существенна, однако, большинство пользователей играют в игры и работают в сложных графических приложениях, для которых нужна хорошая видеокарта. Мощь видеокарты нужна в основном для игр с хорошей графикой, а для программ, просмотра фильмов, и простеньких игр подойдет и слабая. Если вы думаете, что при слабой видеокарте качество изображения на мониторе будет плохое, то вы ошибаетесь. Сейчас все, даже самые дешевые видеокарты обеспечивают хорошее изображение. Ну а дорогие и мощные видеокарты нужны для того чтобы можно было играть в новые игры с 3D графикой. Может быть, для кого-то это будет новостью, но современный графический процессор в несколько раз сложнее современного же центрального процессора, поэтому очень часто хорошая видеокарта может стоить половину от стоимости всего компьютера.

По результатам сравнения двух самых топовых на сегодняшний день видеокарт можно прийти к выводу, что обе компании далеко зашли в новейших технологиях. Однако технические характеристики у обеих моделей разные, если NVIDIA хотели сделать мощную видеокарту на 1 процессоре, при меньшем объеме памяти и затрате электроэнергии — то у AMD все с точностью наоборот. Соответственно мы наблюдаем, разные в корне 2 видеокарты и если стоит вопрос выбора между ними — то стоит учитывать цель данного приобретения и конечно свои финансовые возможности. А насчет эффективной работоспособности можно не задумываться, оба эти флагмана видеокарт — очень хорошее вложение в свой компьютер и этого хватит на долгие годы.

Статья от неизвестного

1 thought on “Видеокарты компаний NVIDIA и AMD

  1. Сергей

    Вгоду видеокарты АTi стали продавать под новым названием — Radeon, но мощности это им не добавляло. Пользователи, конечно, новинку оценили и карты заняли свою нишу, но технологии от nVidia игрокам пришлась больше по вкусу.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *