Battery boost nvidia что это
NVIDIA Battery Boost — что это?
Данная заметка расскажет о технологии, которая может повысить автономную работу ноута при игре, но при этом снизить немного качество картинки.
NVIDIA Battery Boost — что это?
NVIDIA Battery Boost — фирменная технология, позволяющая увеличить время работы ноутбука от батареи во время использования игр.
А суть технологии очень простая — вы можете принудительно сделать так, что видеокарта не будет работать на полную мощность. Как? Очень просто — просто укажите видеокарте, сколько она максимум может выдавать ФПС в игре.
Например ваш ноут может выдавать картинку в игре с частотой кадров 100 ФПС. На это разумеется требуются ресурсы. А что, если снизить например до 30? Уже нужно будет меньше ресурсов. А значит автономная работа ноута будет увеличена. Вот и весь секрет))
Чтобы пользоваться этой технологией — нужно установить драйвера GeForce Experience с оф сайта, в которых и будет отображена доступность функции:
Регулировать значение ФПС можно от 30 до 60 (может в новых версиях диапазон уже изменили):
На самом деле технология и правда работает. Можно увеличить автономную работу ноутбука. Правда если вы играете за ноутом — то часто это игровой ноут, который в большинстве случаев работает от розетки, потому что игры очень требовательны и от аккумулятора долго поиграть не получится. Но все равно функция полезна — потому что снижение нагрузки на видеокарту это уменьшение нагрева, а также шума, системе охлаждения при этом справится с теплом становится легче.
Заключение
Неплохая технология, она может быть также полезна, если вы замечаете что у вас ноутбук при игре перегревается. А прямо сейчас уже нести в сервисный центр — нет возможности. Тогда можно указать 30 ФПС и играть, перегрева скорее всего не будет, но разумеется это не решение проблемы.
Эксперименты с технологией NVIDIA Battery Boost. Заставляем работать игровой ноутбук дольше
Ноутбук MSI GE72 7RE APACHE PRO
Технология NVIDIA Battery Boost появилась еще во времена мобильных видеокарт NVIDIA серии GTX 800. Сейчас у нас выдалась возможность проверить работу этой технологии в современном ноутбуке MSI на базе дискретной видеокарты NVIDIA GeForce GTX 1050 Ti.
NVIDIA Battery Boost предназначена для увеличения времени автономной работы ноутбука при использовании игр. Суть технологии состоит в том, что вы можете принудительно заставить видеокарту работать не в полную мощность, ограничив максимальное значение FPS в играх.
К примеру, ноутбук способен в какой-то игре выдавать значение FPS на уровне 120, но вам может подойти и намного более низкое значение 30 FPS. Задав такой уровень, система автоматически будет регулировать (понижать) производительность видеокарты для того, чтоб обеспечить выбранное значение.
Учитывая, что игровая видеокарта вносит очень ощутимый вклад в итоговое энергопотребление ноутбука, то, снизив ее мощность, можно, в теории, значительно продлить время автономной работы устройства при питании от батарей.
Что необходимо для использования NVIDIA Battery Boost?
В настройках GeForce Experience видно сообщение, что система может работать с функцией NVIDIA Battery Boost
У нас как раз оказалась в распоряжении подходящая модель. Эксперименты с технологией NVIDIA Battery Boost мы проводили, используя ноутбук MSI GE72 7RE APACHE PRO. Этот ноутбук построен базе новейшей платформы Intel Core седьмого поколения (Kaby Lake) и дополнен современной видеокартой Nvidia GeForce GTX 1050 Ti (кстати, скоро на сайте появится совместный обзор четырех игровых ноутбуков на базе Intel Kaby Lake + NVIDIA Pascal).
В бенчмарке игры Metro Last Light Redux мы подобрали такие настройки графики, с которыми ноутбук при работе от батарей обеспечивал довольно высокий уровень FPS. В нашем конкретном случае значение FPS лежало примерно в диапазоне 70–110 FPS.
В этом режиме MSI от полной зарядки и до 10%-го остатка проработал 35 мин.
Включение и управление технологией Battery Boost происходит в фирменном приложении GeForce Experience. Доступна регулировка максимального FPS в диапазоне от 30 до 60.
Уровень FPS с заданными настройками графики в бенчмарке Metro Last Light Redux при работе ноутбука от батарей (сверху). И уровень FPS при активации NVIDIA Battery Boost с установленным максимальным значением 40 FPS
Включение NVIDIA Battery Boost и настройка максимального уровня FPS в приложении GeForce Experience
Мы выбрали предел в 40 FPS, снова зарядили ноутбук и запустили тест Metro Last Light Redux с теми же настройками графики. При этом время автономной работы до 10%-го остатка заряда батарей увеличилось в 1,6 раза и составило 56 мин. Прибавка действительно очень ощутимая.
Для интереса мы проанализировали, как ведут себя частота, температура и напряжение графического процессора, отслеживая параметры в приложении GPU-Z.
Работа ноутбука MSI GE72 7RE APACHE PRO от батарей | Работа ноутбука MSI GE72 7RE APACHE PRO от батарей с включенной технологией NVIDIA Battery Boost | |
Частота GPU, МГц | 1733 | 708 |
Частота видеопамяти, МГц | 5000 | 5000 |
Напряжение графического ядра, В | 1,062 | 0,681 |
Температура GPU, °C | 60 | 51 |
При использовании NVIDIA Battery Boost частота и напряжение питания графического процессора значительно снижаются. Примечательно, что частота видеопамяти осталась без изменений. Видимо, данная Battery Boost не управляет этим параметром.
Стоит заметить, что мы заведомо выбрали режимы, позволяющие хорошо раскрыть потенциал технологии NVIDIA Battery Boost. При более «тяжелых» настройках графики в Metro Last Light Redux, например, если бы средний FPS составлял около 50, то ограничение максимального FPS до 40 не позволило бы работать видеокарте значительно экономичнее. Соответственно, и рост времени автономной работы ноутбука не был бы таким ощутимым.
Если же система вовсе не может выдать заданный уровень FPS, то и пользы от включения NVIDIA Battery Boost не будет.
В общем, чем сильнее будет превосходить средний уровень FPS, обеспечиваемый системой в игре, заданное максимальное значение FPS, тем больший выигрыш во времени автономной работы можно получить от использования NVIDIA Battery Boost.
Также стоит понимать, что эффективность NVIDIA Battery Boost зависит и от доли видеокарты в суммарном энергопотреблении ноутбука. Грубо говоря, чем мощнее видеокарта, тем больший выигрыш во времени работы (в процентном соотношении) может обеспечить технология NVIDIA Battery Boost.
Некоторые мысли об актуальности NVIDIA Battery Boost
Да, как оказалось, технология NVIDIA Battery Boost действительно способна заметно увеличить автономность ноутбука в играх, но для многих ли это будет важным?
Дело в том, что игровые ноутбуки ввиду их больших габаритов и малого времени автономной работы (особенно в играх) практически всегда используются с питанием от сети. Они являются неплохой современной заменой мощного десктопного ПК, а аккумулятор в таких устройствах зачастую выполняет роль ИБП и иногда может помочь, если надо перенести ноутбук из одной комнаты в другую, не выключая систему.
Как ни странно, но технология NVIDIA Battery Boost могла бы очень пригодиться как раз при питании ноутбука от сети, ведь снижение энергопотребления видеокарты приводит также к снижению шума работы вентиляторов системы охлаждения.
Если вы играете в какие-то старые или просто нетребовательные игры, то даже значительно понизив производительность, вы все равно получите высокий уровень FPS и при этом ноутбук будет работать тихо без надрыва вентиляторов.
Было бы неплохо, если бы NVIDIA добавила функциональность технологии Battery Boost и для работы ноутбука от сети.
Battery Boost
После выпуска компанией NVIDIA 800-й серии мобильных графических процессоров, пользователи услышали о новой инновационной технологии под названием Battery Boost. Геймерам, широко использующим для виртуальных баталий мобильные компьютеры, хорошо известна проблема «зависимости от розетки». Даже самые дорогие и престижные игровые ноутбуки, имеющие очень ёмкие батареи, к сожалению, не дают достаточной мобильной свободы. Именно на этот факт компания NVIDIA и обратила своё внимание, создавая технологию Battery Boost.
Основной задачей новой технологии является максимальное увеличение автономной работы ноутбука в игровом режиме. Battery Boost автоматически без вмешательства пользователя взаимодействует не только с графической системой, но и с другими «железными» составляющими ноутбука. Таким образом, динамически подстраивая производительность GPU, режим Battery Boost обеспечивает постоянную достаточную мощность для плавного игрового процесса при работе ноутбука от батареи.
К примеру, если в определенный момент в игре изображение не имеет сложных графических сцен, производительность видеокарты автоматически понижается, что влечет за собой и снижение энергопотребления. При этом динамическая работа графической системы никак не сказывается на плавности игрового процесса. По утверждению компании NVIDIA, время автономной работы ноутбука при использовании новой технологии может возрасти до двух раз. Если же игра окончена, и при использовании ноутбука не требуется работы дискретной видеокарты, Battery Boost взаимодействует с технологией NVIDIA Optimus, которая в свою очередь в автоматическом режиме переключается на встроенный графический адаптер, ещё более сохраняя энергию батареи.
Полная автоматическая работа новой энергосберегающей технологии, тем не менее, не исключает участие пользователя. Любителям настроить систему «под себя» производитель позволяет максимально контролировать происходящие процессы для ещё большего энергосбережения. В заключении отметим, что функция Battery Boost доступна только в видеокартах топового сегмента, начиная с GeForce GTX 850M.
Как включить boost режим на видеокарте – Режим boost в видеокарте что это такое и как он работает?
Выпустят ли видеокарту на базе GPU GK110? Ответ на этот вопрос мы больше всего хотели услышать от NVIDIA и тогда, когда флагманскую позицию в линейке GeForce 600 занял более простой чип GK104, и тогда, когда GK110 дебютировал в составе профессиональных ускорителей Tesla K20/K20X. Вся история с задержкой выхода «большого Кеплера», а затем и спецификации Tesla K20/K20X заставили было усомниться в перспективах GK110 как игрового GPU. Всем известно, что у NVIDIA были трудности с освоением техпроцесса 28 нм на TSMC, которых не избежал даже гораздо более простой чип GK104, что же говорить о монстре из семи миллиардов транзисторов, которым является GK110. И вот мы видим, что новые модели Tesla получили довольно-таки скромные частоты GPU, а из 15 потоковых мультипроцессоров (SMX) GK110 работоспособны 13 или 14. При этом TDP карточек уже достигает 225-235 Вт.
Подводя итоги 2012 года по дискретной графике, мы предположили два варианта развития событий. Либо NVIDIA все-таки решится попытать счастья с GK110, выпустив на его основе GeForce GTX 780, либо оправдается более скучная версия и в GTX 780 установят обновленную версию GK104. Однако NVIDIA опровергла все предположения о том, в каком качестве представят адаптер на GK110, когда и каков он будет вообще.
⇡#Технические характеристики, цена
Первая неожиданность состоит в том, что адаптер GeForce GTX TITAN на GK110 не относится к линейкам GeForce 600 или 700, он как бы сам по себе. И это значит, что место на плате GTX 780 все-таки зарезервировано для GK114. Второе — то, что TITAN вышел в свет уже сейчас, хотя первый продукт на базе архитектуры Kepler отмечает годовщину только в марте.
Но главное — это тот факт, что GK110 выбрался из производственных неурядиц с минимальными потерями. Из 15 SMX, как и у Tesla K20X, не работает лишь один. Остальные 14 SMX дают фантастическое число активных вычислительных блоков: 2688 ядер CUDA, 224 текстурных модуля, 28 ROP. Сравните с формулой GK104: 1536 ядер CUDA, 128 текстурников, 32 ROP.
GPU TITAN работает на базовой частоте 836 МГц, Boost Clock равняется 876 МГц.
Кроме того, GK110 в GTX TITAN не имеет того слабого места, коим у GK104 является 256-битная шина памяти. Здесь шесть работающих контроллеров дают разрядность 384 бит — как у GTX 580 и Radeon HD 7970. Объем набортной памяти — щедрые 6 Гбайт, эффективная частота — стандартные для старших карт Kepler 6008 МГц.
В розничной продаже TITAN будет доступен начиная с 4 марта. Первыми вендорами, которые представят видеокарты в нашем регионе, станут ASUS, Gigabyte, Palit и Zotac.
GTX 680 | NVIDIA GeForce GTX TITAN | |
Основные компоненты | ||
GPU | GK104 | GK110 |
Число транзисторов | 3,54 млрд | 7,1 млрд |
Техпроцесс, нм | 28 | 28 |
Тактовая частота GPU, МГц: Base Clock / Boost Clock | 1006/1058 | 836/876 |
Потоковые процессоры | 1536 | 2688 |
Текстурные блоки | 128 | 224 |
ROPs | 32 | 48 |
Видеопамять: тип, объем, Мбайт | GDDR5, 2048 | GDDR5, 6144 |
Тактовая частота памяти: реальная (эффективная), МГц | 1502 (6008) | 1502 (6008) |
Ширина шины памяти, бит | 256 | 384 |
Интерфейс | PCI-Express 3.0 x16 | PCI-Express 3.0 x16 |
Вывод изображения | ||
Интерфейсы | 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2 | 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2 |
Макс. разрешение | VGA: 2048×1536, DVI: 2560×1600, HDMI: 4096х2160, DP: 4096х3112 | VGA: 2048×1536, DVI: 2560×1600, HDMI: 4096х2160, DP: 4096×2160 |
Макс. потребляемая мощность, Вт | 195 | 250 |
Средняя розничная цена, руб. | Нет данных | Нет данных |
Эксперименты с технологией NVIDIA Battery Boost. Заставляем работать игровой ноутбук дольше
Ноутбук MSI GE72 7RE APACHE PRO
Технология NVIDIA Battery Boost появилась еще во времена мобильных видеокарт NVIDIA серии GTX 800. Сейчас у нас выдалась возможность проверить работу этой технологии в современном ноутбуке MSI на базе дискретной видеокарты NVIDIA GeForce GTX 1050 Ti.
NVIDIA Battery Boost предназначена для увеличения времени автономной работы ноутбука при использовании игр. Суть технологии состоит в том, что вы можете принудительно заставить видеокарту работать не в полную мощность, ограничив максимальное значение FPS в играх.
К примеру, ноутбук способен в какой-то игре выдавать значение FPS на уровне 120, но вам может подойти и намного более низкое значение 30 FPS. Задав такой уровень, система автоматически будет регулировать (понижать) производительность видеокарты для того, чтоб обеспечить выбранное значение.
Учитывая, что игровая видеокарта вносит очень ощутимый вклад в итоговое энергопотребление ноутбука, то, снизив ее мощность, можно, в теории, значительно продлить время автономной работы устройства при питании от батарей.
Что необходимо для использования NVIDIA Battery Boost?
В настройках GeForce Experience видно сообщение, что система может работать с функцией NVIDIA Battery Boost
У нас как раз оказалась в распоряжении подходящая модель. Эксперименты с технологией NVIDIA Battery Boost мы проводили, используя ноутбук MSI GE72 7RE APACHE PRO. Этот ноутбук построен базе новейшей платформы Intel Core седьмого поколения (Kaby Lake) и дополнен современной видеокартой Nvidia GeForce GTX 1050 Ti (кстати, скоро на сайте появится совместный обзор четырех игровых ноутбуков на базе Intel Kaby Lake + NVIDIA Pascal).
В бенчмарке игры Metro Last Light Redux мы подобрали такие настройки графики, с которыми ноутбук при работе от батарей обеспечивал довольно высокий уровень FPS. В нашем конкретном случае значение FPS лежало примерно в диапазоне 70–110 FPS.
В этом режиме MSI от полной зарядки и до 10%-го остатка проработал 35 мин.
Включение и управление технологией Battery Boost происходит в фирменном приложении GeForce Experience. Доступна регулировка максимального FPS в диапазоне от 30 до 60.
Уровень FPS с заданными настройками графики в бенчмарке Metro Last Light Redux при работе ноутбука от батарей (сверху). И уровень FPS при активации NVIDIA Battery Boost с установленным максимальным значением 40 FPS
Включение NVIDIA Battery Boost и настройка максимального уровня FPS в приложении GeForce Experience
Мы выбрали предел в 40 FPS, снова зарядили ноутбук и запустили тест Metro Last Light Redux с теми же настройками графики. При этом время автономной работы до 10%-го остатка заряда батарей увеличилось в 1,6 раза и составило 56 мин. Прибавка действительно очень ощутимая.
Для интереса мы проанализировали, как ведут себя частота, температура и напряжение графического процессора, отслеживая параметры в приложении GPU-Z.
Работа ноутбука MSI GE72 7RE APACHE PRO от батарей | Работа ноутбука MSI GE72 7RE APACHE PRO от батарей с включенной технологией NVIDIA Battery Boost | |
Частота GPU, МГц | 1733 | 708 |
Частота видеопамяти, МГц | 5000 | 5000 |
Напряжение графического ядра, В | 1,062 | 0,681 |
Температура GPU, °C | 60 | 51 |
При использовании NVIDIA Battery Boost частота и напряжение питания графического процессора значительно снижаются. Примечательно, что частота видеопамяти осталась без изменений. Видимо, данная Battery Boost не управляет этим параметром.
Стоит заметить, что мы заведомо выбрали режимы, позволяющие хорошо раскрыть потенциал технологии NVIDIA Battery Boost. При более «тяжелых» настройках графики в Metro Last Light Redux, например, если бы средний FPS составлял около 50, то ограничение максимального FPS до 40 не позволило бы работать видеокарте значительно экономичнее. Соответственно, и рост времени автономной работы ноутбука не был бы таким ощутимым.
Если же система вовсе не может выдать заданный уровень FPS, то и пользы от включения NVIDIA Battery Boost не будет.
В общем, чем сильнее будет превосходить средний уровень FPS, обеспечиваемый системой в игре, заданное максимальное значение FPS, тем больший выигрыш во времени автономной работы можно получить от использования NVIDIA Battery Boost.
Также стоит понимать, что эффективность NVIDIA Battery Boost зависит и от доли видеокарты в суммарном энергопотреблении ноутбука. Грубо говоря, чем мощнее видеокарта, тем больший выигрыш во времени работы (в процентном соотношении) может обеспечить технология NVIDIA Battery Boost.
Некоторые мысли об актуальности NVIDIA Battery Boost
Да, как оказалось, технология NVIDIA Battery Boost действительно способна заметно увеличить автономность ноутбука в играх, но для многих ли это будет важным?
Дело в том, что игровые ноутбуки ввиду их больших габаритов и малого времени автономной работы (особенно в играх) практически всегда используются с питанием от сети. Они являются неплохой современной заменой мощного десктопного ПК, а аккумулятор в таких устройствах зачастую выполняет роль ИБП и иногда может помочь, если надо перенести ноутбук из одной комнаты в другую, не выключая систему.
Как ни странно, но технология NVIDIA Battery Boost могла бы очень пригодиться как раз при питании ноутбука от сети, ведь снижение энергопотребления видеокарты приводит также к снижению шума работы вентиляторов системы охлаждения.
Если вы играете в какие-то старые или просто нетребовательные игры, то даже значительно понизив производительность, вы все равно получите высокий уровень FPS и при этом ноутбук будет работать тихо без надрыва вентиляторов.
Было бы неплохо, если бы NVIDIA добавила функциональность технологии Battery Boost и для работы ноутбука от сети.
evo Инженер тестовой лаборатории
Добавить комментарий Отменить ответ
⇡#Архитектура GK110
GK110 сохранил все черты архитектуры Kepler, которую мы подробно рассматривали в обзоре GeForce GTX 680, за одним важным исключением, касающимся устройства потоковых мультипроцессоров. Как и у GK04, SMX содержит 192 ядра CUDA, 32 блока Load/Store и 32 блока специальных функций (SFU). Но в GK110 к этому прибавили 64 ядра двойной точности (FP64). Всего в TITAN получается 896 активных ядер с поддержкой FP64.
GK104 в каждом SMX также имеет восемь специальных ядер, способных выполнять инструкции FP64 за один такт. Но поскольку ядер CUDA, поддерживающих лишь FP32, там 192, то теоретическая производительность GK104 в задачах с двойной точностью составляет 1/24 от задач с одинарной точностью. Для сравнения: GPU Tahiti от AMD способен обрабатывать FP64 со скоростью 1/2 от FP32.
Так как число ядер FP64 и FP32 в кристалле GK110 соотносится как 1 к 3, то теоретически он в состоянии выполнять нагрузку FP64 на 1/3 от скорости FP32. Но на практике это может быть не совсем так. По умолчанию ядра FP64 работают на 1/8 частоты других компонентов SMX, что дает такую же скорость 1/24, как у GK104. Чтобы задействовать их на полной частоте, есть специальная опция в панели управления драйвера, но общая тактовая частота GPU при этом снижается.
Кстати, SMX в GK110 по-прежнему пользуется статическим планировщиком, представленным в GK104, что негативно сказывается на производительности в неграфических вычислениях, но если GeForce GTX 680 по этой причине уступал GTX 580 в задачах на GP-GPU, то GK110 наверняка компенсирует недостаток огромным числом вычислительных блоков. Неспроста за счет Tesla K20 укомплектован суперкомпьютер Titan в Oak Ridge National Laboratory (ORNL), который возглавил Top 500 прошедшей осенью. Отсюда, кстати, и гордое имя GeForce GTX TITAN.
⇡#GPU Boost 2.0
NVIDIA представила новую версию технологии динамического управления частотой и напряжением графического процессора. Первое изменение, которое произошло в алгоритме GPU Boost: в качестве переменной, от которой зависит частота и напряжение GPU, может быть не только лимит мощности (Power Target), как было раньше, но и температура процессора. Соответственно, в утилитах для разгона теперь появились два отдельных слайдера для того и другого критерия, и можно отдать приоритет одному из них.
Что более интересно, NVIDIA, наконец, дала возможность повышать напряжение на GPU. Однако делается это не привычным способом, характерным для видеоадаптеров со статическим напряжением. В логике GPU Boost есть функция, связывающая значения частоты и напряжения. Если алгоритм решает, что лимит температуры или мощности позволяет поднять частоту, то устанавливается и соответствующее ей напряжение. И что нам позволяет сделать новоприобретенная функция OverVoltage, так это предоставить в распоряжение автоматики еще несколько ступенек частоты и напряжения. А вот доберется ли до них GPU под нагрузкой, уже зависит от температуры или мощности.
Кроме того, в экспериментах с разгоном TITAN замечено, что даже в пределах диапазона частот и напряжений, которые доступны видеокарте без помощи OverVoltage (до отметки Vrel на графике), активация этой опции заставляет более агрессивно задействовать частотный потенциал.
К примеру, предельная частота Boost Clock, которую мы зарегистрировали в бенчмарках, составляет 1006 МГц, а напряжение — 1,162 В. Если максимизировать уровни Power Target, Temp Target и OverVoltage, то частота может подниматься вплоть до 1032 МГц, а напряжение — до 1,2 В. С другой стороны, если при максимальных Power Target и Temp Target в определенной сцене мы наблюдали частоту и напряжение 992 МГц и 1,15 В, то максимальный OverVoltage превращает их в 1019 МГц и 1,187 В.
В функции GPU Boost 2.0 также входит возможность разгонять дисплей. Да-да, с помощью утилиты, поддерживающей эту опцию, можно попробовать увеличить частоту вертикальной развертки, скажем, с 60 до 80 Гц, дабы одновременно наслаждаться высоким фреймрейтом и вертикальной синхронизацией.
Обзор технологии GPU Boost 2.0
Технология GPU BOOST 2.0
Технология GPU Boost 2.0 помогает добиться предельной вычислительной мощности видеокарты, максимизируя частоту смены кадров во всех играх для ПК. По сравнению с технологией GPU Boost 1.0, GPU Boost 2.0 более быстрая и гибкая, обеспечивает пользователям больший контроль за конфигурациями.
Собрав данные сотен тысяч пользователей за год после выхода видеокарты GeForce GTX 680, инженеры NVIDIA определили, что обычно температура GPU больше тормозит производительность, чем энергопотребление. В результате они взяли за основу исходную технологию GPU Boost и разработали GPU Boost 2.0 для видеокарт серии GTX 700, которая повышает тактовую частоту, пока видеокарта не достигнет установленной предельной температуры (например, 80C на видеокарте GeForce GTX TITAN). Благодаря этому изменению производительность увеличилась на 3-7% по сравнению с GPU Boost 1.0 и значительно больше на фабрично-разогнанных моделях, которые продают наши партнеры.
Больший контроль, меньше шума
GPU Boost 2.0 также предлагает усовершенствованные элементы управления пользователям видеокарт серии GTX 700 и GTX TITAN, которые могут настроить ускорение, увеличив или уменьшив предельную температуру GPU с помощью стороннего ПО. Это позволяет пользователям уменьшить максимальную температуру, скорость и шум работы GPU во время игры в более старые игры для ПК и увеличить все до максимума в современныхнасыщенных играх и приложениях.
Благодаря системе водяного охлаждения установочная температура GPU становится неважной, технология GPU Boost 2.0 максимизирует мощность и напряжение, значительно ускоряя тактовую частоту и обеспечивая предельную производительность видеокарт серии GTX 700, GeForce GTX TITAN и последнего семейства GTX.
⇡#Конструкция
Физически GeForce GTX TITAN выполнен в стилистике GeForce GTX 690. Такой же цельнометаллический корпус системы охлаждения и пластиковое (простите, поликарбонатное) окошко, открывающее взору ребра радиатора, а через несколько месяцев эксплуатации — залежи пыли. TITAN даже ближе к совершенству, чем его двухпроцессорный собрат, потому что из металла у него изготовлены абсолютно все детали корпуса, включая п-образные пластины, идущие вдоль длинных сторон. А у GTX 690 они сделаны из скучного крашеного пластика.
NVIDIA GeForce GTX TITAN
На торце карты — знакомый логотип со светодиодной подсветкой и бархатистой поверхностью soft-touch, чтобы от изделия можно было получить одновременно как визуальное, так и тактильное удовольствие.
NVIDIA GeForce GTX TITAN
NVIDIA GeForce GTX TITAN
Система охлаждения включает радиатор с испарительной камерой в основании и массивную металлическую раму, которая целиком закрывает печатную плату и служит для отвода тепла от микросхем памяти и транзисторов системы питания. Чипы памяти на оборотной стороне PCB вынуждены охлаждаться «сами по себе». В хвосте платы за турбинкой к раме прикреплен дополнительный блок алюминиевых ребер, через который проходит часть забираемого турбинкой воздуха. Но основной выхлоп идет через прорези в крепежной планке, наружу из корпуса.
Как и у GTX 680 и GTX 690, крыльчатка кулера TITAN изготовлена из звукопоглощающего материала. Видеокарта действительно очень тихо работает в штатном режиме и даже на 100% оборотов система охлаждения еще не очень сильно действует на нервы.
NVIDIA GeForce GTX TITAN
NVIDIA GeForce GTX TITAN
Разводка портов на задней панели абсолютно такая же, как у старших представителей линейки GeForce 600. Есть два выхода Dual-Link DVI, а также полноформатные разъемы DisplayPort и HDMI с поддержкой 4K-разрешений.
NVIDIA GeForce GTX TITAN
⇡#Плата
Как и GK104 в GeForce GTX 680, процессор GK110 в GTX TITAN довольствуется шестью фазами питания. Контроллер — ON NCP4206. Еще две фазы достались видеопамяти. Видеопамять набрана микросхемами Samsung K4G20325FD-FC03 с номинальной эффективной тактовой частотой 6 ГГц.
NVIDIA GeForce GTX TITAN
NVIDIA GeForce GTX TITAN
Сам GPU, вопреки ожиданиям и сомнительным фотографиям, появление которых предшествовало официальному релизу, установлен без теплорассеивателя, благодаря чему открывается вид на колоссальный кристалл, размером примерно с пятирублевую монету.
⇡#Методика тестирования
Конфигурация тестового стенда | |
CPU | Intel Core i7-3960X @ 4,6 ГГц (100×46) |
Материнская плата | ASUS P9X79 Pro |
Оперативная память | DDR3 Kingston HyperX 4×2 Гбайт @ 1600 МГц, 9-9-9 |
ПЗУ | Intel SSD 520 240 Гбайт |
Блок питания | IKONIK Vulcan, 1200 Вт |
Охлаждение CPU | Thermalright Silver Arrow |
Корпус | CoolerMaster Test Bench V1.0 |
Операционная система | Windows 7 Ultimate X64 Service Pack 1 |
ПО для карт AMD | AMD Catalyst 13.1 WHQL (13.2 Beta6 в Crysis 3) + Catalyst Application Profiles 12.11 CAP2 |
ПО для карт NVIDIA | 314.07 (GeForce GTX 500—600), 314.09 (GeForce GTX TITAN) |
Настройки AMD Catalyst Control Center | |
Antialiasing | Use application settings |
Anisotropic Filtering | Use application settings |
Tesselation | Use application settings |
Catalyst A.I., Texture Filtering Quality | Quality, Enable Surface Format Optimization |
Mipmap Detail Level | Quality |
Wait for V-Sync | Off, unless application specifies |
Anti-Aliasing Mode | Multi-sample AA |
Direct3D Settings, Enable Geomery Instancing | On |
Triple buffernig | Off |
Настройки NVIDIA Control Panel | |
Ambient Occlusion | Off |
Anisotropic Filtering | Application-controlled |
Antialiasing — Gamma correction | On |
Antialiasing — Mode | Application-controlled |
Antialiasing — Settings | Application-controlled |
Antialiasing — Transparency | Off |
CUDA — GPUs | All |
Maximum pre-rendered frames | 3 |
Multi-display/mixed-GPU acceleration | Multiple display performance mode |
Power management mode | Adaptive |
Texture filtering — Anisitropic sample optimization | Off |
Texture filtering — Negative LOD bias | Allow |
Texture filtering — Quality | Quality |
Texture filtering — Trilinear optimization | On |
Threaded optimization | Auto |
Triple buffering | Off |
Vertical sync | Use the 3D application settings |
Программа | API | Настройки | Режим тестирования | Разрешение |
3DMark 2011 | DirectX 11 | Профили Performance, Extreme | — | — |
3DMark | DirectX 11 | Тест Fire Strike (не Extreme) | — | — |
Unigine Heaven 2 | DirectX 11 | Макс. качество, DirectX 11, тесселяция в режиме Extreme | AF 16x, MSAA 4x | 1920х1080 / 2560х1440 |
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking Tool | DirectX 10 | Frost flythrough. Макс. настройки, DirectX 10 | AF 16x, MSAA 4x | 1920х1080 / 2560х1440 |
Metro 2033 + Metro 2033 Benchmark | DirectX 11 | Макс. настройки, DirectX 11, DOF, тесселяция, NVIDIA PhysX выкл. | AF 16x, MSAA 4x | 1920х1080 / 2560х1440 |
Crysis 2 + Adrenaline Crysis 2 Benchmark Tool | DirectX 11 | Central Park. Макс. качество, DirectX 11, текстуры высокого разрешения | AF 16x, Post MSAA + Edge AA | 1920х1080 / 2560х1440 |
Far Cry 3 | DirectX 11 | Начало миссии Secure the Outpos. Макс. качество, HBAO | AF, MSAA 4x | 1920х1080 / 2560х1440 |
Battlefield 3 + FRAPS | DirectX 11 | Начало миссии Going Hunting. Макс. качество | AF 16x, MSAA 4x | 1920х1080 / 2560х1440 |
Crysis 3 | DirectX 11 | Начало миссии Post-Human | AF 16x, MSAA 4x | 1920х1080 / 2560х1440 |
Batman: Arkham City. Встроенный бенчмарк | DirectX 11 | Макс. качество | AF, MSAA 4x | 1920х1080 / 2560х1440 |
DiRT Showdown | DirectX 11 | Shibuya, 8 машин. Макс. качество, Global Illumination вкл. | AF, AA 4х | 1920х1080 / 2560х1440 |
The Elder Scrolls 5: Skyrim + FRAPS | DirectX 9 | Город Whiterun. Макс. качество | AF 16x, MSAA 4x | 1920х1080 / 2560х1440 |
Call of Duty: Modern Warfare 3 + FRAPS | DirectX 9 | Миссия Return to Sender. Макс. качество | AF, MSAA 4x | 1920х1080 / 2560х1440 |
Новые материнские платы ASUS с GPU Boost
Компания ASUS представляет новую серию материнских плат на основе чипсетов Intel® H57 и H55 с поддержкой процессоров Intel® Core™ i7, Core™ i5, Core™ i3 и Pentium®. Серия P7H57D/P7H55 включает в себя три продукта в форм-факторе ATX и четыре в форм-факторе mATX. Все они оснащены процессорным разъемом LGA1156. В конструкции этих материнских плат применена концепция Xtreme Design, обеспечивающая высокую производительность и энергоэффективность, а их эксклюзивной особенностью является технология разгона встроенного графического ядра GPU Boost. Кроме того, в модели P7H57D-V EVO реализованы новейшие высокоскоростные периферийные интерфейсы USB 3.0 и SATA 6 Гбит/с.
Ускорение графики с технологией GPU Boost
Для обеспечения быстрой работы графических приложений в материнских платах серии P7H57D/P7H55 реализована технология GPU Boost, с помощью которой можно моментально разогнать встроенное графическое ядро Intel® HD Graphics на 50% и получить солидную прибавку скорости. Причем параметры разгона может указать сам пользователь – достаточно воспользоваться удобным программным интерфейсом. Кроме того, функция GPU Boost помогает экономить электроэнергию путем использования эксклюзивного энергетического процессора ASUS, который оптимизирует параметры энергопотребления встроенного графического ядра в зависимости от текущей нагрузки.
Быстрее, чем когда-либо: USB 3.0 и SATA 6 Гбит/с
Благодаря использованию в некоторых моделях новых материнских плат моста-коммутатора PCIe x4 обеспечивается работа высокоскоростных интерфейсов USB 3.0 и SATA 6 Гбит/с. Пропускная способность новой шины USB увеличена в десять раз по сравнению со стандартом USB 2.0, а интерфейс SATA 6 Гбит/с позволяет полностью реализовать весь потенциал современных жестких дисков. Передача 25-гигабайтного HD-фильма теперь занимает менее 70 секунд, а для копирования 4-мегабайтного музыкального файла понадобится лишь 0,01 секунды!
Концепция Xtreme Design
Созданные на основе концепции Xtreme Design материнские платы P7H57D-V EVO / P7H55-M отличаются широкими разгонными возможностями, как автоматическими, так и настраиваемыми вручную. Например, функция CPU Level Up позволяет моментально, одним лишь щелчком мыши, разогнать процессор до уровня более мощной (а, следовательно, более дорогой) модели.
Технические параметры
Модель | P7H57D-V EVO | P7H55D-M EVO | P7H55D-M PRO | P7H55-M PRO | P7H55-M | P7H55 | P7H55-V |
Процессорный разъем | LGA1156 для процессоров Intel® Core™ i7/Core™ i5/Core™ i3/Pentium® | ||||||
Чипсет | Intel® H57 Express | Intel® H55 Express | |||||
Память | DDR3-2133 (в режиме разгона)/1600 /1333/1066 МГц | DDR3-2133 (в режиме разгона)/1333/1066 МГц | |||||
Система питания | 12 гибридных фаз* | 8+3 фазы | 4+2 фазы | 4+2 фазы | 4+2 фазы | 4+2 фазы | 4+2 фазы |
Слоты PCIe x16 | 2 | 1 | 1 | 1 | 1 | 1 | 1 |
Технологии Multi-GPU | CrossFireX/SLI** | — | — | — | — | — | — |
Порты Gigabit Ethernet | 1 | 1 | 1 | 1 | 1 | 1 | 1 |
Аудио | 8-канальный HD-кодек, DTS | 8-канальный HD-кодек | 8-канальный HD-кодек | 8-канальный HD-кодек | 8-канальный HD-кодек | 8-канальный HD-кодек | 8-канальный HD-кодек |
Хранение данных | 6 портов SATA 3 Гбит/с | 6x SATA 3 Гбит/с | 6x SATA 3 Гбит/с | 6x SATA 3 Гбит/с | 6x SATA 3 Гбит/с | 6x SATA 3 Гбит/с | 6x SATA 3 Гбит/с |
1 порт eSATA 3 Гбит/с | 1 порт eSATA 3 Гбит/с | — | — | — | — | — | |
1 слот Ultra DMA | 1 слот Ultra DMA | 1 слот Ultra DMA | 1 слот Ultra DMA | 1 слот Ultra DMA | 1 слот Ultra DMA | 1 слот Ultra DMA | |
2 порта SATA 6 Гбит/с | — | — | — | — | — | — | |
USB | 12 портов USB 2.0 | 10 портов USB 2.0 | 12 портов USB 2.0 | 12 портов USB 2.0 | 12 портов USB 2.0 | 12 портов USB 2.0 | 12 портов USB 2.0 |
2x USB 3.0 | 2x USB 3.0 | — | — | — | — | — | |
1394a | 2x | 2x | — | — | — | — | — |
Видео | Поддержка HDMI, DVI-D, RGB | Поддержка HDMI, DVI-D, RGB | Поддержка HDMI, DVI-D, RGB | Поддержка HDMI, DVI-D, RGB | Поддержка HDMI, RGB | — | Поддержка HDMI, RGB |
Функциональность
Модель | P7H57D-V EVO | P7H55D-M EVO | P7H55D-M PRO | P7H55-M PRO | P7H55-M | P7H55 | P7H55-V | |
Гибридные функции | ||||||||
Процессор TurboV EVO | есть | — | — | — | — | — | — | |
Auto Tuning | есть | — | — | — | — | — | — | |
CPU Level UP | есть | — | — | — | — | — | — | |
TurboV | есть | есть | есть | есть | есть | есть | есть | |
Turbo Key | есть | есть | есть | есть | есть | есть | есть | |
Система питания | ||||||||
Xtreme Phase | есть | есть | — | — | — | — | — | |
Микрочип T.Probe | есть | — | — | — | — | — | — | |
Операционные системы | ||||||||
Поддержка Windows7 | есть | есть | есть | есть | есть | есть | есть | |
Express Gate | есть | есть | есть | есть | есть | есть | есть | |
Эксклюзивные функции ASUS | ||||||||
GPU Boost | есть | есть | есть | есть | есть | — | есть | |
MemOK! | есть | есть | — | — | — | есть | ||
EPU | есть | есть | есть | есть | есть | есть | есть | |
Stack Cool 3 | есть | есть | есть | — | — | — | — | |
Q-LED | есть | — | — | — | — | — | — | |
Q-Slot (VGA) | есть | — | — | — | — | — | — | |
Q-DIMM | есть | есть | есть | есть | — | — | — |
* Hybrid Phase = Xtreme Phase x T.Probe. Энергоэффективность системы питания Hybrid Phase не уступает другим существующим схемам систем питания.
** Режим SLI™ и CrossFireX™ доступен только с процессорами на ядре Lynnfield.
Технические параметры могут быть изменены без предварительного уведомления. Подробнее см. www.asus.ua
О компании ASUS
Компания ASUS, лидер новой цифровой эры, предлагает широкую линейку продуктов, включающую ноутбуки, нетбуки, материнские платы, видеокарты, оптические приводы, настольные ПК, мониторы, серверы, беспроводные решения, мобильные телефоны и сетевое оборудование. Все продукты ASUS отличает высокое качество и инновационность, они прекрасно подходят для современного цифрового дома и офиса. В 2009 году ASUS получила 3268 наград и заслужила всеобщее признание в качестве создателя революционного Eee PC™. В 2008 году оборот компании, насчитывающей более 10 тысяч сотрудников и высококлассных разработчиков по всему миру, составил 8,1 миллиарда долларов США. ASUS уже 12 лет подряд входит в список наиболее успешных IT-компаний InfoTech 100, публикуемый еженедельником Business Week.
Материнские платы ASUS: номер 1 в мире
ASUS – это крупнейший производитель материнских плат, обладающий самой большой долей мирового рынка. Сегодня материнские платы ASUS можно найти в каждом третьем выпускаемом компьютере. ASUS является разработчиком множества инноваций, которые впоследствии стали промышленными стандартами. Недавними примерами являются система питания Xtreme Phase, печатная плата с технологией Stack Cool3+ и электромагнитное экранирование. Благодаря многолетнему опыту в разработке материнских плат, компания ASUS является лидером отрасли с точки зрения производительности, безопасности и надежности производимых ею устройств.
⇡#Разгон, температура, энергопотребление
Базовая частота GPU составляет 836 МГц, а максимальное значение Boost Clock, зарегистрированное в бенчмарках, составило 1006 МГц (прибавка в 169 МГц). В разгоне базовую частоту удалось увеличить до 966 МГц.
Значения Power Target и Temp Target по умолчанию установлены на уровне 100% и 80 °C. Для начала мы увеличили их до максимума — 106% и 94 °C, с приоритетом мощности. В таком режиме Boost Clock достигала 1124 МГц (+157 МГц к базовой частоте). Если же отдать приоритет температуре и прибегнуть к помощи OverVoltage, задав смещение напряжения на максимально допустимые три шага (+37 мВ), то Boost Clock начинает подниматься и до 1150 МГц (+183 МГц), а напряжение — вплоть до 1,2 В.
Base Clock, МГц | Макс. Boost Clock, МГц | Base Clock, МГц (разгон) | Макс. зарегистрированная Boost Clock, МГц (разгон) | |
GeForce GTX TITAN | 836 | 1006 (+169) | 966 | 1150 (+183) |
GeForce GTX 690 | 915 | 1071 (+156) | 1085 | 1241 (+156) |
GeForce GTX 680 | 1006 | 1110 (+104) | 1086 | 1177 (+91) |
GeForce GTX 670 | 915 | 1097 (+182) | 1035 | 1215 (+180) |
GeForce GTX 660 Ti | 915 | 1059 (+144) | 1116 | 1260 (+144) |
GeForce GTX 660 | 980 | 1071 (+91) | 1093 | 1185 (+92) |
GeForce GT 650 Ti | 925 | НД | 1158 | НД |
GeForce GT 640 | 900 | НД | 1062 | НД |
По пиковому энергопотреблению TITAN значительно превосходит как GeForce GTX 680, так и Radeon HD 7970 GHz Edition. Он кушает почти ровно столько же, что и GTX 580, тем самым вновь утверждая подзабытую истину, что GTX — это ПЕЧ. GeForce GTX 690 расположился на диаграмме поблизости: разница с TITAN составляет единицы ватт.
В тесте также участвует наша «темная лошадка», условный Radeon HD 7990 GHz Edition — два GPU Tahiti XT2, расположенные на одной плате и работающие на стандартных для HD 7970 GHz Edition тактовых частотах. Пока мы не будем раскрывать название и штатные спецификации этой карты, так как в ближайшее время с ней состоится отдельное знакомство. Так вот, эта карта далеко не столь экономична, как GTX 690 или TITAN, и соперничает по максимальному энергопотреблению со знаменитыми своим аппетитом GTX 590 и HD 6990.
Примечательно также то, что разгон TITAN почти никак не отражается на энергопотреблении. Похоже, что GPU Boost и в штатном режиме исчерпывает резерв мощности.
Система охлаждения TITAN оправдала возложенные на нее ожидания. Под нагрузкой чип GK110 нагревается не больше, чем вдвое меньший GK104 в составе GTX 680. А запаса мощности кулера достаточно для того, чтобы при разгоне адаптера снизить температуру еще на 20 °С.
⇡#Производительность, синтетические тесты
3DMark 2011 (DirectX 11)
3DMark
Unigine Heaven 2 (DirectX 11)
⇡#GeForce GTX TITAN vs GTX 690 vs 2xRadeon HD 7970 GHz Edition
Первое, что бросается в глаза при взгляде на сводную таблицу, это то, что разгон TITAN хотя и корректирует его положение по сравнению с соперниками, но в абсолютных значениях не всегда дает значимую прибавку FPS. На увеличение частот хорошо откликаются DiRT Showdown, Unigine Heaven 2 и Battlefield 3. В других же тестах эффект от разгона совсем невелик. В общем, как и в случае с другими видеокартами семейства Kepler с технологией GPU Boost, мегагерцы у GTX TITAN подчас имеют отчетливый привкус кукурузы.
Также видно, что TITAN всегда идет где-то рядом с GTX 690, а иногда даже опережает его. Вот двойной Radeon HD 7970 GHz Edition оказался более сильным соперником, TITAN догоняет его не так часто.
Обзор технологии GPU Boost 1.0
Технология GPU BOOST 1.0
Технология GPU Boost помогает добиться предельной вычислительной мощности видеокарты, максимизируя частоту смены кадров во всех играх для ПК.
До изобретения технологии GPU Boost GPU тормозили искусственные бенчмарки, которые доводили потребление электроэнергии до того уровня, который редко встретишь во время компьютерных игр. Этот «сценарий по наихудшему варианту» заставлял нас тормозить GPU, не используя максимальную производительность. Технология GPU Boost решает эту проблему, постоянно отслеживая потребление энергии и температуру GPU, помогая максимально использовать возможности его производительности, не нарушая пределы безопасности и комфорта работы.
ДИНАМИЧЕСКИЙ РАЗГОН ПРОЦЕССОРА
Благодаря программным и аппаратным инновациям, представленным с Kepler GTX 600 Series GPUs в 2012 году, любое приложение и игра работают на гарантированной минимальной Базовой тактовой частоте. Если доступна дополнительная мощность, включается Тактовая частота с ускорением, увеличивая тактовую частоту процессора, пока видеокарта не достигнет установленной предельной мощности (например, 170 Вт на GTX 680). Динамическое управление тактовой частотой осуществляется технологией GPU Boost 1.0, которая отслеживает большой объем данных и в реальном времени изменяет скорость и напряжение GPU несколько раз в секунду, максимизируя производительность всех приложений.
Но это еще не все. Инженеры NVIDIA усовершенствовали технологию GPU Boost 1.0 и выпустили технологию GPU Boost 2.0 для видеокарт серии GTX 700 и более новых продуктов.
⇡#Выводы
Для NVIDIA TITAN стал ярким достижением и демонстрацией ее инженерного потенциала. Несмотря на все трудности, которые сопровождали GK110 и архитектуру Kepler в целом на пути от проектирования к коммерческим продуктам, мы все-таки получили этот технологический шедевр. Мир еще не видел такого огромного GPU, и производительность поражает воображение. TITAN просто уничтожил теперь уже бывших однопроцессорных фаворитов – GeForce GTX 680 и Radeon HD 7970 GHz Edition и небезуспешно соревнуется с двумя GPU в лице GeForce GTX 690 или условного Radeon HD 7990 GHz Edition.
В целом GTX 690 удерживает лидерство, но у TITAN есть другие преимущества, главное из которых — более предсказуемая производительность, которая не зависит от эффективности SLI в той или иной игре. А также поддержка вычислений с двойной точностью на скорости 1/3 от FP32 для тех, кому это необходимо. Кроме того, NVIDIA утверждает, что тройка «Титанов» в SLI имеет большую производительность, чем два GTX 690, во что мы охотно верим, зная, что при переходе от трех к четырем GPU скорость масштабируется не очень хорошо.
Тандем Radeon HD 7970 GHz Edition — более серьезный противник для TITAN. Но посмотрите, как много энергии потребляет эта парочка, даже если GPU находятся на одной плате. Для AMD сравнение даже единственного HD 7970 GHz Edition с TITAN очень обидно, потому что они находятся в абсолютно одинаковом энергетическом бюджете 250 Вт, а по производительности совершенно несопоставимы. С другой стороны, хотя NVIDIA и удалось добиться столь впечатляющего соотношения двух важнейших качеств дискретного видеоадаптера — производительности и энергопотребления, но третье качество — цена, отчасти зависимая от себестоимости и выхода годных чипов, совершенно упущено. Ведь тысяча долларов за видеокарту с одним GPU — это тоже своеобразный рекорд. В принципе, в рознице все выглядит справедливо: если TITAN сравним по производительности с адаптерами на двух GPU, то не грех и попросить за него такие же деньги. Но если взглянуть шире, то ситуация говорит о том, что хотя мастерство разработчиков и изысканные энергосберегающие технологии уже позволяют создать GPU с 7,1 миллиарда транзисторов, но производство (по крайней мере, для NVIDIA) еще не готово выпускать таких монстров в по-настоящему больших количествах. GK110 и TITAN — это в своем роде привет из будущего. GPU такого масштаба наверняка станут привычным делом для топовых видеоадаптеров через одно-два поколения.
SetStablePowerState.exe отключает GPU Boost под Windows 10
Современные GPU под нагрузкой не всегда работают на одних и тех же тактовых частотах. Частота может меняться в зависимости от нагрузки и других параметров, таких как температура GPU, напряжение и энергопотребление. Предельные параметры выставляют NVIDIA и партнеры компании. В результате базовая частота и Boost служат лишь примерными ориентирами. У графических процессоров AMD все несколько проще, поскольку покупателям сообщается максимальная частота, которую GPU достигает под нагрузкой. Выше этой частоты GPU не работает.
Поэтому в случае видеокарт NVIDIA реальную частоту работы перед покупкой узнать сложно. Видеокарта с более производительной системой охлаждения и увеличенной планкой энергопотребления Power Target даст на практике значительно более высокую частоту, чем заявленная минимальная Boost. Если же система охлаждения не будет справляться со своей работой, то частота Boost может быть даже ниже минимальной планки, она будет находиться между базовой частотой и минимальной планкой Boost. Если при этом продолжат действовать какие-либо ограничения (например, по температуре), то частота может даже спуститься ниже базовой. Сценариев много, в результате видеокарта в компьютере A может вести себя совершенно иначе, чем в компьютере B. То есть гарантировать одинаковую производительность во всех системах невозможно. Поэтому в компьютере читателя видеокарта может вести себя иначе, чем в нашей тестовой системе.
Схематическое представление зависимости частоты GPU от времени
Усложняет ситуацию и поведение игрового движка на разных тактовых частотах. Для геймера более быстрый или медленный GPU обычно означает большую или меньшую частоту кадров в секунду. Но для игрового движка более важны отрезки вычислительного времени, которое требуется на выполнение определенных расчетов. Отрезки времени GPU зависят от таковой частоты, и в случае динамического изменения частоты не всегда можно предсказать, какое время будет уходить на расчеты задания в той или иной ситуации. Поэтому разработчикам хотелось бы получить в свои руки GPU с постоянной тактовой частотой, чего в случае NVIDIA GPU как раз и не наблюдается.
Поэтому NVIDIA представила для разработчиков утилиту SetStablePowerState.exe. Она может включать или выключать механизм Boost. Утилита работает для всех современных API, а именно DirectX 11, DirectX 12 или OpenGL Vulkan. При активации SetStablePowerState.exe GPU будет выставлен на базовую частоту. Которая как раз указывается для всех моделей видеокарт.
NVIDIA Titan X почти всегда работает с ограничением по температуре, поэтому частота Boost существенно снижается
Поэтому если вы хотите отключить механизм Boost, например, для разгона, то теперь появился соответствующий инструмент. На самом деле SetStablePowerState – это метод и компонент DirectX 12. Некоторые игры выставляют параметр SetStablePowerState (TRUE) по умолчанию, в результате видеокарта NVIDIA работает на базовой частоте и не может раскрыть весь потенциал производительности. У операционной системы Windows 10 Anniversary Update параметр SetStablePowerState активируется только в том случае, если выставлен режим разработчика Windows 10. То же самое теперь можно сделать с помощью утилиты SetStablePowerState.exe или настроек Windows 10.
Получить дополнительную информацию о SetStablePowerState можно в блоге NVIDIA.