Light-electric.com

IT Журнал
37 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Две видеокарты nvidia без sli

Преимущества и недостатки двух разных видеокарт на одном компьютере

Установка двух или более видеокарт, работающих совместно, обеспечивает улучшенную производительность видео, 3D и игр по сравнению с одной видеокартой. Как AMD, так и Nvidia предлагают решения для работы с двумя или более видеокартами, но чтобы решить, стоит ли принимать это решение, нужно рассмотреть требования и преимущества.

Требования к системе с двумя видеокартами

Чтобы использовать две видеокарты, вам необходимо базовое оборудование, AMD или Nvidia для запуска их графических технологий. Графическое решение AMD — фирменный CrossFire, а решение Nvidia — SLI. Есть способы использовать два разных бренда вместе. Для каждого из этих решений вам нужна совместимая материнская плата с необходимыми графическими слотами PCI Express. Без одной из этих слотов в материнской плате, использование технологии двух карт невозможно.

Преимущества

Есть два реальных преимущества запуска нескольких видеокарт. Основная причина — повышенная производительность в играх. При наличии двух или более графических карт, которые совместно используют функции для рендеринга 3D-изображений, компьютерные игры могут работать с более высоким ФПС и более высоким разрешением и с дополнительными фильтрами. Эта дополнительная емкость может значительно улучшить качество графики в играх. Конечно, многие современные видеокарты могут воспроизводить игру с разрешением до 1080p. Настоящим преимуществом является возможность управлять играми с более высоким разрешением, например на дисплеях 4K, которые имеют разрешение в четыре раза, или управлять несколькими мониторами.

Другое преимущество — для людей, которые хотят обновиться позже, не заменяя свою видеокарту. Купив видеокарту и материнскую плату, способную работать с двумя картами, вы можете добавить вторую графическую карту позже, чтобы повысить производительность без необходимости извлекать существующую видеокарту. Единственная проблема с этим планом состоит в том, что циклы видеокарты выполняются примерно каждые 18 месяцев, а это значит, что совместимую карту может быть трудно найти, если вы не собираетесь приобретать ее в течение двух лет.

Недостатки

Большим недостатком двух видеокарт в одном компьютере является стоимость. Поскольку топовые видеокарты уже стоят 500 долларов и более, многим потребителям трудно позволить себе вторую. Хотя ATI и Nvidia предлагают более дешевые карты с поддержкой двух карт, зачастую лучше потратить одинаковое количество денег на одну карту с одинаковой или иногда лучшей производительностью, чем на две недорогие.

Другая проблема заключается в том, что не все игры выигрывают от нескольких видеокарт. Эта ситуация значительно улучшилась с тех пор, как были представлены первые настройки с двумя картами, но некоторые графические движки по-прежнему плохо справляются с двумя видеокартами. Фактически, некоторые игры могут показывать небольшое снижение производительности по сравнению с одной видеокартой. В некоторых случаях происходит поддергивание, из-за которого изображение видео выглядит прерывистым.

Две видеокарты AMD Radeon подключеные через кабель DVI

Современные видеокарты очень энергоемки. Наличие двух из них в системе может почти удвоить количество потраченой эллектроэнергии, необходимое для их запуска в тандеме. Например, для правильной работы одной видеокарты высокого класса может потребоваться блок питания на 500 Вт. Наличие двух таких же карт может потребовать около 850 Вт. Большинство настольных компьютеров не оснащены такими мощными блоками питания. Обратитесь к мощности вашего компьютера и требованиям, прежде чем покупать более мощное оборудование.

Преимущества производительности в среде с двумя картами зависят от других компонентов компьютерной системы. Даже с двумя графическими картами самого высокого класса процессор нижнего уровня может регулировать объем данных, которые система может предоставить графическим картам. В результате двойные видеокарты обычно рекомендуются только в высокопроизводительных системах.

Кто должен установить две видеокарты?

Для среднего потребителя запуск двух видеокарт не имеет особого смысла. Общие затраты на материнскую плату и видеокарты, не говоря уже о других основных аппаратных средствах, которые необходимы для обеспечения достаточной скорости графики, являются непомерно высокими. Однако это решение имеет смысл, если вы хотите запускать игры на нескольких дисплеях или в экстремальных разрешениях.

Нереальная физика. Тестирование NVIDIA PhysX на конфигурации SLI Multi-Card

Как известно, видеокарты NVIDIA умеют брать на себя часть обязанностей центрального процессора: перекодировать видео, ускорять математические расчеты и, конечно, работать с физическими движками — с тем же PhysX. Такая работа отнимает львиную долю производительности платы, и железные энтузиасты не первый год пытаются увеличить мощность компьютера и сэкономить деньги, обманывая NVIDIA SLI и соединяя в одну систему две видеокарты разных серий. Делать это они научились уже давно: компьютеры с двумя разными платами собирались еще в середине 2008-го, но для этого нужно было приложить немало усилий. Обзавестись двумя мониторами, или одним, но с парой входов — к примеру, DVI и VGA. После установки первой видеокарты выключить компьютер, вставить вторую видеокарту, подключить к ней еще один монитор, из безопасного режима Windows удалить все драйверы программой Driver Sweeper и затем снова установить драйвер NVIDIA ForceWare.

В октябре 2009 года появилась технология NVIDIA Multi-Card, которая позволила без особого труда собирать связки из двух видеокарт NVIDIA разных семейств, скажем, из GeForce GTX 295 и GeForce 9600 GT. В прошлом номере мы провели первые тесты этой технологии, а сегодня уже готовы обстоятельно рассказать, какие карты лучше ставить на расчет PhysX.

С чем есть

MSI N285GTX SuperPipe OC

Физика в игре нужна, чтобы вы поверили в реальность происходящего. В играх она появилась очень-очень давно. Взять тот же Pong: если бы виртуальный мячик не отскакивал при ударе, как это делает мячик настоящий, разработчики ни за что не убедили нас, что это пинг-понг. С тех пор прошло почти сорок лет, но ничего не изменилось, увеличились лишь масштабы. Сейчас чуть ли не любая игра — это огромный мир с тысячами объектов, и каждый из них должен вести себя достоверно. К сожалению, устроить это не так просто.

Если выстрелить из дробовика в коробку, то она не только подлетит в воздух, но и разорвется в клочья. И когда в игре она лишь обрастает дырками от пуль, не двигаясь с места, это выглядит престранно. Однако так и происходит, ведь трехмерная модель — всего лишь набор полигонов, формирующих нужную форму. Чтобы игра отличала картонную коробку от железобетонного блока, нужно объяснить компьютеру, что такое гравитация, удар, ускорение, трение, указать вес коробки и материал, из которого она сделана.

Те, кто ушел дальше школьного курса физики или изучал сопромат и теоретическую механику, знают, что даже посчитать, с какой скоростью колесо скатится с горы, — невероятно сложно. А уж достоверно описать, как коробка отреагирует на попавшую в нее дробь, — та еще задачка. Студенты технических вузов по полгода рассчитывают, как какая-нибудь пружинка реагирует на сжатие, — а представьте, сколько таких колесиков, ящиков, пружинок в игре вроде Burnout Paradise. Да даже если весь состав Electronic Arts посадить все это программировать, то следующую их игру мы увидим лет через десять! К счастью, на свете есть физические движки.

Замещая реальность

По сути своей любой движок, будь то Havok или PhysX, это база данных с описанием материалов и их свойств. В случае с той же коробкой, например, разработчику достаточно сказать движку: «Она картонная и весит 200 граммов», — и движок автоматически подберет нужные формулы и даст понять игре, как реагировать на те или иные манипуляции с коробкой. И это отлично работает. Яркий пример — Half-Life 2 с его гравипушкой, которая позволяет разбрасывать ящики или переставлять бочки.

Читать еще:  Удаление и установка драйверов видеокарты

Но ящики и бочки — это, к сожалению, лишь малая часть реального мира. Если вы присмотритесь к той же Half-Life 2, то заметите, что все объекты в игре — абсолютно твердые тела. Они умеют прыгать, кувыркаться в воздухе, отскакивать от стен, но там даже самый простой объект при ударе не меняет своей формы. Причина — недостаточная производительность современных компьютеров. Написать формулы для работы с водой, тканью, резиной или туманом несложно, их огромное количество, но просчитывать такие формулы пока нечем.

Возьмем для примера ткань. Только подумайте, сколько точек в юбке обычной девочки. Тысячи! И чтобы подол правильно развевался на ветру, необходимо ежесекундно рассчитывать положение каждой точки, учитывать поведение всех соседних, силу ветра, направление движения персонажа. Это не говоря уже о том, что ветер создает множество маленьких потоков, которые также влияют на поведение ткани. И вот представьте, что ваш Core i7, который пыхтит с Windows, улаживает проблемы с драйверами, следит за ИИ персонажей, вдруг получает такую юбочку. Даже самые современные процессоры не готовы к таким нагрузкам.

«Анабиоз: Сон разума»

Саму игру сложно назвать шедевром, но как бенчмарк для PhysX она подходит на все сто. Тут есть все, подо что разрабатывался PhysX SDK: льющаяся вода, игры с тканью, прыгающие ящики. При этом «Анабиоз» крайне требователен к графике. Красивые модели, сложное освещение — все это создает нешуточную нагрузку на видеокарту.

Batman: Arkham Asylum

Собственно интересных задумок с физикой в «Бэтмене» немного, зато объекты в игре представлены самые разные. Плащ главного героя развевается на ходу, враги красиво разбрасывают сотни листиков бумаги. А еще нам показывают работу PhysX с частицами: тут очень красиво сделан туман, который плотным слоем стелется по земле.

PhysX FluidMark

Этот бенчмарк разработан самой NVIDIA. Ничего захватывающего дух в нем нет: посреди экрана стоит обычный шар, на который сверху выливаются десятки тысяч частиц, образующих вязкую массу. Fluid не загружает видеокарту графикой и выжимает все соки на просчет поведения частиц — при помощи этого теста легко оценить общую производительность каждой из плат.

Светлая мысль

MSI N9600GT Zilent 1G

Первой это поняла компания Ageia: в середине 2000-х она начала делать физический движок PhysX SDK, который научила считать поведение твердых тел, ткани, жидкости — и обрабатывать все аппаратными средствами. Своими силами Ageia разработала одноименную плату PhysX, которая и должна была помочь центральному процессору. Однако Ageia не хватило ни денег, ни сил, чтобы довести революционный проект до конца и получить необходимую поддержку от разработчиков игр. В феврале 2008 года компанию перекупила NVIDIA.

Основа платы PhysX — ядра общего назначения, примерно такие же, как на всех видеокартах NVIDIA. Учитывая, что в 2008-м уже вовсю продвигалась CUDA, встроить поддержку PhysX в драйверы не составило труда: все видеокарты NVIDIA после GeForce 8000 умеют работать с движком PhysX. Но и здесь есть свои недостатки.

При включении PhysX мы действительно разгружаем центральный процессор, но одновременно отбираем ресурсы у видеокарты, а ведь ей еще графику в игре считать. Получается палка о двух концах. Да, видеокарты быстрее считают физику, они заточены под это, но общая производительность системы все равно снижается. А терять дополнительные кадры в секунду ради каких-то ящиков хочется не каждому. NVIDIA с самого начала предлагала выход: купите, мол, вторую видеокарту и отдайте ее на растерзание физики. Но условия были больно жесткими. В SLI можно было ставить только идентичную первой плату, и если у вас уже стояла GTX 285, то за вторую такую карту приходилось отдать еще 12 000 рублей, что было слишком дорого за ящики и юбочки.

Время перемен

Технология NVIDIA Multi-Card — это, условно, разновидность SLI. С ее помощью можно объединить GTX 285 со старой GeForce 8800 GT или GTX 275 c GeForce 9500 GT, не используя дополнительные мостики или дорогие материнские платы. Порядок действий простой: установить более мощную плату (GTX 285, GTX 275 и т.д.), проинсталлировать драйверы, выключить компьютер, вставить вторую видеокарту. Windows сама подхватит еще одну плату и подберет драйверы под нее. От вас потребуется только войти в NVIDIA Control Panel и выбрать, какая из плат будет отвечать за PhysX.

Для тестов мы взяли сразу пять плат MSI: GeForce 9500 GT и 9600 GT, GeForce GT 240, GT 220 и 210. Все эти карты стоят сегодня меньше 3500 рублей (которые вполне можно заплатить за достоверную физику), и нас интересовало, насколько они потянут PhysX. Чтобы не упираться в графику, в связку к ним мы установили GeForce GTX 285. Естественно, мы также проверили ее в работе без аппаратного ускорения и с включенным PhysX.

Компьютер для тестов собрали мощный. Материнская плата — MSI X58 Platinum, процессор — Intel Core i7 920, память — три планки Kingston HyperX DDR3-1600 по 2 Гб. Сверху поставили Windows Vista 64-bit и скачали последние драйверы ForceWare 195.62. Для оценки производительности мы использовали пару игр — «Анабиоз: Сон разума» и Batman: Arkham Asylum — и специальный бенчмарк NVIDIA PhysX FluidMark. В играх мы выкручивали на максимум не только физику, но и общее качество графики.

Один хорошо, а двое лучше

Центральный процессор не справился с расчетами PhysX SDK — это стало ясно сразу. Даже наш мощный Core i7 920 не смог вытянуть ни одну из игр на приемлемый уровень производительности — посмотрите таблицы, везде не больше пятнадцати кадров. После переключения PhysX на GeForce GTX 285 ситуация кардинально изменилась — игры пошли на приличной скорости. Но по сравнению с тестами со включенным PhysX без поддержки второй видеокарты все равно получалось мало: без PhysX на GTX 285 набегало 144 кадра, с PhysX — уже 58.

Мы стали подбирать идеальную плату для расчетов физики, прогнали довольно много тестов и выяснили, что далеко не каждая видеокарта способна работать с PhysX: слишком большие объемы расчетов. Мало того, неподходящая плата и вовсе может стать узким местом всей системы. Сравните результаты! Первая же видеокарта, GeForce 210, не справилась со своими обязанностями и затормозила работу: по сравнению с тестом с одной GTX 285 мы потеряли в Batman 27 кадров в секунду. Но начиная с GeForce 9500 GT показатели поползли вверх. Несмотря на то, что абсолютная производительность PhysX по сравнению с одиночной GTX 285 ниже в три раза (см. результат FluidMark), в играх такая связка прибавляет по 10 кадров в секунду. То же можно сказать и про GeForce 9600 GT — прирост почти 40%. А вот карты новой серии, GT 220 и GT 240, вели себя неоднозначно. В игре «Анабиоз: Сон разума» результаты были на уровне одиночной GTX 285, а в Batman: Arkham Asylum производительность увеличилась на 37%.

Можно ли поставить две разные видеокарты на компьютер

Многих пользователей часто волнует вопрос, как установить две видеокарты на один компьютер? Причём, неважно, будет ли это карты NVidia или AMD. Необходимость подобной операции чаще всего заключается в увеличении быстродействия компьютера, в частности его видеосистемы.

Поскольку видеоадаптеры, по сути, являются математическими процессорами, работающими с большим количеством операций с плавающей точкой, для центрального процессора нет никакой разницы, куда ему отправлять данные для обработки – в одно внешнее устройство или в два. Теоретически, таких устройств может быть сколько угодно (их число ограничено лишь количеством слотов расширения PCIE, в которых могут устанавливаться видеоадаптеры). То есть, две видеокарты в одном компьютере – это ещё не предел.

Читать еще:  Как удалить видеокарту

При таком подключении даже типы карт (а при правильном подходе к вопросу, даже их производители) могут быть не одинаковые. Главное, чтобы с программной точки зрения они были совместимы. Но, поскольку «общение» программы с «железом» карты осуществляется через стандартизованные библиотеки функций (DirectX, OpenGl и т.д.), то фактически нет никаких ограничений для использования нескольких видеоустройств в одной системе.

Необходимость подключения двух видеокарт на одном ПК

Основной причиной, по которой пользователь устанавливает две или более видеокарты в свой компьютер, является увеличение быстродействия, либо желание играть в 3D-игры на сверхвысоких разрешениях.

Давно известно, что установить 2 видеокарты на 1 материнку экономически невыгодно. Видеосистема в 2 раза быстрее будет стоить в 1.5-1.8 раза дороже, а две одинаковых карты дадут выигрыш в быстродействии не на 100%, а на 50-80%. Однако, пользователе идут на этот шаг, например, в том случае, если вторая карта куплена на вторичном рынке по меньшей цене.

Другая причина – увеличение количества одновременно подключаемых к ПК мониторов. Обычно, одна карта способна работать с 2-3 мониторами. Редко какие модели поддерживают 4-6 мониторов. Если же число дисплеев больше 6, то без дополнительных адаптеров не обойтись.

Подключение двух видеокарт к одному компьютеру

Аппаратно поставить 2 видеокарты на ПК несложно: следует установить их в разные слоты PCIEx-16, подключить их к дополнительны шинам питания (если они предусмотрены) и соединить карты при помощи специального шлейфа (SLI для NVidia или CrossFire для AMD).

Программные настройки для поддержки такого режима работы делаются в программе-драйвере, работающем под ОС Windows. Обычно в панели дополнительных настроек необходимо указать, что карты будут работать совместно.

Особенности подключения двух GPU к одному ПК

Основные особенности при таком подключении состоят в подборе карт, которые будут соответствовать следующим требованиям:

1. Желательно, чтобы они были одного производителя и одного поколения (это необходимо для совместимости драйверов, чтобы обеспечить синхронность работы устройств).

2. Мощность БП должна быть достаточной для обеспечения обеих карт питанием.

3. Слоты PCIE на материнке должны быть расположены так, чтобы карты в них поместились.

Важно! Размер системы охлаждения современных видеоадаптеров может быть достаточно большим, поэтому их часто располагают не в соседних слотах, а через один. Впрочем, все материнки, поддерживающие подобный режим работы изначально проектируются с большими расстояниями между этими слотами.

Специальные соединители

Для синхронизации работы двух видеоадаптеров используются специальные соединительные переходники: SLI- или CrossFire-адаптеры. Они используются для подключения видеоадаптеров непосредственно друг к другу. Разъём для подключения расположен в верхней части платы видеоконтроллера.

Важно! Эти переходники имеют другое название, «мосты». Они представляют собой гибкие шлейфы, имеющие разъёмные гнёзда на своих концах. Следует помнить, что данные устройства не совместимы друг с другом.

Адаптеры SLI подключаются ко всем платам одинаково, в одни и те же места. Разъём CrossFire состоит из двух разных частей (условно – передней и задней); при его подключении передняя часть разъёма карты, стоящей первой, подключается на «заднюю» часть второй карты. В свою очередь, «передняя» второй – на «заднюю» третьей и т.д. Именно поэтому подключать более 3-х карт фирмы АМД для совместной работы гораздо проще, чем карты NVidia.

SLI-видеоадаптер

Под этим термином понимают не только способ соединения двух видеоадаптеров при помощи разъёма, но общий принцип объединения нескольких независимых видеоустройств, каждое из которых может работать самостоятельно (например, два видеочипа на одной карте).

Две разные модели видеокарт на одном компьютере

Разные видеокарты NVidia (как и AMD) на одном компьютере могут работать, однако, при этом они будут выводить информацию на разные дисплеи. Обработка одной задачи (то, есть увеличение быстродействия, например, в какой-то игре) будет невозможной.

Железный эксперимент: SLI-массив NVIDIA GeForce GTX 1080 в 4K-разрешении

Оглавление

Как вам такие теги: #4K, #GTX1080, #60FPS? Согласитесь, звучит заманчиво. Как показало тестирование, одному Pascal-флагману тяжело соответствовать этим «хотелкам». Здесь нужна артиллерия потяжелее. В 2016 году полагаться приходится лишь на связки видеокарт, конкретно — сладкую парочку из GeForce GTX 1080. К тому же с появлением субфлагманов NVIDIA несколько пересмотрела принцип работы технологии SLI.

Железный эксперимент: SLI-массив NVIDIA GeForce GTX 1080 в 4K-разрешении

Новые видеокарты — новый SLI

Начнем с того, что «зеленые» отказались от популяризации массивов 3-Way SLI и Quad SLI. Связки из трех/четырех видеокарт работать будут, но лишь в парочке бенчмарков и игр. И только по запросу специального программного ключа. Логично, что своеобразный карт-бланш дали оверклокерам. Им в погоне за дополнительными «попугаями» нужнее. Всем остальным NVIDIA разрешает пользоваться благами «обыкновенной» технологии SLI.

В AMD все эти мостики считают атавизмом, в NVIDIA — зарабатывают

Обе видеокарты — GeForce GTX 1070 и GeForce GTX 1080 — оснащены двумя пинами для подключения мостиков. Сам разъем не изменился, поэтому с адаптерами совместимы старые гибкие шлейфы. Однако, по словам NVIDIA, их пропускной способности достаточно лишь для разрешений Full HD и WQHD. В остальных случаях лучше использовать новый жесткий коннектор. Повторюсь, так советуют «зеленые». Дело в том, что SLI-контроллер отныне работает на увеличенной до 650 МГц частоте. И это новшество вроде бы влияет на производительность связки в высоких разрешениях.

Доказательством служит самостоятельный эксперимент NVIDIA, который проводился в игре Shadow of Mordor в разрешении 11520х2160 (три 4K-монитора). Как видите, фреймрейт, выраженный в миллисекундах, у SLI-массива с новым HB-мостиков заметно стабильнее. Следовательно, картинка получается более плавной.

Сравнение фреймрейта SLI-связки с разными мостиками

Новый мостик продается отдельно. Необходимо заранее рассчитать, на каком расстоянии друг от друга расположатся видеокарты. Модель EVGA PRO SLI BRIDGE HB стоит 40 долларов США. Она оснащена подсвечиваемым логотипом, да и вообще стилизована под видеокарты этого американского производителя.

Пример HB-мостиков от EVGA

Все это, конечно, замечательно, только вот коллеги из Techpowerup разницы в быстродействии между старым и новым мостиками не обнаружили. В том числе и в разрешении Ultra HD. Поэтому гнаться за HB-коннектором и доплачивать сверху 40 «баксов» есть смысл только в одном случае: чтобы было красиво. При прочих раскладах заполучите два обыкновенных мостика необходимой длины — и будет вам счастье. Чем я, кстати, и воспользовался.

«Это что еще за конструктор LEGO?» — вопросил один из редакторов Ferra

Palit GeForce GTX 1080 GAMEROCK

Ко мне попала парочка нереференсных GeForce GTX 1080 от Palit. Версия GAMEROCK Premium Edition (NEB1080H15P2-1040G) хвастает и заводским оверклоком, и более эффективной системой охлаждения, и даже меньшей стоимостью, если сравнивать ее с Founders Edition. Что касается частот, то чип разогнан с 1607 МГц до 1747 МГц, а память — с 2500 МГц до 2628 МГц. Нехилый буст, даже больше, чем у MSI GeForce GTX 1080 GAMING X 8G, например.

Palit GeForce GTX 1080 GAMEROCK Premium Edition

Что касается системы охлаждения, то в основе кулера лежат два 100-мм вентилятора и радиатор с пятью теплотрубками разного диаметра. Печатная плата получила более качественную компонентную базу. Так, для работы графического процессора приходится восемь фаз вместо пяти у Founder Edition. К видеокарте необходимо подключить один 6-пиновый и один 8-пиновый коннекторы питания.

Читать еще:  Подойдет ли монитор к видеокарте

Единственный недостаток кулера — это его большая ширина. Видеокарта в итоге занимает три слота расширения.

Кастом от Palit оказался хорош

Работает GAMEROCK Premium Edition очень даже тихо. Без нагрузки вентиляторы не вращаются, но как только температура GPU достигает отметки в 57 градусов Цельсия, то «карлсоны» разгоняются до 950-1000 об/мин. Под нагрузкой акселератор работает очень тихо, шумомер зарегистрировал 38,5 дБ на расстоянии одного метра от тестового стенда. Максимальная температура чипа в FurMark — 69 градусов Цельсия.

Palit GeForce GTX 1080 GAMEROCK Premium Edition, мониторинг показателей

Ниже приведены результаты одной GAMEROCK Premium Edition в сравнении с референсом Founders Edition и MSI GeForce GTX 1080 GAMING X 8G в Heaven, GTA V и «Ведьмак 3: Дикая Охота». Дополнительные фотографии видеокарты — в основной галерее.

Результаты тестирования Palit GeForce GTX 1080 GAMEROCK Premium Edition

Тестирование

  • Процессор:Intel Core i7-4790K@4,5 ГГц
  • Процессорный кулер: Noctua NH-D15
  • Материнская плата: MSI Z97 MPOWER
  • Накопитель:SSD Patriot Blast 480 Гбайт
  • Оперативная память: DDR3-2400, 2x 8 Гбайт
  • Блок питания: Corsair HX850i, 850 Вт
  • Периферия: монитор LG 31MU97
  • Операционная система: Windows 10 х64
  • Версии драйверов: NVIDIA — 368.39; AMD — 16.5.2.1

Думаю, дополнительно разъяснять, почему SLI-массив из GeForce GTX 1080 актуален именно в разрешении 4K, нет необходимости. Я уже выяснил, что одной такой видеокарты за глаза хватает в Full HD и даже WQHD. Именно поэтому в пару к флагману «зеленых» подойдет далеко не каждый центральный процессор.

SLI «завелся» без каких-либо проблем

Видеокарты спокойно «завелись» вместе. После установки последней (на момент тестирования) версии драйвера оба адаптера сразу же определились.

Настройки SLI в панели управления NVIDIA

Тестирование проводилось по той же методике, по которой я испытывал GeForce GTX 1080 и GeForce GTX 1070. Список игр — тот же. Во всех приложениях выставлялось максимальное качество графики, но сглаживание в 4K-разрешении отключалось. За ненадобностью. Скриншоты с настройками расположены .

Начнем с синтетики. У меня есть база результатов, в которую вошли дуэт GeForce GTX TITAN X (эксперимент на эту тему) и даже триада GeForce GTX 980 (обзор системы от GIGABYTE). Heaven отлично оптимизирован под SLI, поэтому количество кадров масштабируется пропорционально увеличению в системе графических процессоров. Только вот бенчмарки — это бенчмарки, в них не играют.

Пара GTX 1080 даже круче трех GTX 980

И все же две GeForce GTX 1080, объединенные двумя гибкими «нелегитимными» мостиками, опередили всех. Правда, до среднего показателя в 60 FPS не добрался никто, включая связку стоимостью в 1400 долларов США.

Результаты тестирования Palit GeForce GTX 1080 SLI

Перейдем к играм. Начнем с хорошего. Из 19 приложений в восьми (42,1%) связка из двух GeForce GTX 1080 показала заветные 60 кадров секунду. При этом я говорю о минимальном фреймрейте! То есть и в третьем «Ведьмаке», и в Far Cry 4, и даже в Assassin’s Creed Syndicate можно включить вертикальную синхронизацию и наблюдать стабильные 60 FPS. Все время.

Результаты тестирования Palit GeForce GTX 1080 SLI. Играбельно полностью

Есть игры, в которых SLI работает, но минимальный фреймрейт оказался ниже отметки в заветные 60 FPS. Впрочем, в 4K в таких играх, как Fallout 4, XCOM 2, Dark Souls III, Call of Duty: Black Ops III и Tom Clancy’s The Division, есть вполне играбельное количество кадров в секунду. Консольщики подтвердят, что 30 FPS — это комфортный показатель.

Лирическое отступление. На днях Microsoft представила игровую приставку Project Scorpio, которая выйдет только в конце 2017 года. Ее пиковая мощность — 6 ТФЛОПС. Для сравнения: только у одной GeForce GTX 1080 8,9 ТФЛОПС, а в эксперименте рассмотрены две такие видеокарты. В Microsoft рассказывают про игры в 4K-разрешении (хотя по факту не могут толком обуздать 1080p со своей Xbox One), но результаты SLI-массива перед вашими глазами. Вы же понимаете, что это будет за гейминг? В лучшем случае с 30 FPS. В самом лучшем случае.

В Dark Souls III, как известно, включен лимит по частоте кадров. Поэтому разницу между одной и двумя GeForce GTX 1080 лучше считать по минимальному FPS. Call of Duty: Black Ops III и Fallout 4 отработали на четыре с плюсом. Мне непонятен результат в том же XCOM 2. Видно, что SLI в этой игре работает, но просадки все равно есть. Это заметно портит общую картину.

На главную

Проседание FPS при использовании двух виде.

SiGo 14 сен 2012

В мать воткнуть 2 карты MSI GTX 460 Hawk.
На версии 0.7.5 с фпс никаких проблем не испытываю, 60-120 стабильно.
SLI сейчас может и не работает, но точно хуже не делает.

Запустил тест, на макс настройках очень сильно упал фпс (до 10-15 в секунду).
Отключил SLI, фпс поднимается минимум в 2 раза.

Прикрепил питон, хз чем он поможет.
Какой реплей нужен, не понимаю, падение фпс на любых картах, при разных условиях.

Прикрепленные файлы

  • DxDiag.txt28,3К
  • python.log71,63К

Jakakull 14 сен 2012

Ну и чисто мое мнение по поводу слая, имхо слай имеет смысл только из топовых карт. ТС, если есть возможность меняй 2 печки 460 на например HD 7970, 7870 или новые топы зеленых серии 6**

123_123_1 14 сен 2012

SiGo 14 сен 2012

Jakakull (14 Сен 2012 — 10:42) писал:

SiGo (14 Сен 2012 — 10:38) писал:

SwanTLT 14 сен 2012

Jakakull 14 сен 2012

SiGo (14 Сен 2012 — 10:47) писал:

Ну как бы под спойлером описаны ситуации в которых слай может быть проигрышным вариантом, к тому же как заметили выше это может и не баг, возможно проблема в драйверах и в будущем после официального релиза 080, зеленые оптимизируют дрова и все станет так как должно быть.

Попробуйте изменить сглаживание

SiGo 14 сен 2012

SwanTLT (14 Сен 2012 — 10:51) писал:

почему сразу баг?вы что,специалист?там ясно русским по белому написано

введен новый рэндер.что еще хотете услышать,это в новинку.у меня также,на старом рэндере фпс оптимальный,а на тесте проседания.не конючю.зашел в настройки,снизил некоторые параметры и не парюсь.

Канючу (через букву «а»)?
Я отключил SLI и не парюсь (не снижая некоторые параметры), а тут пишу, чтоб узнать массовость этой проблемы и что по этому поводу думают разработчики.
А вы зачем сюда зашли? Чтоб тяфкнуть свою «кОнючу»?

И почему это не может быть багом, если на предыдущей версии что включай, что отключай SLI, фпс не меняется, а тут при включении он у меня падает в 2 раза?
Сколько еще людей будут отключать SLI, чтоб поднять фпс? Они так же будут «уменьшать параметры и не кОнючить», а это ненормально.

ZippeR 14 сен 2012

SiGo 14 сен 2012

Jakakull (14 Сен 2012 — 10:59) писал:

Ну как бы под спойлером описаны ситуации в которых слай может быть проигрышным вариантом, к тому же как заметили выше это может и не баг, возможно проблема в драйверах и в будущем после официального релиза 080, зеленые оптимизируют дрова и все станет так как должно быть.

Попробуйте изменить сглаживание

SiGo 14 сен 2012

I_I_IATYH (14 Сен 2012 — 11:11) писал:

Ссылка на основную публикацию
ВсеИнструменты
Adblock
detector