Меню Рубрики

Установка разных видеокарт amd и nvidia

Видеокарты Nv >В начале текущего года мы писали об одном из наиболее интересных решений в интерфейсе программирования DirectX 12, а именно о возможности объединения ресурсов совершенно различных графических процессоров, независимо от их марки. В настоящее время применяется конфигурации SLI и CrossFire, которые ограничивают пользователей в использовании двух видеокарт с GPU той же марки и поколения. DirectX 12 должен устранить это ограничение, а эффекты взаимодействия карт Radeon и GeForce протестировано уже в тесте Ashes of The Singularity, который как раз использует этот API.

Полностью асинхронный режим взаимодействия процессоров позволяет на одном компьютере использовать, например, видеокарты GeForce и Radeon, которые в играх, использующих DirectX 12 могут совместно обрабатывать 3D графику. В новом интерфейсе программирования приложений, доступном для разработчиков игр, появилась возможность конкретного назначения отдельных задач для любого графического процессора. Стоит отметить, что это касается не только специализированных видеокарт. Полностью асинхронный режим multi-GPU позволяет распределять задачи с постановкой также интегрированным системам графики, которые можно найти как в процессорах Intel, так и AMD. Благодаря DirectX 12, теоретически, нет никаких препятствий, чтобы заставить работать одновременно, например, «интегрированное» видеоядро Intel с видеокартой GeForce. Конечно, оба устройства должны быть совместимы с DirectX 12.

Стоит отметить, что полностью асинхронный режим multi-GPU в DirectX 12 может работать двумя способами. Первый способ работает, если в компьютере есть два графических процессора или графические карты с одинаковой или очень близкой спецификацией. Это решение аналогично Nvidia SLI и AMD CrossFire, хотя, важно и то, что здесь любое количество видеокарт может быть объединено в одну графическую подсистему, в которой все растет — например графическая память. Это возможно потому, что вместо того, чтобы использовать метод AFR (Alternate Frame Rendering), в DirectX 12 используется когда-то немного забытая техника SFR (Split Frame Rendering). Чем они отличаются? Например, если в компьютере есть две видеокарты, в режиме AFR каждая из этих карт поочередно отображает весь кадр анимации. В режиме SFR каждый кадр делится на части. Метод AFR проще в реализации, но проблема с ним заключается в том, что он требует, чтобы в памяти gpu обеих видеокарт были зеркальные данные — в обоих должно быть то же самое. Режим SFR, если он хорошо реализован, позволяет, чтобы подсистемы графической памяти обоих карточек можно было сложить, что каждая из карт может в своей графической памяти хранить только те данные, которые нужны для визуализации своей части отдельных кадров.

Второй способ работы в полностью асинхронном multi-GPU-это режим, в котором вы можете использовать два совершенно разные графические процессора. В этом режиме разработчик игр имеет полный контроль над тем, как данные передаются между графическими процессорами. Этот вариант можно использовать только для рендеринга 3D-графики дискретной видеокартой и интегрированным графическим процессором. В такой ситуации каждый GPU рассматривается как независимая графическая подсистема. Разработчики могут принять решение о том, чем каждая из видеокарт будет заниматься.

Нельзя забывать о том, что этот режим переключения графических подсистем не является абсолютно новым. Первый раз его использовала компания AMD в своем собственном, низкоуровневом интерфейсе программирования приложений Mantle. Этот режим можно было использовать в игре Civilization: Beyond Earth. В этой игре команда компании Firaxis, использовала технику SFR для интерфейса Mantle, в то время как реализация, использующая интерфейс DirectX 11, использует технологии AFR.

Как уже говорилось выше, доступны в DirectX 12 способы объединения GPU с использованием технологии SFR имеют свои серьезные преимущества, но в тоже время на разработчиков игр падает наибольшая ответственность за форму реализации этого решения, в то время как уменьшается значение разработки оборудования и команд, отвечающих за разработку драйверов.

Команда Anandtecha решила проверить как в тесте Ashes of The Singularity работает техника в полностью асинхронном режиме работы GPU на практике. Для тестов были использованы различные графические карты Nvidia GeForce и Radeon, при разных разрешениях. Доступные в настоящее время тесты показывают, что лучше если основной графической картой в системе является AMD Radeon, а Nvidia GeForce используется как второстепенная карта. Так настроена платформа в Ashes of The Singularit показала себя лучше, чем обратная конфигурация. Обращаем ваше внимание на то, что это первое такого рода испытание, и не стоит сразу делать окончательные выводы, так как стоит подождать еще игры, поддерживающие DirectX 12, в которых то же самое решение будет использоваться и можно будет выполнить сравнительные тесты. Как мы писали ранее, много зависит от того, какую технику взаимодействия различных GPU выберут разработчики.

Читайте также: Новости Новороссии.

источник

Преимущества и недостатки двух разных видеокарт на одном компьютере

Установка двух или более видеокарт, работающих совместно, обеспечивает улучшенную производительность видео, 3D и игр по сравнению с одной видеокартой. Как AMD, так и Nvidia предлагают решения для работы с двумя или более видеокартами, но чтобы решить, стоит ли принимать это решение, нужно рассмотреть требования и преимущества.

Требования к системе с двумя видеокартами

Чтобы использовать две видеокарты, вам необходимо базовое оборудование, AMD или Nvidia для запуска их графических технологий. Графическое решение AMD — фирменный CrossFire, а решение Nvidia — SLI. Есть способы использовать два разных бренда вместе. Для каждого из этих решений вам нужна совместимая материнская плата с необходимыми графическими слотами PCI Express. Без одной из этих слотов в материнской плате, использование технологии двух карт невозможно.

Читайте также:  Установка автономок на грузовики

Преимущества

Есть два реальных преимущества запуска нескольких видеокарт. Основная причина — повышенная производительность в играх. При наличии двух или более графических карт, которые совместно используют функции для рендеринга 3D-изображений, компьютерные игры могут работать с более высоким ФПС и более высоким разрешением и с дополнительными фильтрами. Эта дополнительная емкость может значительно улучшить качество графики в играх. Конечно, многие современные видеокарты могут воспроизводить игру с разрешением до 1080p. Настоящим преимуществом является возможность управлять играми с более высоким разрешением, например на дисплеях 4K, которые имеют разрешение в четыре раза, или управлять несколькими мониторами.

Другое преимущество — для людей, которые хотят обновиться позже, не заменяя свою видеокарту. Купив видеокарту и материнскую плату, способную работать с двумя картами, вы можете добавить вторую графическую карту позже, чтобы повысить производительность без необходимости извлекать существующую видеокарту. Единственная проблема с этим планом состоит в том, что циклы видеокарты выполняются примерно каждые 18 месяцев, а это значит, что совместимую карту может быть трудно найти, если вы не собираетесь приобретать ее в течение двух лет.

Недостатки

Большим недостатком двух видеокарт в одном компьютере является стоимость. Поскольку топовые видеокарты уже стоят 500 долларов и более, многим потребителям трудно позволить себе вторую. Хотя ATI и Nvidia предлагают более дешевые карты с поддержкой двух карт, зачастую лучше потратить одинаковое количество денег на одну карту с одинаковой или иногда лучшей производительностью, чем на две недорогие.

Другая проблема заключается в том, что не все игры выигрывают от нескольких видеокарт. Эта ситуация значительно улучшилась с тех пор, как были представлены первые настройки с двумя картами, но некоторые графические движки по-прежнему плохо справляются с двумя видеокартами. Фактически, некоторые игры могут показывать небольшое снижение производительности по сравнению с одной видеокартой. В некоторых случаях происходит поддергивание, из-за которого изображение видео выглядит прерывистым.

Две видеокарты AMD Radeon подключеные через кабель DVI

Современные видеокарты очень энергоемки. Наличие двух из них в системе может почти удвоить количество потраченой эллектроэнергии, необходимое для их запуска в тандеме. Например, для правильной работы одной видеокарты высокого класса может потребоваться блок питания на 500 Вт. Наличие двух таких же карт может потребовать около 850 Вт. Большинство настольных компьютеров не оснащены такими мощными блоками питания. Обратитесь к мощности вашего компьютера и требованиям, прежде чем покупать более мощное оборудование.

Преимущества производительности в среде с двумя картами зависят от других компонентов компьютерной системы. Даже с двумя графическими картами самого высокого класса процессор нижнего уровня может регулировать объем данных, которые система может предоставить графическим картам. В результате двойные видеокарты обычно рекомендуются только в высокопроизводительных системах.

Кто должен установить две видеокарты?

Для среднего потребителя запуск двух видеокарт не имеет особого смысла. Общие затраты на материнскую плату и видеокарты, не говоря уже о других основных аппаратных средствах, которые необходимы для обеспечения достаточной скорости графики, являются непомерно высокими. Однако это решение имеет смысл, если вы хотите запускать игры на нескольких дисплеях или в экстремальных разрешениях.

источник

Объединение видеокарт Radeon и Nv >

Опции темы

Как известно энтузиасты смогли обойти ограничение NVIDIA, запрещающее работу видеокарт GeForce в качестве ускорителей PhysX в системах, где присутствуют видеокарты Radeon. Узнать по поводу отношения NVIDIA к существованию данного патча, можно на страницах нашего сайта, а текущая новость посвящена тестированию связки ATI Radeon HD 5870 и NVIDIA GeForce GT 220 в игровых тестах, использующих расширенные эффекты PhysX.

Участник форума Coolaler по прозвищу Soothepain провёл серию тестов с целью предоставить исчерпывающий ответ на два вопроса: «действительно ли работают конфигурации Radeon-графика и GeForce-физика?» и «насколько хорошо справляется GeForce GT 220 с задачей специализированного ускорителя PhysX?».

Тестовая система представляла собой следующую конфигурацию:
=4-ядерный процессор Intel Core i7 975 Extreme.
=6 Гб оперативной памяти.
=Материнская плата EVGA на базе чипсета X58.
=Операционная система Windows 7 RC7100 64-бит.

Для всестороннего анализа были проведены три различных серии тестов:
=GeForce GT 220 обрабатывала и графику и физику.
=Процессор обрабатывал физику, а Radeon HD 5870 — графику.
=Radeon HD 5870 отвечала за визуализацию, а GeForce GT 220 обеспечивала обработку физики (применялась заплатка GenL Mod).

Тестирование проводилось в 4 игровых проектах, последний из которых — Batman Arkham Asylum с максимальными настройками качества эффектов PhysX.

Как видно, расширенные физические эффекты являются очень сложной задачей для одного из самых мощных на сегодняшний день процессоров, что выступает ограничением для производительности видеокарты Radeon HD 5870. При этом видеокарта начального уровня, GeForce GT 220, легко справляется с непосильной для процессора задачей, занимаясь также ресурсоёмкой визуализацией.

Читайте также:  Установка видеозвонок в квартиру с установкой

При работе же связки HD 5870 и GT 220 достигается наилучший результат, когда каждый компонент исполняет свою задачу: процессор — передаёт данные и распределяет нагрузку между картами, GT 220 занимается физическими расчётами, а HD 5870 — графическими.

«PhysXInfo»
Константин Ходаковский

Я использовал другую конфигурацию видеокарт. ATI Radeon HD 5850 (1 Гб) и ASUS ENGTX 275 (896 Мб). Естественно Радеон я использовал исключительно под графику (и в играх на всю обработку графики ее хватает за глаза), а Нвидиа под физику и графику, но т.к. Радеонка сама успешно справлялась с графической составляющей, от 275-ой требовалась только обработка PhysX.

В моем рассказе нет результатов из бенчмарк-замерителей, но «на глаз» производительность при максимуме графики и физики в Dark Void поднялась на 200-250%

Далее идет мануал по установке такой гибридной системы. Ну, во-первых, я бы советовал вам использовать МОЩНУЮ Радеон, начиная с 38** серии т.к. на ее плечи должна лечь основная нагрузка по обработке графики.
В качестве PhysX ускорителя желательно использовать NVidia начиная с 86** серии для получения ощутимых результатов.
ВНИМАНИЕ. Часть плат Нвидиа НЕ поддерживают технологию PhysX. Если у вас именно такая видеоплата НЕ ПЫТАЙТЕСЬ строить гибрид-систему!

Начнем-с.
Следуя простой инструкции, собираем связку ATI + NVIDIA:

1. Установка видеокарт. В первом слоте PCI-Express х16 установить карту от ATI, в следующем установить карту от NVIDIA.

2. Установить драйверы для карты ATI (желательно последние), далее возможны два варианта:

после перезагрузки установить модифицированные драйверы на карту NVIDIA (32-бит/64-бит).

после перезагрузки установить оригинальные драйверы NVIDIA не ниже 190 версии (выше можно ) на карту и, отказавшись от перезапуска Windows установить последние библиотеки PhysX, т.к. при обнаружении в системы видеокарты от ATI их установка вместе с драйвером блокируется. Далее, используя модификатор PhysX-mod, пропатчить библиотеки оригинальных драйверов.
ВНИМАНИЕ. Версия модификатора PhysX mod напрямую зависит от версии установленных вами драйверов Нвидиа. Так как последними являются драйвера 258.96 вам нужна 1,04ff версия PhysX mod.
При распаковке ваш антивирус может ругатся, проигнорируйте его.
В архиве лежит *.exe, воспользуйтесь им. У вас появится окошко. В нем внизу-слева нажмите Apply.
Далее в папке Extras воспользуйтесь PhysX-HwSelection-set-GPU.cmd ( внимательно смотрите название и не путайте GPU и CPU ).

Перезагружайтесь.
Для проверки того, что всё успешно настроено, нужно запустить FluidMark и убедиться, что PhysX реализуется аппаратно.

Как видите, в моем случае, разница в 2 в графике и в 3,5 раза в физике при максимальных настройках.
И главное! Сей мануал используйте на свой страх и риск)

источник

Какая видеокарта лучше AMD или Nv >

Конкуренция на рынке видеоадаптеров между двумя крупнейшими производителями – компаниями AMD и NVidia длится уже почти 20 лет. И всё это время не утихают споры на тему, какая видеокарта и от какой компании лучше.

Внимание! На самом деле, фирма AMD в это противостояние включилась в 2007 году, когда приобрела компанию ATI, занимавшуюся выпуском 3D ускорителей.

За этот период пальма первенства переходила от одной компании к другой несколько раз. Причём лидерство касалось не только вопросов производительности или эффективности тех, или иных решений, но зачастую и каких-то дополнительных функций, обеспечивающих более комфортные условия для обыкновенных пользователей.

В компьютерной среде компанию NVidia называют «зелёными», а AMD – «красными». Такая шутливая цветовая дифференциация не имеет под собой никакой серьёзной составляющей – просто логотипы компаний имеют соответствующие цвета.

Попытаемся разобраться в вопросе, что же лучше для обычного пользователя – адаптеры от AMD или Nvidia.

Общее сравнение видеокарт для ноутбуков и ПК от nvidia и radeon

Сравнение видеокарт nvidia и radeon по каким-то отдельным параметрам будет не совсем корректным. Видеоадаптер является достаточно сложным устройством, все характеристики которого так или иначе влияют на его привлекательность для покупателя.

Поэтому любая сравнительная характеристика карт будет представлять собой множество оговорок и условностей. Даже в таком, казалось бы, универсальном методе проверки быстродействия, как игровые тесты, наблюдаются явные неоднозначности, поскольку в разных приложениях карты показывают совершенно разные результаты. Да что говорить о приложениях, даже если разные версии драйверов способны представить результаты быстродействия с точностью до наоборот.

В настоящее время все последние поколения видеокарт, как «красных» так и «зелёных» обладают набором абсолютно одинаковых функций, используют одинаковые процедуры обработки изображения и даже одинаково конфигурируют мониторы!

Стоит только кому-то изобрести что-то новое, как оно тут же появляется у конкурента. Так было и с Eyefinity, и с DirectX-12, и с API Vulcan, да и практически со всеми технологиями, применяемыми в современном выводе изображения.

Когда NVidia придумали концепцию CUDA, заставившую графические процессоры переключиться исключительно на математику, AMD меньше, чем за полгода создали свои унифицированные шейдеры, которые, по сути, были теми же самыми CUDA, хоть и с меньшей производительностью, но на чипе их было больше…

Читайте также:  Установка гидрораспределителя на газ 3307

Ситуация на рынке видеокарт для ноутбуков практически полностью повторяет картину на рынке «десктопных» решений. Разница заключается лишь в меньшем быстродействии мобильных версий видеоадаптеров. При этом уменьшение быстродействия в связи с переходом в мобильный сегмент у обоих производителей происходит в одинаковой степени, поскольку законы физики едины для всех.

Совместимость

С аппаратной точки зрения все карты amd или nvidia совместимы с любыми устройствами, входящими в состав ПК. Стандартные точки входа (адреса в памяти, порты и прерывания) у всех видеокарт одинаковые с момента появления технологи PnP, поэтому никаких конфликтов в аппаратной части у видеокарт нет и быть не может.

Мало того, карты NVidia и AMD могут прекрасно работать в одном компьютере и при соответствующем программном обеспечении совместно выполнять одну задачу.

Важно! Карты обоих производителей используют стандартный интерфейс PCIE, имеющий в настоящее время версию 3.0

Энергопотребление и тепловыделение

В последнее время продукция AMD является более «горячей». Средние мощности видеокарт во всех ценовых сегментах у них выше на величину от 10 до 30%. Объясняется это в первую очередь более крупным техпроцессом (14 нм а то и 28 нм у серии AMD Fury в сравнении с 12 нм у RTX от NVidia).

Если AMD идёт по проторенной дорожке GCN, где рост степени интеграции имеет примерно одинаковый темп, то две радикальных смены архитектуры у NVidiа позволили существенно снизить энергопотребление.

Тесты производительности

Тесты производительности видеокарт одинаковых сегментов у конкурентов примерно одинаковые. Всегда найдётся такая модель одной фирмы, у которой есть свой «аналог» у конкурента.

Эти видно даже на примере последнего поколения. Например, RTX 2070, имеющая производительность в 7500 ГФлопс имеет прямого «визави» в виде R9 FuryХ. Однако, к чести 2070 можно сказать, что она обладает современными технологиями трассировки лучей, а модели Fury уже почти 4 года. Но на момент её выхода у NVidia не было вообще ничего подобного. И так далее…

Каждое последующее поколение чем-то незначительно отличается от предыдущего и не всегда производительность является решающим фактором.

Одной из интересных характеристик, по которым оценивают видеоадаптеры, является процентное соотношение производительности компонентов к цене для типичного реального использования. То есть, насколько эффективен каждый потраченный на приобретение видеокарты доллар (или рубль) в пересчёте на единицу производительности.

И здесь наблюдается если не подавляющее, то уверенное преимущество продукции от «красных». В «топ-тен» рейтинге самых оптимальных с точки зрения финансовых затрат карт представители AMD занимают 6 мест из 10. Тройка лидеров распределилась следующим образом:

  • AMD Vega 56.
  • AMD RX 580.
  • Nvidia RTX 2060.

Примечательным является тот факт, что первые две позиции существуют на рынке уже около двух лет, а 2060 является новинкой от 15 января 2019 года. Мало того, RX 580 – это вообще устаревшая архитектура GCN 1.3

Налицо явный прокол маркетологов «зелёных», не захотевших немного снизить цену на свой самый новый товар для увеличения его объёмов продаж.

Размер, внешний вид и технологии видеокарты

Технически карты AMD и NVidia производятся по абсолютно одинаковым методикам и технологическим условиям. Различия в производстве относятся только к способу изготовления чипа.

Размеры подложек видеокарт имеют, как правило, 3 варианта исполнения:

  • Полноразмерная. Длиной до 24 см, высотой 13 см.
  • Slim-фактор. Высота остаётся такой же, длина уменьшается в 1.5-2 раза.
  • Низкопрофильная. Высота 6.5 см, длина 12-15 см.

Важно! Иногда выделяют ещё и 4-й тип – экстрим-версии. Их высота составляет стандартные 13 см, но длина может доходить до 30 см. Такие видеоадаптеры занимают место 2-х или даже иногда 3-х слотов PCIE.

Внешний вид карты и технология её исполнения зависят от фирмы-производителя. Обычно используются многослойные подложки с числом слоёв от 8 до 16.

Особо массивные карты снабжаются либо задней пластиной (backplate), либо полной защитой по периметру всей видеокарты. В карты с повышенным тепловыделением (1080, 2080, Fury, Vega и т.д.) может быть интегрирована система водяного охлаждения.

Вместо заключения

Также существует немалая группа пользователей, всегда приобретающих исключительно продукцию AMD. И дело здесь вовсе не в производительности, поскольку при желании можно использовать SLI/CrossFire. И не в энергопотреблении, поскольку блоки питания на фоне остальных комплектующих не так дороги. И не в оптимизации драйверов или кода, поскольку этот процесс будет идти постоянно.

Продукция AMD будет приобретаться лишь потому, что видеовыход сигнала у карт «красных» имеет большую насыщенность, то есть, визуально он более красочный.

Группу пользователей, всегда покупающую продукцию NVidia, также можно легко найти. Но они всегда покупают карты NVidia только лишь потому, что у «зелёных» есть PhysX…

А ещё есть фанаты Vulcan-a, а ещё есть фанаты 16-ти мониторов на одном столе… И так далее. Выбор производителя видеокарты всегда субъективен.

По большому счёту, ответить на вопрос, что лучше nvidia geforce или amd radeon невозможно, поскольку каждый производитель может предложить в любом сегменте для любой аппаратной части соответствующее адекватное решение. А незначительная разница в деталях этого решения носит исключительно характер личных предпочтений.

источник

Добавить комментарий