Multi gpu что это
Перейти к содержимому

Multi gpu что это

  • автор:

DirectX 12 Multi-GPU: пока работает

Одно из самых важных нововведений в DirectX 12 – это так называемый «asymmetric multi-GPU», функция, позволяющая соединять и запускать вместе видеопроцессоры от разных брендов, при условии поддержки определенного общего уровня технологий (в случае Ashes of Singularity – это Direct3D 12_0). Для работы этой функции недостаточно иметь две видеокарты с поддержкой DirectX 12, нужно также использовать их на приложениях, которые поддерживают DirectX 12. Проще говоря, если вы думаете, что прошлогодние игры на DirectX 11 заработают быстрее с этой функцией – ну, в общем, вы думаете неправильно. Команда Anandtech решила проверить заявления Microsoft о работоспособности этой функции и собрала систему с несколькими видеочипами, используя карты Radeon R9 Fury X и GeForce GTX 980 Ti. Выводы получились интересные.

Для начала, действительно, самый распространенный метод работы с несколькими картами – AFR, когда каждая карта обрабатывает только определенную часть кадров – работает. При его включении появился больше чем 50-процентный прирост производительности, но, увы, далеко не такой большой, как если бы использовались карты одного бренда в связке CrossFire или SLI. Во-вторых, на производительность влияло то, какая из видеокарт выбрана как основная. В Anandtech обнаружили, что конфигурация, в которой основной была R9 Fury X (то есть, к ней был подключен монитор), а GTX 980 Ti была вторичной, работала немного быстрее, чем при обратном варианте. Также через Multi-GPU работает запуск разных видеопроцессоров одного производителя (к примеру, GTX 980 Ti и GTX TITAN X). В чем же главный и неоспоримый плюс этой функции? В том, что система с R9 Fury X и GTX 980 Ti во всех тестах вела себя абсолютно стабильно.

02

Остается только гадать, сколько продлится это идиллическое состояние индустриальных стандартов, и сколько пройдет времени, прежде чем (может быть) производители видеочипов обнаружат, что это не идет на пользу их коммерческой выгоде. Судя по всему, и AMD, и NVIDIA потратили на мультичиповую оптимизацию довольно много ресурсов. И также только в несколько отдаленном будущем мы точно узнаем, какую часть этих ресурсов они предпочтут пустить на обеспечение мультичиповой производительности в унифицированной системе, а сколько – на собственные разработки SLI и CrossFire.

03

Интересующимся подробностями и хорошо читающим по-английски мы предлагаем ссылку на полный отчет Anandtech о проведенных тестах.

Технологии multi-GPU

  • Продвинутый пользователь
  • PipPipPipPip
  • 3 092 сообщений
    • Пол: Мужчина
    • Город: Донбасс

    Отправлено 04 Март 2008 — 10:14

    Технологии связок видеокарт всё больше набирают обороты в своём развитии и совершенствовании программного обеспечения. Интересно, насколько они востребованы в реале, в плане интересности и полезности с точки зрения простых юзеров.

    Начну с канадской кампании ATI: ubiq_02.jpg 199,87К 123 Количество загрузок: ubiq_03.jpg 173,19К 123 Количество загрузок:
    Тест.платформа = Phenom 9900 (2.60GHz) на MSI K9A2 Platinum AMD (790FX) плюс 2GB DDR2-800 (5-5-5-18), ОС Vista Ultimate 64bit.
    — 1GPU (Radeon HD 3870)
    — 2GPU (Radeon HD 3870 X2)
    — 4GPU (Radeon HD 3870 X2 + Radeon HD 3870 X2)
    Driver Package Version 8.451.2-080128a-058940E-ATI

    1.gif 12,82К 126 Количество загрузок: 2.gif 12,96К 116 Количество загрузок: 4.gif 14,78К 122 Количество загрузок:

    Сообщение отредактировал dayton: 04 Март 2008 — 10:59

    ad impossibilia nemo obligatur

    #2 dayton

  • Продвинутый пользователь
  • PipPipPipPip
  • 3 092 сообщений
    • Пол: Мужчина
    • Город: Донбасс

    Отправлено 04 Март 2008 — 10:49

    Теперь о технологии SLI калифорнийской кампании NVIDIA: tawada_2.jpg 144,28К 105 Количество загрузок: tawada_5.jpg 119,75К 92 Количество загрузок:
    Тест.платформа = Core 2 Extreme QX6850 на ASUSTeK P5N-T Deluxe (nForce 780i SLI) плюс 2GB DDR2-800 (5-5-5-18), Vista Ultimate.
    — GeForce 8800 GTX (Single)
    — GeForce 8800 GTX (2-way SLI)
    — GeForce 8800 GTX (3-way SLI)
    VGA Driver ForceWare 169.25

    1.gif 37,79К 116 Количество загрузок: 2.gif 36,93К 90 Количество загрузок: 3.gif 37,99К 90 Количество загрузок: 4.gif 37,94К 91 Количество загрузок: 5.gif 34,82К 96 Количество загрузок: 6.gif 28,3К 105 Количество загрузок:

    ad impossibilia nemo obligatur

    #3 dayton

  • Продвинутый пользователь
  • PipPipPipPip
  • 3 092 сообщений
    • Пол: Мужчина
    • Город: Донбасс

    Отправлено 04 Март 2008 — 11:05

    А здесь интересное сравнение между Quad CrossFire (Radeon HD 3870 X2) и GeForce 8800 Ultra в 3-Way NVIDIA SLI:
    http://www.ixbt.com/. shtml?10/12/78
    правда, стОит добавить ещё туда же то, что они пропустили: 01.gif 65,37К 117 Количество загрузок: 2.gif 64,13К 93 Количество загрузок: 3.gif 64,29К 93 Количество загрузок:

    4.gif 48,63К 96 Количество загрузок: 5.gif 50,14К 95 Количество загрузок: 6.gif 49,18К 92 Количество загрузок: 7.gif 50,63К 100 Количество загрузок:

    Я понимаю, что дело это новое и ещё в практическом применении не освоенное. да и программная поддержка далеко не в завершённом виде. но, хотя бы предварительные (на сегодняшний день), какие напрашиваются выводы о вкусности таких разработок? как направление — насколько интересное и перспективное в домашних ПК ?

    хочу особо выделить энергопотребление — 1.gif 19,24К 119 Количество загрузок:

    Сообщение отредактировал dayton: 04 Март 2008 — 11:30

    ad impossibilia nemo obligatur

    #4 Corsa

    Отправлено 04 Март 2008 — 01:42

    Гм. SLI придумали в 3dfx, после данная технология досталась nVidia, название осталось тоже (SLI), а вот расшифровку аббревиатуры сменили на «Scalable Link Interface», несколько позже появился ответ ATI — CrossFire (начиная с Radeon X800XT) — изначально являющийся асинхронной технологией (для совместной работы двух видеокарт требовалось «ведомая» видеокарта, и «мастер-карта» с чипом Compositing Engine, наделенная буферной памятью).
    После, CrossFire стал больше напоминать SLI — для работы в режиме CF X1650XT, X1950Pro не требовались мастер карты. Примерно тогда же появляется «двухголовый» монстр от nVidia — 7900GX2, а так же новый режим Quad-SLI.
    После выходит великий и ужасный G80 — давший начало 8800-й серии. Топовые видеокарты (GTX/Ultra) могут работать в новом режиме 3 Way-SLI (Tri-SLI), а «забытый» Quad-SLI вернется только с выходом 9800GX2.
    ATI, ставшая AMD, выпускает R600, и после, переводя на новый 55-нм техпроцесс и «урезая» ring-bus до 256 бит, выпускает 3000-ю серию на базе RV670/RV680. И наконец-то появляется CrossFire X — режим, в котором могут совместно работать две/три/четыре видеокарты, а так же появляется возможность работы в режиме CF «разнородных» видеокарт (сразу вспоминается изначальная асинхронность технологии).

    Собственно, что еще можно добавить? Начиная с конца 90-х технология SLI практически не изменилась, с другой стороны, изменения CrossFire довольно заметные — нынешний флагман ATI — multi-GPU, следующая топовая видеокарта из 4000-й серии — тоже multi-GPU, плюс продвижение CrossFire со стороны Intel. nVidia же воспринимает multi-GPU видеокарты как «неизбежное зло» — анонс HD3870X2 «смазали» заявлением о выходе «не нужной» 9800GX2, которую до сих пор и не выпустили. Что будет дальше — весьма интересно.

    основной: Intel Xeon x3440@3820 + IH-4405+, Asus P7P55D PRO, 2х2 DDR3-1520, CrossFire HIS HD6930, Samsung 1 Tb, CM 690 II Advanced, Corsair TX650.
    запасной: Gigabyte 790FXTA-UD5, Athlon II x3 435@x4 3.35
    ноутбук: Fujitsu-Siemens Pi 3540

    #5 L0tR

    Отправлено 04 Март 2008 — 02:49

    Ого. в некоторых случаях производительность обратно-пропорциональна количеству видюх

    Acer Aspire 7730g. Core 2 Duo P7350 2.0 ГГц, GF 9600m GT 512mb, 4 GB DDR2 667 МГц. Windows 7 Professional x64

    #6 dayton

  • Продвинутый пользователь
  • PipPipPipPip
  • 3 092 сообщений
    • Пол: Мужчина
    • Город: Донбасс

    Отправлено 04 Март 2008 — 03:58

    Заметили тоже. ну не возможно, чтоб такие упряжки давали пшик прироста мощи в результате. вот я и говорю о несовершенстве процесса обработки графики в несколько потоков. похоже, сейчас они делают одну и ту же работу (прорисовку) одновременно, просто дублируя друг друга. а то и мешая даже друг другу, получается.
    Я не большой знаток нюансов технологий multi-GPU, только напрашиваются мысли о том, что и сейчас большой пользы от связок не видно и ожидать существенных результатов прийдётся не раньше, чем разработчики сумеют чётко разграничить нагрузки для совмещаемых девайсов, типа =разделить потоки (или задачи) — обработать — сложить — вывести=, образно, не только в самом приложении (игре), а более важна универсальность подхода, положить этот принцип разделения в основу самих многопроцессорных технологий на уровне драйверов.

    ad impossibilia nemo obligatur

    #7 XenonTomb

  • Продвинутый пользователь
  • PipPipPip
  • 1 794 сообщений
    • Пол: Мужчина
    • Город: г.Николаев, Украина

    Отправлено 04 Март 2008 — 06:59

    Проблемы по сути те же, что и у многоядерных процах. Чтоб мульти-ГПУ давали ощутимы прирост должны быть, имхо:
    а) нормальные дрова
    б) движки игр должны иметь оптимизации для таких конфигов, причем не прикрученные в последний момент, а заложенные с самого начала разработки
    в) «правильные» ОС и API
    г) массовая доступность таких решений

    AMD Athlon II X4 620 (Propus) 2,6 ГГц // кулер Noctua NH-U9B
    Gigabyte GA-M720-US3 (nForce 720D, АМ2+)
    DDR2-800 CL5 Kingston 2×2 Gb
    Palit GeForce 9600GT 512 Мб GDDR3
    HDD Samsung SP2004C, Samsung HD642JJ, WD WD10EADS (M2B) // DVD-RW Sony Optiarc AD7240S // CR Gigabyte 15-in-1
    Корпус Chieftec Smart SH-01 // БП Chieftec CFT-500-A12S // ИБП Powercom KIN 525A
    Моник Samsung SyncMaster 2032 MW (с ТВ) // Звук Genius SP-HF 1250X 2.0
    Wi-Fi роутер TP-Link TL-WR642G
    —————————————
    Нетбук MSI Wind U90X-056UA (8.9″ LED/Intel Atom N270/i945GSE+ICH7M/RAM 1,5 GB/HDD 2,5″ 120GB/LAN/Wi-Fi/BT/Cam 0,3 Mp/CR 4in1)

    #8 Corsa

    Отправлено 04 Март 2008 — 07:34

    По сути, добиться около 100% прироста можно только при переходе от одной видеокарты к двум — дальше все усугубляется дублированием функциональных блоков и видеопамяти — допустим, 4 GPU каждый с 512Мб видеопамяти, что в общем дает 4х512Мб = 2Гб, только в SLI и CF такая арифметика не действует — 512Мб и останется.
    Если про режимы, то наиболее распространенный — AFR — вроде уже где-то упоминалось (вроде на хоботе), что в таком случае вместо «среднего» фпс программы вроде Fraps показывают «моментальный» — тоже весьма неприятное явление, полезное только для бенчеров.
    ИМХО, из «двойного» CF или SLI может получиться что-то интересное, так же весьма перспективно «гибридное» направление — совместная работа интегрированного видеоядра и дискретной видеокарты. А все остальное — либо для энтузиастов, либо ради интереса (спортивного).

    to XenonTomb
    а) В принципе, не очень реально — за всеми играми попросту не угнаться, обычно внимание уделяется наиболее популярным.
    б) Если не ошибаюсь, то движок — это есть коммерческий продукт, вроде 3-го «анрильного», или 2-го крайтековского — заточка под multi-GPU — это нечто вроде оптимизации.
    в) Да, довольно сложно отделаться от мелкомягких.
    г) Это фантастика.

    Сообщение отредактировал Corsa: 04 Март 2008 — 07:35

    основной: Intel Xeon x3440@3820 + IH-4405+, Asus P7P55D PRO, 2х2 DDR3-1520, CrossFire HIS HD6930, Samsung 1 Tb, CM 690 II Advanced, Corsair TX650.
    запасной: Gigabyte 790FXTA-UD5, Athlon II x3 435@x4 3.35
    ноутбук: Fujitsu-Siemens Pi 3540

    #9 dayton

  • Продвинутый пользователь
  • PipPipPipPip
  • 3 092 сообщений
    • Пол: Мужчина
    • Город: Донбасс

    Отправлено 06 Март 2008 — 02:14

    В новой версии драйверов ATI Catalyst 8.3 реализована поддержка CrossFireX для систем с тремя и четырьмя GPU, работающих под управлением Windows Vista (DirectX 9 и DirectX 10). По оценке компании, прирост по сравнению с системой с одним GPU может достигать 3,2 раза:
    http://www.ixbt.com/. shtml?10/14/26

    . ой ли, прям в 3,2 раза? и что-то о подобном, но в XP ни слова.

    В драйверах Catalyst 8.3 были добавлены следующие возможности:
    — CrossFireX (Quad) Support 3 or 4 GPUs in CrossFireX Mode: в данном релизе Catalyst представлена поддержка CrossFireX Quad. Пользователи с любой комбинацией ATI Radeon HD 3870, ATI Radeon HD 3850 и ATI Radeon HD 3870 X2, использующих 3 или 4 GPU, способны запустить режим CrossFireX Quad Mode.
    — Hybrid Graphics Support: представлена поддержка Hybrid Graphics, обеспечивающая значительный прирост в 3D-производительности на встроенной графике AMD 780G и видеокартах серии ATI Radeon HD 3400 series graphics accelerator.
    — DirectX 10.1 Support: поддержка DirectX 10.1 API, представленной в Microsoft’s Windows Vista Service Pack 1 для всех продуктов серии ATI Radeon HD 3000.
    — Anti-Aliasing Enhancements: в этом релизе доработано полноэкранное сглаживание для всех игр, построенных на базе движка Unreal Engine 3.
    — ATI Catalyst Control Center: HydraVision support for Windows Vista: начиная с того выпуска, в драйверах Catalyst представлена поддержка HydraVision под операционными системами Windows Vista.
    — Digital Panel GPU image scaling: в драйверы добавлены новые настройки для управления изображением на ЖК-мониторах.
    — Catalyst Control Center: Advanced Video Quality Controls: добавлены новые расширенные настройки управления качеством выводимого изображения.
    — ATI Catalyst driver: Tessellation support: в этих драйверах представлена поддержка Tessellation для видеокарт серии ATI Radeon HD 3800.

    В Catalyst v.8.3 повышено быстродействие в некоторых играх, а также исправлено множество ошибок при работе с различными продуктами и приложениями под Windows Vista SP1.

    Сообщение отредактировал dayton: 07 Март 2008 — 03:18

    Тестовая конфигурация: программное обеспечение

    Для тех, кто хочет узнать, как были настроены тесты, опишем их подробно. Эта информация ориентирована для тех, кто любит во всем разбираться сам – если Вам не интересны настройки – можете пропустить эту страницу и сразу перейти к результатам.

    Bioshock – сейчас эта игра очень популярна. В этом тесте все установки Detail были установлены в High. Все графические настройки были установлены в ‘On’, кроме 3-х: Vsync, Windowed mode и Force Global Lighting. Количество кадров в секунду измерялось довольно удобной утилитой FRAPS. FRAPS производила измерения в течение первых 138 секунд игры – кнопка запуска утилиты нажималась в самом начале игры. Утилита задействует разные сложные алгоритмы, которые должны нагружать GPU и эффективно замерять производительность движка Bioshock.

    Medal of Honor: Airborne, демо-версия. Это демонстрационная версия 5-ой игры компания Electronic Arts о Второй мировой войне, которая была выпущена 23 августа (2007). Настройки Texture Detail, Model Detail и Decals все были установлены в ‘High’. Vsync была отключена. Эффекты постобработки были установлены в ‘Full.’ Производительность замерялась с помощью утилиты FRAPS в течение 32 секунд. Тест начинался после первой гибели «героя», когда он десантировался на поле боя после респавна (обретения новой жизни). Из всех наших тестов, этот тест является самым зависимым от человеческого фактора – тест FRAPS нужно запускать вручную, сразу же после респавна героя. В то время как показатели всех других тестов, обсуждаемых в этой статье, имеют хорошую повторяемость, результаты этого теста могут иметь довольно большой разброс. Учитывая вышесказанное, мы старались, чтобы результаты в этом тесте были максимально точными.

    World In Conflict, демо-версия. Это RTS игра имеет свой превосходный встроенный тест продолжительностью около 1 минуты. В наших тестах настройки графики были установлены в ‘Very High’.

    Lost Planet. Тест производительности прогонялся в течение 6 минут – за отчет бралось среднее значение fps. Настройки: AA – ‘выкл.’, AF – 16, и все опции были установлены в ‘High’.

    Call of Juarez. Этот DX10 бенчмарк не был встроен непосредственно в игру – он был выпущен позже, как одна из первых программ для тестирования DX10 в играх. Настройки Details были установлены в ‘High’, Shadowmap size – 2048 x 2048, Shadows quality – ‘Normal’ и AA – ‘MSAA x 4.’

    Для наших видеокарт AMD использовались драйверы Catalyst 7.9. Для видеокарт NVIDIA использовались драйверы 163.44 Beta. Все тесты выполнялись на одной и той же установке Vista.

    Поскольку никто не покупает конфигурации HD2900XT Crossfire и EN8800 GTX SLI для игры при низких разрешениях, мы прогоняли тесты при следующих 3-х разрешениях: 1280 x 1024, 1600 x 1200 и 1920 x 1200. Некоторые тесты не поддерживают эти разрешения, поэтому в них выбиралось разрешение максимально близкое к указанным.

    Вводная часть закончена – переходим к результатам.

    [N4-Производительность SLI/Crossfire в игре Bioshock]

    По-видимому, производительность CrossFire в Vista/DX10 Bioshock пока не улучшена. Одна видеокарта HD2900XT на самом деле работает быстрее, чем две HD2900XT в конфигурации CrossFire.

    Со SLI не так: две видеокарты NVIDIA лучше, чем одна. SLI довольно сильно увеличивает производительность и для видеокарт 8800 GTS и для GTX.

    Это увеличение особенно заметно при высоких разрешениях, по крайней мере, в Bioshock. Чем выше разрешение, тем у SLI больше преимущество. Игрокам, у которых мониторы высокого разрешения, должно понравился то, что они увидят, купив для своего компьютера вторую видеокарту NVIDIA.

    [N5-Medal of Honor: Airborne]

    Ни один показатель не превысил отметки 60 fps, что наводит на мысль, что у этой игры есть своего рода ограничитель fps. Vsync была отключена, так что она не могла повлиять на это. Возможно так же, что, в сравнении с другими тестами, эта игра больше нагружает CPU, чем GPU, но это маловероятно.

    Если в этой игре ограничения фреймрейта нет, в ней, по-видимому, ни CrossFire, ни SLI не улучшают производительность. При задействовании 2-х GPU производительность немного уменьшается. Но учитывая, что последняя версия этой демки вышла 23 августа, а первый, и пока единственный, патч для нескольких GPU Microsoft выпустила 28 августа, не удивительно, что эта функция в демке ещё не реализована.

    Будем надеяться, что в окончательном и полном варианте игры поддержка нескольких GPU будет сделана.

    [N6-Игра World In Conflict]

    Тест в World In Conflict Demo очень напряженный. Даже сильнее, чем предыдущий тест World In Conflict Open Beta.

    Тем не менее, fps видеокарты HD2900XT в нем на удивление низкие. Однако наиболее вероятно, что низкие показатели видеокарты обусловлены текущими драйверами AMD, а не самой видеокарты. Это предположение основано на предыдущих тестах Open Beta, в которых X1950 XTX составила хорошую конкуренцию BFG 8800 GTS. По-видимому, придется провести этот тест ещё и с другими драйверами Catalyst, чтобы посмотреть, изменятся ли в нем результаты – но по отношению к NVIDIA не справедливо для каждой игры подбирать лучший драйвер AMD. Но опять же, заметим, что это совсем новая игра и новая версия Catalyst может существенно изменить эти результаты.

    Что касается SLI, в конфигурации с несколькими картами фреймрейт явно выше, но в World In Conflict это увеличение совсем небольшое.

    [N7-Игра Lost Planet] Примечание: в тесте Lost Planet для каждой видеокарты даются 6 результатов. Первые 3 результата получены для сцены «Подземелье», вторая тройка – сцена «Снег».

    Судя по результатам этих тестов, второй GPU может значительно улучшить впечатление от игры Lost Planet. Из всех тестов этого обзора игра Lost Planet самая «старая» – фактически она была нашим первым игровым тестом в Vista – она выпущена в мае этого года – так что, по-видимому, поддержка нескольких GPU в ней реализована лучше, чем в других играх.

    Хотя на верхней диаграмме полоска HD2900XT CrossFire самая длинная, на самом деле эта видеокарта опережает Asus EN8800 GTX SLI всего в двух отсчетах. Тем не менее, показатели HD2900XT в этом тесте весьма солидные.

    К сожалению, при прогоне теста Lost Planet на нашей конфигурации CrossFire были заметны ошибки. Каждый раз, когда в кадре возникало движение, изображение портилось. На этом скриншоте видно смазывание изображения движущегося объекта:

    Этой проблемы не было только в конфигурации с одной видеокартой HD2900XT. Заметим также: Вы, возможно, обратили внимание, что на этом скриншоте среднее число fps равно 35, однако этот скриншот снят в начале теста, так что это не «точное» среднее значение.

    [N8-Игра Call of Juarez]

    Multi gpu что это

    You are viewing this site using an out of date version of Internet Explorer. Some functionality may not work as required.

    СИСТЕМЫ НА БАЗЕ НЕСКОЛЬКИХ NVIDIA VIRTUAL GPU

    Невероятная производительность виртуальных GPU

    МОЩНОСТЬ НЕСКОЛЬКИХ vGPU

    Теперь на одной виртуальной машине (ВМ) можно развернуть несколько виртуальных GPU NVIDIA®, чтобы повысить производительность приложений и значительно ускорить работу

    КАК ЭТО РАБОТАЕТ

    Благодаря ПО NVIDIA vGPU каждый пользователь VDI может применять ресурсы GPU NVIDIA.

    Несколько виртуальных машин могут совместно использовать ресурсы графического процессора при помощи NVIDIA Virtual GPU для менее требовательных задач.

    Для работы с большими моделями и более ресурсоемких задач ПО NVIDIA Quadro ® Virtual Desktop Workstation (vDWS) и NVIDIA Virtual Compute Server (vCS) позволяют назначать несколько GPU на одну ВМ.

    NVIDIA ® NVLink ™ обеспечивает прямое высокоскоростное соединение между GPU с более высокой пропускной способностью для систем с несколькими GPU, чем у традиционных решений PCIe.

    Мощность для ускорения работы

    Быстрая тренировка моделей благодаря нескольким GPU

    GPU NVIDIA V100 и ПО vCS позволяют тренировать модели глубокого обучения при помощи TensorFlow ResNet-50 с различной точностью до 50 раз быстрее, чем серверы на CPU. Кроме того, при помощи vCS эта нагрузка в виртуальной рабочей среде с гипервизором осуществляется почти также, как и на физическом сервере.

    СКОРОСТЬ ТРЕНИРОВКИ АЛГОРИТМОВ ГЛУБОКОГО ОБУЧЕНИЯ

    Ускорение до 50 раз с vCS и GPU V100

    Конфигурация сервера: 2 процессора Intel Xeon Gold (6140, тактовая частота 3,2 ГГц) [VMware ESXI 6.7 U3, vCS 9.1 RC, NVIDIA V100 (профиль 32C), драйвер 430.18] TensorFlow ResNet-50 v1, NGC 19.01, операции FP16, размер пакета: 256

    Ускорение вывода продуктов на рынок и работа с более большими и сложными моделями

    Несколько графических процессоров NVIDIA с ПО Quadro vDWS позволяют осуществлять техническое моделирование почти в 7 раз быстрее, корректнее и безопаснее по сравнению с системами на базе CPU. В некоторых случаях это обходится значительно дешевле решений с vCPU. Одновременная работа нескольких vGPU позволяет быстрее обрабатывать данные и создавать более точные модели в среде VDI.

    ПО Ansys Fluent для вычислительной гидродинамики (CFD)

    Тесты проводились на сервере с 2 процессорами Intel Xeon Skylake (6148, базовая тактовая частота 2,4 Ггц, 3,6 Ггц в турборежиме), ПО NVIDIA Quadro vDWS, графические ускорители Tesla с профилем 32Q, драйвер 410.53, 256 Гб памяти RAM, ОС Cent OS 7.4, 64-бит. Модель тестирования: модель водяной рубашки, уравнения Рейнольдса (RANS), внутреннего потока, потока воды, размер 4, 20 интервалов

    ПО Abaqus/Standard 2018 Модель упругой опоры

    Тесты проводились на сервере с 2 процессорами Intel Xeon Skylake (Xeon 6148 с базовоПО NVIDIA Quadro vDWS, графические ускорители Tesla с профилем 32Q, драйвер 410.53, 256 Гб памяти RAM, ОС Cent OS 7.4, 64-бит. Модель тестирования: ~450-550 Терафлопс, 5,9 млн ГРИП, нелинейный статистический анализ, осесимметричная модель с неосесимметричной нагрузкой и поворотом, прямой решатель разреженных матриц (модель предоставлена SIMULIA)

    Освободите время для воплощения своих идей

    Дизайнеры могут осуществлять рендеринг фотореалистичных кадров до 4 раз быстрее из любой точки и проводить многочисленные итерации в короткие сроки.

    SOLIDWORKS Visualize (IRAY)

    Тесты проводились на сервере с двумя процессорами Intel Xeon Gold (6154, тактовая частота 3,0 Ггц), 512 Гб памяти RAM, ОС RHEL 7.5, ПО NVIDIA Quadro vDWS, ускорители Tesla V100-32Q, драйвер 410.39, 256 Гб памяти RAM, ОС Windows 10 x64 RS3

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *