Здесь, в Pixelary, мы пытаемся выжать каждый бит производительности из нашего оборудования. Одна из вещей, которую мы заметили, заключается в том, что при использовании CUDA рендеринга в Cycles Blender значительно быстрее в Linux, нежели в Windows. Что это дает?
Вышеупомянутый тест рендерился на одном графическом процессоре Titan X (Maxwell) с процессором AMD Ryzen 7. Но это не ограничение графической архитектуры Maxwell. Вот результат для 1080 Ti (поколение Pascal):
Мы получаем такую же медленную производительность в Windows, независимо от того, используется ли графический процессор для отображения или нет, и не имеет значения, рендерим мы из командной строки или с помощью графического интерфейса Blender.
Мы не согласны с тем, что Windows 10 «просто медленнее». Мы решили найти решение.
Оказывается, при выполнении GPU-рендеринга в Windows 8 или выше, любая команда, используемая Blender, должна пройти через WDDM или модель драйвера дисплея Windows (Windows Display Driver Model). Этот уровень драйвера отвечает за обработку всех устройств отображения, но он часто создает значительные накладные расходы для вычислительных задач. Эта модель является основным компонентом Windows и не может быть просто отключена.
К счастью, у умных людей в Nvidia уже есть решение этой проблемы. Чтобы полностью пропустить WDDM, нам нужно установить GPU как «Tesla Compute Cluster», или TCC для краткости. Как только мы сделали это, графический процессор перестал отображаться как устройство отображения для Windows. Но он по прежнему доступен для всех CUDA приложений. Мы снова провели все тесты Blender, и вот результат:
С поддержкой TCC производительность в Windows точно такая же, как и в Linux!
Теперь плохая новость. TCC доступен только на графических процессорах GeForce Titan и Geforce Quadro, он недоступен для GeForce GTX. И это работает только в том случае, если у вас есть другой графический процессор для отображения (поскольку устройства TCC не могут использоваться для управления дисплеем). Но если вам нужно придерживаться среды Windows и имеется отдельный графический процессор, TCC может быть тем, что вам нужно, чтобы получить дополнительную 30% производительность.
Для рендеринга на устройствах AMD, использующих OpenCL, не существует этого несоответствия производительности.
Итак, теперь мы знаем, ПОЧЕМУ Windows работает медленнее, но мы все же хотели бы видеть способы обойти ограничение WDDM через более эффективные ядра или сокращенные количества вызовов к WDDM. Это гарантирует, что все пользователи Geforce, которые не могут включить TCC, по-прежнему получат выгоду от более быстрого рендеринга.
Вы так всё камунизите уроки с других сайтов🈸🈸🈸🅿
И это вместо благодарности за очень качественные переводы с английского. Нехорошо.
«Теперь плохая новость» у большинства нет GeForce Titan и Geforce Quadro 🛃
Значит этому большинству не нужны дополнительные 30% 🛃
Я так и не понял. Почему просто не работать под Ubuntu?
Работать fulltime не все смогут, из-за отсутствия там некоторого нужного 2D/3D софта или его плохой совместимости при запуске через WINE, а вот если долгий рендер — это будет действительно оправданно.
Сидел на минте, года 2 пока не решил изучать Зебру и понял что не осилю бубно танцы с вином, а сидеть на старой версии 3.5 не вдохновляэт.
Пошел в ларек покупать парочку titan v. Кстати кто-то уже тестировал ее в blender?
Вообще все это печально. Разве может обычный человек купить видеокарту за 10000$. Даже за 3000$. Они совсем ориентацию потеряли с такими ценами.
Обычный человек Quadro не покупает. Это особый вид идиотов, которые мало что понимают в железе и на которых можно неплохо заработать.
Большинство вещей, которые нас окружают стоят неоправданно дорого, но до тех пор пока их будут покупать, цену занижать никто не станет.
Человек разумный (это тот, что обезьяна, только версия 2.0) купит себе максимум 1080 Ti, а если игры ему не интересны, будет пользоваться фермами. И быстрее и дешевле и не лох отдавший 10 000$ за 200 грамм текстолита только потому, что он на 5% быстрее той карты, что стоит в 10-15 раз меньше.
Производительности 1080ti к сожалению не хватает. У меня одно изображение порой 2 часа рендерится. А анимация становится страшным кошмаром. И это для всего лишь full hd разрешения. Не 4k. Вот поэтому все и гонятся за новыми высокопроизводительными архитекторами типа volta. Я только ценник titan v ну никак понять не могу. Откуда это 3000$ взялись? Это ж не профессиональная, обычная потребительская карта, для обычного пользователя. Ну кто ее за такие деньги будет покупать? Депутатам рендеринг не нужен. Профессионалы типа киностудии- так это не профессиональная карта. По моему мнению для комфортной работы в blender на сегодняшний день достаточно 2 titan v или 4 1080ti.
Для работы достаточно одной 1080 Ti. А если ты хочешь рендерить (даже молчим про 4K), то только фермы. Ты хоть 4 Titan V запихни, толку будет мало, а через год можно будет собрать такую же систему за 3 000$ вместо 12 000$.
Сам посуди, 2 минуты кадр на одной. 30 секунд на 4-х. И это 1080p. Норм анимация от 30 FPS. Итого секунда анимашки рендерится 15 минут на 4-х топовых кадрах. Это стоит таких денег? Я думаю нет.
Согласен. Деньги почти на ветер. А через год выйдет еще более производительное решение, и уже и titan v покупать дешево не захочется, так как устареет. И так бесконечно. К сожалению рендер фермами никогда не пользовался, такого опыта нет. Слышал про nvidia cloud computing. Но его до сих пор не открыли. Было бы хорошо если бы была возможность закупать видео карты и процессоры по цене почти себестоимости, с минимальной накрутки, по которой закупаю себе ЦОДы google и другие гиганты. Но увы — это мечты.
А gt630 как вам вообще? НА что хватит?
В косынку поиграть. Не более.
https://code.blender.org/2017/11/cycles-benchmarks-nvidia-update/#comment-86101
«Мы не согласен …» —> «соглас[b][u]ны[/u][/b]»
«… все пользователи Geforce …» —> «Ge[b][u]F[/u][/b]orce»
статья ни о чем. разве что ее целю было устананить заключение, что 7ка и только 7ка.
Вы вообще материал читали? 10 тут ни при чем. Это косяк Windows, и драйвера Windows. Он есть и на XP, и на 7, и на 8, и на 10. Уточните информацию, прежде чем гневиться. А то только невеждой выглядите.
Вы все еще сидите на Венде?
Тогда мы идем к вам :)
Ничего не мешает поставить линукс на внешний HDD или флэшку. И если, действительно эти 30% нужны, реально сэкономят время. Загрузился, запустил рендер.
Десятка вообще — худший выбор для рендер-фермы. У меня на работе на рендер-ферму установили десятку (плановое обновление системы)- вешаюсь. Мало того, что тормоза начались после семерки, так еще и непонятное распределение приоритетов рендера, когда параллельно запускаются два-три проекта на рендер (память позволяет). Все рендерятся с разной скоростью, при чем разница может составлять до 1.5 раз. И это при том, что каждая сцена рендерится сразу всеми GPU (они идентичны). Ради эксперимента запускали одну и ту же сцену дважды — тот же результат. Собираюсь параллельно, втайне от руководства, минт поставить. Судя по выше приведенным графикам, средняя производительность вырастет как минимум на 30%.
Я вот не вижу никаких проблем что бы держать Линукс в дуалбуте, учитывая что он грузится за 7 секунд и места под него хватит 5 Гиг. На домашнем ПК я уже 2 года назад так сделал и в Линуксе сижу 99% времени.
По поводу прироста на 30% в Quadro и Titan по сравнению с GTX. Конечно никакой нормальный человек не будет ради 30% брать квадру, он возьмет 2 GTX и поимеет прирост почти в 50% или я что то не правильно думаю?
А еще я не понимаю за что мне влепили 3 минуса? Шуток здесь вообще никто не понимает что ли?
Это же извечная тема. Есть ярые фанаты винды и в тоже время ненавистники линукса. 3 минуса это еще нормально 🈂
А я вот столкнулся с проблемой — на мой райзен под уеффи минт ставиться отказывается второй системой, параллельно 10 ке. Чего только не пробовал. GRUB либо не ставиться вообще, либо не видится UEFFI после перезапуска… А без Gruba систему не запустиш…
А что мешает поставить груб отдельно? И попробуй сделать загрузочный раздел активным, или переходи на GPT
Артём, где уроки?)
Новый год уже прошёл :)
Так рождество же, старый новый год, день влюбленных, 8 марта, днюха потом моя… 🚺
Очень смИшно
В общем удалось установить второй системой линукс минт и прогнать одни и те же сцены под ним и десяткой. Результат — шок. Разница не 30%, как в статье, а в 2 — 2,5 раза… Это что же нужно было сделать с видеодрайверами мелкомягкому, что бы так изуродовать… Для сравнения время 3 сцен на форточках — 1 мин 59 сек, 3 мин 27 сек и 7 мин 22 сек. То же на минте — 56 сек, 1 мин, 26 сек, 3 мин, 18 сек. И этим все сказано…
Я не проверял, но у них все так работает, как и видео драйвер. Особенно, если это не их разработка, а что-то купленное (кстати, у них 99% купленного).
Но, несмотря на все это, игры и часть софта не позволяют мне покинуть это болото раз и на всегда 🆘
Либо выходить в окна через виртуальную коробку 🉑
Переходите на мак. Там есть все.
кроме софта
Palyaros02, отличная шутка 🚾
Артём, подайте признаки жизни. А то мы тут уже волноваться начинаем ;)
Я их регулярно подаю на форуме, в соц. сетях и YouTube. Все ок, не волнуйтесь 🈸
Я расстроюсь, если там не планируется что-то мега крутое на месяц работы ♌
Там ничего крутого не планируется 🈂
Купил ноутбук с картой GeForce GTX 1060 6GB.
На установленной Ubuntu 16.04 время рендера 66 секунд в BlenchMark и Blender 2.79a.
На Windows 10 Pro x64 время рендера 70 секунд.
Ноутбук не поддерживает Nvidia Optimus (это плюс для установки Хакинтоша), но зато есть G-SYNC и матрица 75 Гц. Встроенное видеоядро в процессоре 7700HQ не задействуется. .
То есть разница в 5.5%.
На отрендеренных за последние месяцы десятках сцен четко заметил, что производительность рендера на 10 ке резко падает при увеличении числа объектов (именно объектов, а не полигонов) в сцене, при чем начинает плавать от кадра к кадру в 1.5 — 2 раза. Именно покадровый рендер видео быстро это выявляет. А всяческие однокадровые бенчи — не показатель. Самые сложные сцены у меня на 1080 ке на лине и 10 ке различаються по времени в 2 раза, а то и более.
На рабочей машине установлена P2000 Quadro (i5-8600k+32гб). Провел тесты со включенным режимом TCC. Но только на одной сцене (bmw27_gpu.blend). Результаты не восхитили: с TCC Time:04:57.21, без Time:05:11.19. Разницу заметил лишь в том, что при использовании TCC можно работать в других графических приложениях без замедления рендера (ведь работа на в таком случае осуществляется на другой графической карте). И это реальный опыт. Статья, конечно, красивая, но для всех бесполезная.
Вы так всё камунизите уроки с других сайтов🈸🈸🈸🅿
И это вместо благодарности за очень качественные переводы с английского. Нехорошо.
Пошел в ларек покупать парочку titan v. Кстати кто-то уже тестировал ее в blender?
https://code.blender.org/2017/11/cycles-benchmarks-nvidia-update/#comment-86101
Вообще все это печально. Разве может обычный человек купить видеокарту за 10000$. Даже за 3000$. Они совсем ориентацию потеряли с такими ценами.
Обычный человек Quadro не покупает. Это особый вид идиотов, которые мало что понимают в железе и на которых можно неплохо заработать.
Большинство вещей, которые нас окружают стоят неоправданно дорого, но до тех пор пока их будут покупать, цену занижать никто не станет.
Человек разумный (это тот, что обезьяна, только версия 2.0) купит себе максимум 1080 Ti, а если игры ему не интересны, будет пользоваться фермами. И быстрее и дешевле и не лох отдавший 10 000$ за 200 грамм текстолита только потому, что он на 5% быстрее той карты, что стоит в 10-15 раз меньше.
А gt630 как вам вообще? НА что хватит?
В косынку поиграть. Не более.
Производительности 1080ti к сожалению не хватает. У меня одно изображение порой 2 часа рендерится. А анимация становится страшным кошмаром. И это для всего лишь full hd разрешения. Не 4k. Вот поэтому все и гонятся за новыми высокопроизводительными архитекторами типа volta. Я только ценник titan v ну никак понять не могу. Откуда это 3000$ взялись? Это ж не профессиональная, обычная потребительская карта, для обычного пользователя. Ну кто ее за такие деньги будет покупать? Депутатам рендеринг не нужен. Профессионалы типа киностудии- так это не профессиональная карта. По моему мнению для комфортной работы в blender на сегодняшний день достаточно 2 titan v или 4 1080ti.
Для работы достаточно одной 1080 Ti. А если ты хочешь рендерить (даже молчим про 4K), то только фермы. Ты хоть 4 Titan V запихни, толку будет мало, а через год можно будет собрать такую же систему за 3 000$ вместо 12 000$.
Сам посуди, 2 минуты кадр на одной. 30 секунд на 4-х. И это 1080p. Норм анимация от 30 FPS. Итого секунда анимашки рендерится 15 минут на 4-х топовых кадрах. Это стоит таких денег? Я думаю нет.
Согласен. Деньги почти на ветер. А через год выйдет еще более производительное решение, и уже и titan v покупать дешево не захочется, так как устареет. И так бесконечно. К сожалению рендер фермами никогда не пользовался, такого опыта нет. Слышал про nvidia cloud computing. Но его до сих пор не открыли. Было бы хорошо если бы была возможность закупать видео карты и процессоры по цене почти себестоимости, с минимальной накрутки, по которой закупаю себе ЦОДы google и другие гиганты. Но увы — это мечты.
Я так и не понял. Почему просто не работать под Ubuntu?
Сидел на минте, года 2 пока не решил изучать Зебру и понял что не осилю бубно танцы с вином, а сидеть на старой версии 3.5 не вдохновляэт.
Работать fulltime не все смогут, из-за отсутствия там некоторого нужного 2D/3D софта или его плохой совместимости при запуске через WINE, а вот если долгий рендер — это будет действительно оправданно.
Ничего не мешает поставить линукс на внешний HDD или флэшку. И если, действительно эти 30% нужны, реально сэкономят время. Загрузился, запустил рендер.
«Мы не согласен …» —> «соглас[b][u]ны[/u][/b]»
«… все пользователи Geforce …» —> «Ge[b][u]F[/u][/b]orce»
Вы все еще сидите на Венде?
Тогда мы идем к вам :)
Я вот не вижу никаких проблем что бы держать Линукс в дуалбуте, учитывая что он грузится за 7 секунд и места под него хватит 5 Гиг. На домашнем ПК я уже 2 года назад так сделал и в Линуксе сижу 99% времени.
По поводу прироста на 30% в Quadro и Titan по сравнению с GTX. Конечно никакой нормальный человек не будет ради 30% брать квадру, он возьмет 2 GTX и поимеет прирост почти в 50% или я что то не правильно думаю?
А еще я не понимаю за что мне влепили 3 минуса? Шуток здесь вообще никто не понимает что ли?
Это же извечная тема. Есть ярые фанаты винды и в тоже время ненавистники линукса. 3 минуса это еще нормально 🈂
А я вот столкнулся с проблемой — на мой райзен под уеффи минт ставиться отказывается второй системой, параллельно 10 ке. Чего только не пробовал. GRUB либо не ставиться вообще, либо не видится UEFFI после перезапуска… А без Gruba систему не запустиш…
А что мешает поставить груб отдельно? И попробуй сделать загрузочный раздел активным, или переходи на GPT
Десятка вообще — худший выбор для рендер-фермы. У меня на работе на рендер-ферму установили десятку (плановое обновление системы)- вешаюсь. Мало того, что тормоза начались после семерки, так еще и непонятное распределение приоритетов рендера, когда параллельно запускаются два-три проекта на рендер (память позволяет). Все рендерятся с разной скоростью, при чем разница может составлять до 1.5 раз. И это при том, что каждая сцена рендерится сразу всеми GPU (они идентичны). Ради эксперимента запускали одну и ту же сцену дважды — тот же результат. Собираюсь параллельно, втайне от руководства, минт поставить. Судя по выше приведенным графикам, средняя производительность вырастет как минимум на 30%.
Артём, подайте признаки жизни. А то мы тут уже волноваться начинаем ;)
Я их регулярно подаю на форуме, в соц. сетях и YouTube. Все ок, не волнуйтесь 🈸
В общем удалось установить второй системой линукс минт и прогнать одни и те же сцены под ним и десяткой. Результат — шок. Разница не 30%, как в статье, а в 2 — 2,5 раза… Это что же нужно было сделать с видеодрайверами мелкомягкому, что бы так изуродовать… Для сравнения время 3 сцен на форточках — 1 мин 59 сек, 3 мин 27 сек и 7 мин 22 сек. То же на минте — 56 сек, 1 мин, 26 сек, 3 мин, 18 сек. И этим все сказано…
Я не проверял, но у них все так работает, как и видео драйвер. Особенно, если это не их разработка, а что-то купленное (кстати, у них 99% купленного).
Но, несмотря на все это, игры и часть софта не позволяют мне покинуть это болото раз и на всегда 🆘
Либо выходить в окна через виртуальную коробку 🉑
Переходите на мак. Там есть все.
кроме софта
Palyaros02, отличная шутка 🚾
Купил ноутбук с картой GeForce GTX 1060 6GB.
На установленной Ubuntu 16.04 время рендера 66 секунд в BlenchMark и Blender 2.79a.
На Windows 10 Pro x64 время рендера 70 секунд.
Ноутбук не поддерживает Nvidia Optimus (это плюс для установки Хакинтоша), но зато есть G-SYNC и матрица 75 Гц. Встроенное видеоядро в процессоре 7700HQ не задействуется. .
То есть разница в 5.5%.
На отрендеренных за последние месяцы десятках сцен четко заметил, что производительность рендера на 10 ке резко падает при увеличении числа объектов (именно объектов, а не полигонов) в сцене, при чем начинает плавать от кадра к кадру в 1.5 — 2 раза. Именно покадровый рендер видео быстро это выявляет. А всяческие однокадровые бенчи — не показатель. Самые сложные сцены у меня на 1080 ке на лине и 10 ке различаються по времени в 2 раза, а то и более.
На рабочей машине установлена P2000 Quadro (i5-8600k+32гб). Провел тесты со включенным режимом TCC. Но только на одной сцене (bmw27_gpu.blend). Результаты не восхитили: с TCC Time:04:57.21, без Time:05:11.19. Разницу заметил лишь в том, что при использовании TCC можно работать в других графических приложениях без замедления рендера (ведь работа на в таком случае осуществляется на другой графической карте). И это реальный опыт. Статья, конечно, красивая, но для всех бесполезная.