Компания NVIDIA представила видеокарты Quadro 2000 и Quadro 600
Компания NVIDIA представила две новые видеокарты на базе архитектуры Fermi – Quadro 2000 и бюджетную Quadro 600. Оба графических адаптера имеют 1 гигабайт оперативной памяти, но при этом Quadro 2000 снабжена 192 ядрами CUDA, а у Quadro 600 таких ядер 96.
Обе видеокарты могут использоваться с системой NVIDIA 3D Vision. Quadro 2000 имеет выход DVI-I, два порта DisplayPort и передает изображение с максимальным разрешением 2560 х 1600 пикселей. Адаптер поддерживает OpenGL 4.0, DirectX 11, а также имеет 128-битный интерфейс памяти.
Бюджетная Quadro 600 имеет один выход DVI-I и только один DisplayPort, а в остальном ее технические характеристики сходны со старшей моделью.
Обе видеокарты будут представлены в персональных компьютерах от Dell, Hewlett-Packard и Lenovo, а также будут продаваться отдельно. Рекомендуемая цена – 599 долларов для Quadro 2000 и 199 долларов для Quadro 600.
А что им оставалось? Те, кто мог платить штуку баксов за видюху Quadro, наверно уже закончились, вот они и выбросили на рынок вариант для среднего покупателя.
Очень хорошая новость. За эти деньги можно купить видеокарту Quadro для монтажа. Только бы они ничего не придумали, чтобы сильно ограничить их возможности.
...Quadro 2000 снабжена 192 ядрами CUDA, а у Quadro 600 таких ядер 96...
Разница есть? Эти значения прямо вдияют на производительность или я не прав? А у дорогих видеокарт QUADRO FX 3800, QUADRO FX 4800 и QUADRO FX 5800 сколько ядер, кто знает?
Узнать бы у кого, а эффект от 96 ядер CUDA видеокарты Quadro 600 будет какой-то приличный? А то может за громким названием Quadro нет ничего. Всё таки цена 200 баксов не внушает доверия.
Я конечно всё понимаю, но между 96-ю ядрами Quadro 600 и 352-я ядрами Quadro 5000 такая разница, что ставить их на одну доску глупо. Такая экономия денег может обернуться неработоспособностью компьютера.
Quadro и CUDA - это технологии, а не замануха. Технология может быть реализована на 96-и ядрах и на 352-х одинаково, хотя производительность карты, конечно будет отличаться.
--------------------
Таити!.. Таити!.. Не были мы ни на каком Таити! Нас и тут неплохо кормят!
Если из этих новинок что-то брать, то Quadro 2000 с 192-я ядрами CUDA, но у неё цена уже высокая для бюджетных систем - 600 долларов. А Quadro 600 доступная по цене, но детская по функционалу, ИМХО.
Сначала надо точно знать на что способны 96 ядер недорогой Quadro 600, а потом уже говорить, взял бы или не взял бы. Может быть, для всех задач видеомонтажа и композитинга хватает 50 ядер? Кто знает?
Егор, явно на меньшее они способны, чем 352 ядра Quadro 5800. Будет ли их достаточно для монтажа - это вопрос ни о чём. Если NVIDIA выпускает карты с сотнями ядер на борту, то понятно, что не ради громких цифр, а для выполнения конретных задач в работе с видео.
Сначала надо точно знать на что способны 96 ядер недорогой Quadro 600...
Тест-сравнение всех видеокарт NVIDIA с CUDA было бы неплохо провести. Без такого теста на конкретных задачах по видео, типа рендеринга и тому подобное, можно только гадать и репу чесать. )
То есть получается что GTX 470 шустрей Quadro 6000, зато и стоит раз в 7 дешевле! Мое скромное мнение такое, что если бы NVIDIA выпускала машины, то у нее бы было 2 серии. Обычные машины и точно такие же но красные, с приставкой GT, якобы для профессионалов, стоимостью в 10 раз выше других.
Там более подробно описаны все характеристики карт, на основе которых можно сделать что покупая Quadro вы платите башенные деньги за бренд и неизвестно за что еще!
В подтверждение вышесказанного могу добавить, что проанализировав карту от ATI и GTX470 (в одной ценовой категории) был удивлён тем, что у неё гораздо больше ядер 1600 vs 448, а память и чип работают на гораздо больших частотах. Не смотря на это карты от NVIDIA рулят в Adobe благодаря поддержке технологии CUDA
приподниму-ка запылившуюся тему ))) в надежде на то, что за 2 года практика расставила всё на свои места. встал перед выбором бюджетной в.карты с CUDA.
так вот для работы в РР и АЕ что все же лучше Quadro 600 или GeForce GTX 560?
выходит что из Quadro наименьшее что можно брать к рассмотрению - Quadro 2000 ну и в противовес ей расмотреть игровые (но сертифицированные для РР и АЕ) GeForce GTX 470 GeForce GTX 570 GeForce GTX 580...
про GeForce GTX 580 против Quadro 2000 пишут Если брать просто теоретическую производительность, то у 580 она в три раза выше, но тут так нельзя делать, начиная с того, что 2000 поддерживает 64x FSAA, например, чего нет у 580, и еще кучу специфических плюшек. но практически всё что смог пока найти, касаемо 3D... о видео монтаже и композинге упоминаний почти не встречал... и всё в общих чертах...
но при этом GeForce GTX 580 дешевле что для низкобюджетного варианта не маловажно (GeForce GTX 570 ещё заметно дешевле)... но как их сравнить? в "разах" бы разницу в производительности увидеть.
Сообщение отредактировал gn.koknar - 18.6.2012, 16:54
Насколько я знаю, видеокарты марки Quadro - это профессиональная серия, которая имеет совершенно другую архитектуру, чем, видеокарты GTX. Не знаю, как по тестоам, но, видимо, старшие в линейке карты GTX проигрывают по производительности не в обычных тестах, а именно на конкретных задачах обработки видео младшим картам Quadro. Этим объясняется их более низкая цена.
Для монтажа нашего двухмерного видео GeForce GTX 580 - это отличный выбор. Если вы работаете с 3D визуализацией и соответствующими математическими просчётами, тогда любая видеокарта серии Quadro больше подойдёт.
Ребята, всё дело в драйверах на видеокарту Quadro, которые рассчитаны под САПР и, соответственно, она лучше себя показывает в тяжёлдых вычислениях. Зато серия GTX за счёт большего числа ядер CUDA и более высоких частот лучше себя покажет в RT просчёте.
... видимо, старшие в линейке карты GTX проигрывают по производительности не в обычных тестах, а именно на конкретных задачах обработки видео младшим картам Quadro...
вот и я думаю, что не за понты цена... но никак не могу составить мнение на сколько критична разница в производительности.... может и не стоит на эти Quadro смотреть... что понял на сегодня: всё что выше Quadro 2000 однозначно для моих задач "слишком"... но возможно что и 2000 тоже слишком... и дороговата она....
Цитата(Longin @ 19.6.2012, 15:46)
Для монтажа нашего двухмерного видео GeForce GTX 580 - это отличный выбор. Если вы работаете с 3D визуализацией и соответствующими математическими просчётами, тогда любая видеокарта серии Quadro больше подойдёт.
нет, с 3D не работаю. видео монтаж. ну и пытаюсь АЕ осваивать... но как я понял Quadro не только для 3D, но и для работы с видео оптимизированы.
Цитата(Konnetabl @ 19.6.2012, 15:56)
Ребята, всё дело в драйверах на видеокарту Quadro, которые рассчитаны под САПР и, соответственно, она лучше себя показывает в тяжёлдых вычислениях. Зато серия GTX за счёт большего числа ядер CUDA и более высоких частот лучше себя покажет в RT просчёте.
я далёк от понимания технических обоснований, но думаю что так и есть... т.е. специализированная карта должна выигрывать. иначе это было бы совсем не логичным ))) мне интересно на сколько выигрывает...
а вот по поводу Adobe... оказывается примитивным бубновым танцем на 2-3 па к премьеру прикручивается гораздо больше игровых GeForce нежели их в списке сертификации. возможно таким образом можно прикрутить и Quadro 600 (на которую я и засматривался поначалу. но, как я уже писал, странно что специализированная карта не попала в список сертификации... может она действительно заточена только под 3D а под видео никак... или может заточена и уделывает в видеоредакторах GeForce равные ей по стоимости? а в списке сертификации отсутствует по каким-то маркетинговым соображениям... по цене она мне улыбалась )))
Цитата(Сандро @ 19.6.2012, 23:58)
Я видел тест, как Quadro со своими драйверами уделывает Geforce, как стоячую. Так что это реально!
желаю тоже видеть!!!
Сообщение отредактировал gn.koknar - 20.6.2012, 2:46
Я видел тест, как Quadro со своими драйверами уделывает Geforce, как стоячую. Так что это реально!
Это на какой задаче был тест? Какая-нибудь трёхмерная визуализация в 3D Max_e? Уверен, что на просчёте видео никакого преимущества у Quadro 2000 не будет, а может быть, даже она уступит 580-й GTX.
Виталий, подавляющее большинство "наших" сейчас работают на игровых жефорсах, и ни кто не жалуется. А если всё и так работает то зачем платить больше? Все они, как ты сам уже разобрался, без проблем прикручиваются к Премьеру. Не заморачивайся, бери что по деньгам подходит и работай, через год - второй, третий замениш на "Квадру" если будет желание. Но думается мне что вряд ли у тебя такое желание возникнет. Да,... обрати внимание на БП, эти видяхи неплохо жрут по питанию. На 300 Вт. БП ты её можеш и не запустить. Ну и на габариты тоже глянь, некоторые достаточно длинные и занимают по 2 слота в ширину. А также им нужны доп. разъёмы по питанию.
--------------------
1 раз - это случайность, 2 раза - это совпадение, 3 раза - это закономерность. Panasonic AG-HMC154ER; ZOOM H4n; Stabicam D-550; Libec TH-950DV; i7-930 2,8 GHz; ZOTAC GTX480; Win7 64; APP CS5.5.
Это на какой задаче был тест? Какая-нибудь трёхмерная визуализация в 3D Max_e? Уверен, что на просчёте видео никакого преимущества у Quadro 2000 не будет, а может быть, даже она уступит 580-й GTX.
да, похоже что именно с 3D. я нашёл таки пару статей с подобными тестами http://www.compress.ru/article.aspx?id=21850 http://www.sapr.ru/article.aspx?id=21807&iid=996 в них действительно, как я понял (если понял не верно, поправьте), всё с Зд моделированием... но в них конечно даже "начального уровня" Quadro 600 уделывает 580-й GTX. и стоит при этом почти в 2 раза дешевле. но вот чего я пока не могу однозначно для себя прояснить, действительно ли на работе с видео это преимущество не скажется? увидеть бы сравнительный тест с теми же участниками для РР и АЕ (кстати АЕ ни каким боком не относится к 3д?) Kolyan, Ваша уверенность основана на некоем знании? или это просто уверенность?
Цитата(bio_bog @ 20.6.2012, 21:09)
подавляющее большинство "наших" сейчас работают на игровых жефорсах, и ни кто не жалуется. А если всё и так работает то зачем платить больше? ... бери что по деньгам подходит ... ... обрати внимание на БП, эти видяхи неплохо жрут по питанию. На 300 Вт. БП ты её можеш и не запустить. Ну и на габариты тоже глянь, некоторые достаточно длинные и занимают по 2 слота в ширину. А также им нужны доп. разъёмы по питанию.
про БП уже в курсе. но спасибо про это примечание. оно вполне могло бы быть уместным. на этом моменте "без руля" можно пролететь, так же как и с габаритами)))
Цитата(Михаил Параньков @ 20.6.2012, 23:38)
В смысле, "нужны дополнительные разъёмы"? Просто по количеству дополнительные или какие-то особые разъёмы?
особые. PCI Express зовуться. 6 и 8 пиновые бывают (если не ошибаюсь). в слабых и древних БП их нет. поиск по запросу "БП с PCI Express" даст более подробные сведенья.
для БП без PCI Express есть переходники. бывают идут в комплекте с Вкартой. но вопрос мощности БП остаётся критичным. топовые карты требуют БП на 600 ватт.
нет, Quadro ведь разные по мощности. нужно смотреть в спецификации конкретной карты. например, та же Quadro 600, как я понимаю, не очень много потребляет (конкретной инфы по этой ее характеристике не вижу, но и целенаправленно не искал)
те 600 ватт, что я упоминал, это требования из спецификации GeForce GTX 580: "Минимально необходимая мощность БП 600 Вт"
те 600 ватт, что я упоминал, это требования из спецификации GeForce GTX 580: "Минимально необходимая мощность БП 600 Вт"
На "минимальную необходимую мощность" ориентироваться не стоит. Надо БП раза в полтора мощнее брать, тогда видеокарта будет адекватно работать при любой нагрузке.
Да, это совсем немного... Получется, Quadro 600 потребляет энергии, как обычная видеокарта и какой-то особой нагрузки на БП не создаёт. Чего же тогда такое пристальное внимание БП для системников с видеокартой серии Quadro?
отчего повышенное? в спецификации Вкарты указвается сколько она потребляет, и соответсвенно рекомендация по мощности БП. и в этих требованиях GeForce GTX ни как не уступают серии Quadro.
Серия Quadro считается профессиональной, а у них обычно требования по питанию выше за счёт более высокого рабочего потенциала, но если разницы нет, то эта "профессиональность" просто маркетинг, чтобы подороже продавать карту с практическими такими же возможностями.
Питание от количества процессоров на видеокарте зависит. Может так быть, что топовая видеокарта серии GeForce GTX будет иметь больше процессоров, чем начальная видеокарта серии Quadro и, соответственно, по питанию будет иметь бОльшие требования.
А что так разве бывает, чтобы у видеокарты GeForce GTX было больше процессоров, чем у видеокарты Quadro? Мне казалось, что эти две серии видеокарт отличаются именно уровнем производительности, который зависит непосредственно от количества процессоров.
да я тоже вопрошал... похоже ни 6000 ни 600, ни каких либо других... что я выяснил наверняка, так это то, что в 3D приложениях квадро обганяет джейфорсы как стоЯщие... но есть ли такое преимущество при работе с видео монтажём (и обработкой) я так и не понял.
Разница по любому будет. Вопрос в другом, нужна ли вам такая производительность. А конкретно по работе Премьера с кватрами есть полно обзоров. Раньше уже выкладывали, вот например в этой теме.
--------------------
1 раз - это случайность, 2 раза - это совпадение, 3 раза - это закономерность. Panasonic AG-HMC154ER; ZOOM H4n; Stabicam D-550; Libec TH-950DV; i7-930 2,8 GHz; ZOTAC GTX480; Win7 64; APP CS5.5.
... но есть ли такое преимущество при работе с видео монтажём (и обработкой) я так и не понял.
А что для видеокарты принципиально, какую задачу она выполняет и от этого зависит её производительность? 3D приложение или обработка 2D видеоматериала - это просто вычислительная задача для процессоров видеокарты и всё, поэтому если есть большое преимущество по скорости вычислений в одной задаче, то будет такое же преимущество в другой.
как я понял, действительно принципиально. именно по этому джей форсы выигрывают у квадро в игрушках, а квадро выигрывают в 3D. на эту тему информации полно и она однозначна. по поводу 2D - я ответа не нашёл.
Я не уверен, что на задачах обработки 2D видео, вообще, такие видеокарты тестируют, потому что это считается простая задача. Потенциал видеокарт показывают на выполнении сложных задач - это прежде всего 3D моделирование.
По обработке видео есть конкретные цифры от производителя. Например, за счёт технологии NVIDIA CUDA происходит ускорение конвертирования видео в 8 раз. Это данные производителя видеокарт.
Сергей, эти "в 8 раз" ни о чём не говорят. Это просто увеличение производительности за счёт использования процессоров видеокарты с CUDA при обработке видео. Но это сравнение только с центральным процессором и всё.
а сравнить то нужно не с процессором, а с другой вкартой. которая тоже NVIDIA, и у которой тоже CUDA. и у которой процессоров на борту может быть столько же как у неё (и даже меньше), а почему-то 3D она считает в 5 раз быстрее. конечно же если 2D(видео материал) рассматривается как обычная рядовая задача, и под нее не загаданы какие либо особые алгоритмы (как для 3D), то выходит при равном кол-ве процессоров на борту вкарты производительность джейфорс и кватро должны быть одинаковы. а так ли это - никто ведь не подтвердил и не опроверг опираясь на опыт, а не на предположения. если производительность одинакова, то разумеется квадро - совершенно неоправданное приобретение для работы с видео. ибо с тем же кол-вом процев (а в соответствии с предоложением, и производительнстью для работы с видео) джейфорс стоит гораздо дешевле.
Сообщение отредактировал gn.koknar - 24.12.2012, 4:49
А почему же тогда для профессиональных монтажных станций, например, для ТВ рекомендуют видеокарты именно серии Quadro, если у них с обычными видеокартами нет разницы при обработке 2D?
А кто сказал, что нет разницы? Давно ещё в анонсе видеокарт серии Quadro писали, что они позволяют в разы увеличить скорость процесса конвертирования и другой обработки видео. От балды производитель не стал бы такое писать.
Учитывая, что на разных задачах тестов видеокарты Quadro и GeForce меняются местами, то разница не столько в потенциальной производительности, сколько в применяемом алгоритме просчётов, который зависит от типа задачи. Получается, что эти карты вообще нельзя сравнивать, потому что у них назначение разное.
сравнивать то нельзя... а всё равно нада))) т.к. для одних и тех же задач видеомонтажёры покупают или джейфорс или квадра... точнее не покупают... ибо цена не маленькая, а внятного ответа по поводу уделает ли она на видео монтаже джейфорс? и если уделает, то пропорционально ли разнице в цене уделает - нет.
Эту информацию, наверное, можно только на телестудиях узнать, потому что у них обычно рядом стоят компьютеры на Quadro и на GeForce, поэтому вся работа на одних и тех же задачах по обработке видео проходит очень наглядно.
Среди моих знакомых у всех на компьютерах стоят видеокарты GeForce на Quadro никто не зарится из-за высокой цены. Но это народ не бедный и, если бы было большое преимущество в обработке видео у видеокарт Quadro, то их бы и покупали.
Вообще-то, тут вопрос цены роли не играет, потому что дорогие карты GeForce по цене сравнимы с дешёвыми картами Quadro. Тут именно задачность этих моделей видеокарт играет роль.
А про "задачность" своих карт сам производлитель NVIDIA ничего не сообщает? Что мы гадаем на кофейной гуще, если NVIDIA молчит? По-моему, тут уже идёт простое фантазированию по поводу, так как, если бы былда эта самая "задачность" у видеокарт разных серий. то производитель сообщал бы об этом.
Почему же молчит? У них на офсайте всё написано про то, какие видеокарты для каких задач предназначены. Другое дело, как относиться к этим рекомендациям?
С Quadro работать это просто кайф Если верить спецификации, то у меня максимальное потребление энергии 152 Вт. Прирост производительности в процентном соотношении я даже не могу сказать. Был GeForce GTX580, но с ним вообще не чего сравнивать.
Прочел ветку, уж очень много дискуссии по поводу что же брать квадро или джифорс. Сам однозначного ответа дать не могу, но я являюсь обладателем Nvidia Quadro 2000 и Nvidia GTX 650. Только они на разных системных конфигурациях стоят. Квадро стоит вместе с процессором i7 3770. а GTX на i5. Памяти и там и там 16 гигов. На твердотельник установлена винда и там и там. И по одному HDD на каждом. Материнка с квадро на чипсете Z77 а с GTX на z68. Блоки питания на квадро 850 ват, на GTX 750 ват. Чтобы тест получился чистым, мне в идеале надо на одной конфигурации сделать тест, что в принципе возможно, только не так скоро. Если вы обратили внимание уже ( ссылки на спецификацию видео карт - Quadro 2000 и gtx-650 ) то кол-во ядер CUDA у GTX намного больше, больше и пропускная способность памяти и так далее, смотрим по ссылке. Я монтирую видео DV PAL, т.к. камера у меня Sony DCR-2100E, цифрую через Sony GV-HD700, я уже упоминал в темах на этом форуме ранее когда описывал свои проблемы. Вот параметры видео - тест.txt ( 4,87 килобайт )
Кол-во скачиваний: 87
Вставляю футажи такого же размера, добавляю эффекты, переходы в Adobe Pre CS6. Никаких задержек нету. Когда экспортирую видео из премьера, ставлю галочку Match Sequence Setting, и две галочки внизу. То экпорт видео происходит на Quadro 2000 быстрее. С квадро кодируется за 2 минуты 30 секунд тридцатиминутный ролик. А с GTX за 5 или 6 минут где то. Потом в афтер эффекте есть Resolition/Down sample factor popup и параметры Auto, Full, Half, Third, Quarter. С квадрой у меня на Full всегда работает с эффектами хорошо и не тормозит, и качество не приходится предпросмотра ухудшать, чего не скажу про GTX, начинаются тормоза и приходится понижать этот параметр или ставить на AUTo. В принципе не критично , но в работе может понадобится чтобы просчет был в режиме реального времени. Для себя я сделал вывод еще и на фотошопе с 3д слоями. Чем больше их, тем больше захлебывается GTX. В квадре работать лучше. В итоге: для любой работы с видео, и если вы видеограф, я бы купил себе только профессиональную карточку из серии Quadro. Вот список "для каких целей" видеокарточки - тут Ну и оценка CUDA - тут А вот про премьер тут , будет вам полезно знать какую карту выбирать для HD. ( у меня Quadro 2000 - SD, кодирование, редактирование изображений с ультравысоким разрешением, векторный дизайн) а для HD подойдет Quadro 4000 или Quadro К4000 Конешно мне бы нужно протестировать на одинаковой конфигурации эти две карты, тогда можно сделать конкретный вывод. Потому что возможно часть вычислений выполняет процессор i7 здесь, и поэтому такая разница во времени. Позже отпишусь как сделаю тест. думаю что все таки Quadro 2000 победит
Сообщение отредактировал fyromag - 14.3.2013, 14:41
Выходит бОльшее количество ядер не только не даёт преимущества GTX 650 перед Quadro 2000, но она даже на равных не может с ней соперничать? Тогда к чему бОльшее количество ядер делать если они ни на что не влияют?
кол-во ядер влияет. только я думаю все дело в драйверах видекарты. Если 650 это игровая карта, то 2000 проф. вот и драйвера делают специально мне кажется под игры и отдельно под ПО для профессионалов. так как назначение разное у этих карт. и видимо алгоритм работы другой.
Кто нибудь владеет английским языком разговорным хорошо ? вот тут контакты компании PNY (производство видеокарт), позвонить бы им или написать какой конкретно нужен драйвер для видеообработки в ADobe Premier, After Efects CS6. с какйо пометкой? а то у них тут в архивах лежат QNF и WHQL
Мне кажется, если бы была разница для работы с видеообработкой между QNF и WHQL, то они бвы сами написали об этом в аннотации. Если не пишут, то её нет.
И так, ОНО Свершилось! я проделал тест на своем компе, где стоит i7, двух видеокарт GeForce GTX650 и Quadro 2000. Напомню что использование Geforce требует подключения питания разъемом 6-pin. А Quadro 2000 берет питание с материнской платы. Драйвера для GTX650 использовал самые последние с сайта Nvidia.ru версии 314. А для Quadro 2000 скачал из архива QNF 314.07 для чистоты теста. Видео сначала загрузил в премьер CS6 со всеми обновлениями, длительностью 30 минут 17 секунд. GTX 650 справился за 3 минуты 27 секунд А Quadro 2000 за 3 минуты 31 секунду
Потом в Affter Effects CS6 тоже с последними обновлениями решил закинуть 4 видео и посмотреть как они будут одновременно проигрыватся. Fps падал с 25 кадров до 15-18 местами, видео шло рывками на обеих видеокартах. Видео тяжелое, чуть позже закину.
В итоге мои выводы и наблюдения, заметного прироста в производительности я не заметил, эти карточки вели себя почти одинаково в моих тестах. Но еще нужно учитывать что Quadro выпускалась гораздо раньше чем GTX650, т.е. уже немного морально устарела. Я покупал 4 месяца назад Quadro 2000 за 15 000 руб, а GTX 650 брал 2 месяца назад за 5500 руб. Пока доволен остался только тем что моя квадра меньше потребляет энергии )))) нежели этот gtx ) Ничуть не уступая по производительности. Ну это пока все, будут у вас варианты предложения тестов, пишите, по возможности проведу.
Еще заметил вот такую штуку: по характеристикам Quadro и GeForce сильно отличаются пропускной способностью памяти, в Quadro 6000 она составляет 144 ГБ/сек, а в Quadro 2000 - 41.6ГБ/сек. Число ядер CUDA у Quadro 6000 - 448, а в Quadro 2000 - 192.
Аналогично с Geforce GTX 690 и GTX650 соответственно: пропускной способностью памяти GTX 690 - 6 ГБ/сек и GTX650 - 5 ГБ/сек, Число ядер CUDA у GTX 690- 3072, а в GTX650 - 384.
Вот из такого я должен предположить что Quadro 6000 с моими задачами должен справляться быстрее чем GeForce GTX 690. Но на практике проведенный мною тест показал что для таких задач не важно что это будет морально устаревшая Quadro 2000 за 15 000 рублей или GeForce GTX650 за 5 500 рублей, результат одинаковый. Поэтому кто хочет заниматся монтажом DV PAL или любого SD видео, то лучше присмотреться в сторону GeForce дабы сэкономить на бюджете. Или же купить себе видеокарту ценой чуть более 10 тысяч рублей на будущее или для монтажа HD-видео. Может быть весь потенциал профессиональных графических ускорителей раскрывается на больших площадках для монтажа кинофильмов, ну уж точно не для событийных видеографов. Которым бюджет и так не позволяет покупать видеокарты за 80 или 100 тысяч рублей
Замечу также, что adobe официально поддерживает следующий список видеокарт cuda_supported_cards.txt ( 342 байт )
Кол-во скачиваний: 84
Есть там GeForce GTX680, которая стоит в районе от 16 до 19 тысяч. Очень интересно было бы узнать насколько она пригодилась бы для задач видеографа. И стоит ли тратить такую сумму на покупку видеокарты.?
Меняю Resolution c Full на Quarter и обратно. Ютуб немного испоганил качество, но основное видно: задержки и то как меняется картинка по качеству и скорости. fps плавающий с 16-18 до 25.
Вот ссылка на обзор новинки из проф ускорителя Nvidia Quadro K5000 с официального сайта. Вот цитирую текст -
Цитата
Кроме того, NVIDIA активно работает над тем, чтобы найти для своих карт серии Quadro применение и в сфере профессиональных программ для создания и обработки видеоконтента. Так, поддержку Quadro K5000 должны будут получить приложения из перспективного пакета Adobe CS7, движок Mercury Playback Engine которых сможет активно задействовать развитые вычислительные CUDA-возможности архитектуры Kepler.
Здесь ключевые слова Активно работает , над обработкой видеоконтента. Что в свою очередь говорить о сырости продукта с драйверами.
Сообщение отредактировал fyromag - 15.3.2013, 21:33
Ну, этот тест говорит о том, что для наших задач тратить деньги на карты Quadro нет никакого смысла, так как видеокарты GeForce выпоняют задачу даже быстрее.
В тесте использовались старшая карта GeForce и младшая карта Quadro, поэтому ничего удивительного в том, что Quadro проиграла тест. Но, если посчитать количество процессоров на той и другой карте, то очевидно, что алгоритм работы Quadro более действенный, так как разница в тесте мизерная, а количество процессоров меньше в разы.
это понятно. но вы же не будете для нарезки full HD видео и вставки эффектов и пару футажей с переходами использовать Quadro К5000 стоимостью в 69 000 руб? Когда для таких целей, вполне подойдет GeForce Gtx 680 например. При цене в 18 тысяч. Причем событийные видеографы часто не пользуются всеми преимуществами Quadro. Кому нужно для монтажа свадьбы или репортажа или дня рождения использовать 8 мониторов ? или создать многокамерное видео без торможения в реальном времени? Может такие и есть но единицы. При нашем бюджете и низкой стоимости оплачиваемых работ это не востребовано. Да и свадьбы не каждую неделю заказывают. А уж о том как у себя в регионе зарабатывать, это отдельная тема
Для наших задач два монитора - это выше крыши. На одном рабочая плоскость программы монтажа, на другом контроль картинки. Видеокарта GeForce с этой задачей справляется отлично!
Практически все окна всегда ВКЛ (включая вектороскоп, размеры которого нельзя изменить (Эдиус)), т.о по 3-4 окошка на каждый монитор, для линейки монтажа отдельный монитор, для полноэкранноко предпросмотра с зеброй тоже отдельный монитор, плюс где-то еще должны оставаться видимыми виджеты загрузки CPU и GPU. И плюс еще на правильный ТВ предпросмотр через HDSPARK. Очень удобно!!!
А разве интерфейс EDIUS не позволяет все рабочие окна разместимть на одном мониторе и нормально работать? Использовать несколько мониторов - это, что рекоменлация от разработчика монтажки?
Artyom, Можно, только размер окон приходится передвигать, например в Premier Cs6 таймлайн делать большим, или смотреть в оба монитора сразу, монтировать эффекты... щурится приходится ))) да и устаешь когда все это по ходу работы оптимизируешь и по горячим клавишам бегаешь. а с монитрами попроще )))
Сообщение отредактировал fyromag - 21.3.2013, 14:22
А разве интерфейс EDIUS не позволяет все рабочие окна разместимть на одном мониторе и нормально работать?
Разместить-то все можно, можно купить себе монитор 32" (или более), можно выставить максимально разрешение, одеть диоптривые очки и чиркать носом по монитору, как Буратино . А через годик-другой потерять остатки зрения. А можно сделать себе жизнь комфортной и привлекательной. Эдиус изначально заточен минимум под два монитора.
Не только EDIUS... Любой видеоредактор изначально предполагает использование двух мониторов, поэтому в каждом редакторе есть функция вывода окна монитора на контрольный монитор.
На мой взгляд, многомониторность только тормозит работу, потому что надо больше головой вертеть, чтобы получить информацию с разных мониторов. А когда всё в одном мониторе, то, хоть и мелко, но зато мгновенно получаешь информацию со всех окон.
А как прямые трансляции из той же ПТС-ке ведутся, там правда в современных иногда делят один монитор на четыре виртуальных, но все равно там вся стена в мониторах. А оперативность при прямой трансляции нужна куда бОльшая, чем при монтаже.
PS Специально для Benjiro, развивайте боковое зрение, для примера у кошки 187 градусов, у жирафа - 140 градусов, у лощади почти 360 градусов, а они наши родственники.
А если серьезно, то каждый работает так, как ему удобно и как привык, причем очень часто этот метод не является наиболее скоростным и оптимальным, например монтажерам-пенсионерам, пересевшим с линейки на нелинейку, удобнее пользоваться специальными пультами с шатлами и джогами итп, подключаемыми к компьютеру.
Всё правильно. привычка - это вторая натура. Только привычка к монтажу с шестью мониторами - это довольно дорогая по деньгам привычка. Если денег много, то не вопрос, а нужно покупать мониторы и работать, но, если деньги расходовать более рационально, то, на мой взгляд, два монитора - это оптимальный вариант.
Оптимальный вариант в наше время - это купить большой монитор от 32" и разделить его на несколько рабочих окон. По деньгам такое решение намного выгоднее, чем покупать несколько отдельных небольших по диагонали мониторов.
будут у вас варианты предложения тестов, пишите, по возможности проведу.
спасибо за проделанную работу! давно пытаюсь разобраться в разумности приобретения Квадро для событийщика. Ваш тест показывает не особую целесообразность данного шага. при совершенно не сопоставимой стоимости можно получить схожую производительность. НО есть мнение (высказанное владельцами Квадро), что даже при проигрыше Квадро (помладше в линейке) ДжейФорсу (постарше в линейке) во времени рендеринга, Квадро выигрывает в "качестве" выполненной работы. она якобы деликатнее работает с видео, результат получается с лучшей детализацией (меньшим мылом) по сравнению с результатом полученным от ДжФорс.
вот это, для меня, по прежнему вопрос открытый. если сподобитесь на подобный тест - дополнительная честь Вам и хвала.
ps наверное подобное тестирование лучше проводить на HD, даже на Full HD. помня что Вы работает с SD, предлагаю скачать откуда нибудь исходник фул хд (на форумах многие выкладывают кусочки нативного видео (я тоже пока с SD работаю, но у меня есть скачанные такие фрагменты. могу переслать что нибудь) и с ним поэкспериментировать. достаточно совершенно короткого фрагмента
Сообщение отредактировал gn.koknar - 31.3.2013, 13:24
Пока никто не подтвердил конкретными кадрами утверждение, что обработка виде на видеокартах Quadro делает картинку выше качеством, чем обработка видео на видеокартах GeForce.
gn.koknar, Я только ЗА такой тест, потому что этот миф бытует уже давно. Проблема пока у меня одна у меня нет камеры fullHD. Качать с youtube не буду, потому как всем известно что он изменяет частоту кадров и уменьшает битрейд и прочее. Буду рад если кто нибудь из форумчан скинет исходник с какой нибудь fullHD камеры, например AVCHD или подобной, на Яндекс.Диск или любой другой бесплатный файлообменник там где нормальная скорость и не нужно платить денег.
разумеется ни с каких ютюбов! )))) нужен файлик который камера выдаёт. я сам не владелец HD. пока только готовлюсь к переходу. решаю по поводу камеры, ну и это заставляет одновременно готовиться к апгрейду компа. отсюда и повышенный интерес к в.картам. файлик для эксперимента думаю предоставит кто-нибудь из владельцев. нужно только подождать)))