Помощь · Поиск · Пользователи · Календарь
Полная версия этой страницы: ATI Vs nVidia
AnimeKazan Forum > Разное > Железо и программы
da-nie
Ну что, господа, пришло время рассмотреть эти два семейства видеоускорителей. smile.gif Я не буду сравнивать тесты производительности и прочую лабуду, расскажу только, почему я НИКОГДА не покупаю видеокарты от ATI. Видите ли, лет 5 назад я купил ноутбук с видеокартой ATI Mobility Radeon 9000. Как вы знаете, я изредка пишу приложения под OpenGL. Так вот, в ту славную пору я запустил свой 3D движок на ноутбуке. Хм. Движок работал несколько быстрее (кадров в секунда на 15 больше), чем на моём стационарном компьютере с nVidia GeForce MX 440. Ну что ж, подумал я, и включил glPolygonMode(GL_FRONT_AND_BACK,GL_LINE) - иначе, я попросил все полигоны рисовать контурами, то бишь, линиями и не закрашивать. Вы, наверное, думаете, что видеокарты оказались счастливы многократно снизить сложность решаемой задачи? Не-а. Все они скинули FPS мгновенно: nVidia скинула около 5 кадров, а вот ATI делала 1 кадр в 2 секунды (изначально было около 170 FPS). wink.gif Так-так, подумал я. Так значит, вы, любезные, не оптимизируете те функции, которые в современных играх не используют? Вы, простите, хитрожопые до ужаса. Ладненько. С тех пор вроде как на ATI в более современных платах этого прикола уже нет, но сегодня выяснился ещё один прикол. У меня есть программа, которая очень интенсивно использует glReadPixels. Вот надо ей. На Sapphire ATI Radeon 9000 (кстати, для неё catalist нужен от Sapphire, обычный её не находит, так что я полагаю, что Sapphire эту плату намудрила, потому она вообще работает приемлимо в моей программе) эта программа делала 1 условную точку (это уйма операций рендеринга и glReadPixels) за 20 секунд. nVidia FX 5200 справлялась за 13 секунд. Купили мы ATI X1650 и стали надеяться на лучшее. Облом. Она делает 1 точку за 171 секунду!!! У неё ОФИГЕННО тормозит glReadPixels! Итак, как вы понимаете, после ТАКОГО обмана потребителя я ну никак не могу симпатизировать ATI.
К слову сказать, у nVidia MX 440 одна функция тоже глючила жутко - это сглаживание полигонов на максимальном качестве (у ATI она работала) - на минимальном качестве всё работало хорошо. Но всё-так, у nVidia реализация OpenGL гораздо лучше и такого обмана потребителя нет. Вот так то.
Ilnur
Я всегда предпочитал nvidia. Geforce mx220 моя первая карта из семейства nvidia geforce. Да и если копнуть немного в историю. У ATI были раньше проблемы с оптимизацией OpenGL. Она сильно проигрывала тогдашнему лидеру 3dfx. А если учесть что с того времени технология OpenGL не так уж сильно изменилась, и то что nvidia поглотила 3dfx, то все становится на свои места.
Archi
nVidia ибо Linux Like Х) Но Ати нравится больше, долго пользовался до этого, да и щас они очч хороши в соотношении цена/качество
З.Ы. Albatron 8600 GT 256 Mb GDDR3...была Х) Вчера, в 2 ночи отлетел кулер(скорей всего сначала перестал крутиться, а потом клеймы крепляющие расплавились), есессно карта перегралась и сгорела, делайте выводы господа XD
Ilnur
Цитата(ARCHI @ 22.2.2009, 4:00) *
З.Ы. Albatron 8600 GT 256 Mb GDDR3...была Х) Вчера, в 2 ночи отлетел кулер(скорей всего сначала перестал крутиться, а потом клеймы крепляющие расплавились), есессно карта перегралась и сгорела, делайте выводы господа XD

Вывод один только напрашивается. Сборка была х... Albatron)) Чип то тут причем?
Archi
ну я и брал потому что была самая дешёвая 8600 Х) Китайский ширпотреб блинsmile.gif
Ilnur
Цитата(ARCHI @ 1.3.2009, 23:04) *
ну я и брал потому что была самая дешёвая 8600 Х) Китайский ширпотреб блинsmile.gif


Где брал то? Верни им по гарантии! И все путем.
Archi
ну дык ужеsmile.gif
Kaigen
Была ATI, сейчас nVidia. Как-то ати больше понравилась. ^^
Ilnur
Цитата(Mika @ 3.3.2009, 15:03) *
Была ATI, сейчас nVidia. Как-то ати больше понравилась. ^^


Чем же можно узнать?
Kaigen
Ilnur, ати настраивать не надо было, работала и все. А у нВидиа много настроек каких-то, которые я даже не знаю для чего. biggrin.gif Короче для ламера лучше ати. )))
Ilnur
Mika, да не особо то и нужно настраивать. Я лично вставлял карту, устанавливал дрова и все корректно работало. А настройками пользуюсь редко. Разве что при установке нескольких дисплеев.
Wild Cat
Цитата(Ilnur @ 5.3.2009, 13:12) *
Mika, да не особо то и нужно настраивать. Я лично вставлял карту, устанавливал дрова и все корректно работало. А настройками пользуюсь редко. Разве что при установке нескольких дисплеев.

А как же разгон, или сглаживание, антиализинг и т.д.?
Вот например у меня Нвидиа 8600GTS AMP! Edition (вообщем типа заводской разгон 720/1100) и некоторые игры сильно перегревают видюху, это даже при установленном охлаждении на 1000 рэ!
Приходится снижать частоты до номинальных и все пашет)
Ilnur
Цитата(Wild Cat @ 5.3.2009, 15:32) *
А как же разгон, или сглаживание, антиализинг и т.д.?
Вот например у меня Нвидиа 8600GTS AMP! Edition (вообщем типа заводской разгон 720/1100) и некоторые игры сильно перегревают видюху, это даже при установленном охлаждении на 1000 рэ!
Приходится снижать частоты до номинальных и все пашет)

Странно что у тебя перегревается, тем более с такой системой охлаждения. У меня стандартная система охлаждения. Видюха MSI8800GTS(на повышенных частотах) при максимальной детализации в тесте 3DMark Vantage с разрешением 1680х1050 нагревается до 70. Но это норма для таких карт. Игры не глючат. Да и все остальное тоже.
При самостоятельном разгоне использую дополнительно rivatuner. Там есть фишка как ручное управление оборотами кулера. Так вот если выставить на 100%, то температура опускаеться на 5 градусов. Правда у меня еще с боку на корпусе, прям напротив видеокарты установлены еще 2 куллера.
А все остальное можно же настроить в приложении или игре. Просто утановив в настройка 3d, параметр "управление от приложения". вот и все собственно. Но если не хочеться так морочиться, то все на макс))
Wild Cat
Цитата(Ilnur @ 5.3.2009, 23:25) *
Странно что у тебя перегревается, тем более с такой системой охлаждения. У меня стандартная система охлаждения. Видюха MSI8800GTS(на повышенных частотах) при максимальной детализации в тесте 3DMark Vantage с разрешением 1680х1050 нагревается до 70. Но это норма для таких карт. Игры не глючат. Да и все остальное тоже.

Думаю у меня она просто глючная попалась(
Цитата(Ilnur @ 5.3.2009, 23:25) *
При самостоятельном разгоне использую дополнительно rivatuner. Там есть фишка как ручное управление оборотами кулера. Так вот если выставить на 100%, то температура опускаеться на 5 градусов. Правда у меня еще с боку на корпусе, прям напротив видеокарты установлены еще 2 куллера.

Rivatuner использовал раньше, но теперь практически все тоже самое можно накрутить в Ntune от Nvidia, как приложение к дровам. Скорость у меня регулируется в ручную от резистора (было вместе с кулером), вентиляторы пришлось тоже добавить. Кстати когда корпус открыт ничего не перегревается.
Цитата(Ilnur @ 5.3.2009, 23:25) *
А все остальное можно же настроить в приложении или игре. Просто утановив в настройка 3d, параметр "управление от приложения". вот и все собственно. Но если не хочеться так морочиться, то все на макс))

Можно и так. а лучше менять по одной опции и смотреть как это влияет на картинку в игре. Потому как иногда игры не отключают свои эффекты и происходит не очень красивое наложение. Игра начинает еще больше тормозить.
Ilnur
Цитата(Wild Cat @ 6.3.2009, 8:44) *
Думаю у меня она просто глючная попалась(

Может быть. Но я как то слышал от продавца мэлта, что видеокарта GeForce 9800 GX2 нагревается до 80 градусов. У тебя там до сколки зашкаливает?
Цитата(Wild Cat @ 6.3.2009, 8:44) *
Rivatuner использовал раньше, но теперь практически все тоже самое можно накрутить в Ntune от Nvidia, как приложение к дровам. Скорость у меня регулируется в ручную от резистора (было вместе с кулером), вентиляторы пришлось тоже добавить. Кстати когда корпус открыт ничего не перегревается.

Странно что при закрытом корпусе с доп. кулерами перегревается. Может быть тебе стоит перенаправить воздушные потоки?
Цитата(Wild Cat @ 6.3.2009, 8:44) *
Можно и так. а лучше менять по одной опции и смотреть как это влияет на картинку в игре. Потому как иногда игры не отключают свои эффекты и происходит не очень красивое наложение. Игра начинает еще больше тормозить.

Мда не спорю. Но все таки лень берет верх. Просто чтобы добиться оптимальных настроек надо потратить определенное время. А когда и так все нормально пашет, то я не меняю настройки обычно.
da-nie
Вот есть у меня махонький тестик: Нажмите для просмотра прикрепленного файла
, тестирует функцию, а именно glReadPixels. Надо запустить и по окончании теста появится окно с баллами. Чем меньше баллов, тем лучше (у меня 6.3878 на GF6600). И сдаётся мне, что у ATI на этом тесте будет провал. smile.gif
dok
прошол тест результат: 28.0941 видюха радион х1300
это хорошо или плохо ?
Sanyok774
У меня 0,93392 балла.
Видеокарта nVidia GeForce GTS 250 (1024 Мб).
da-nie
Цитата
прошёл тест результат: 28.0941 видюха радион х1300
это хорошо или плохо ?


Это плохо. smile.gif Но только на одной функции. Которая никому не нужна. Кроме меня. smile.gif
Archi
3.54665 Nvidia 460GTX 1 Gb, и как это понимать?smile.gif
da-nie
Цитата
3.54665 Nvidia 460GTX 1 Gb, и как это понимать?


Ну как? За 3.54 секунды было считано 1000 кадров. Вот и всё. smile.gif
Русская версия IP.Board © 2001-2019 IPS, Inc.