Перейти к содержанию
BioWare Russian Community
The Old One

Видеокарта

Рекомендуемые сообщения

Вот блин , одни говорят что жифорс огого, другие что ати огого, а я, простой ламер, запутался нафиг:(

Наверно, все-таки подсобираю немного денег и возьму хорошую GTX 480 от MSI , с этой видюшкой я точно не прогадаю )

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

к твоему сведению карты AMD используют более прогрессивную и гибкую суперскалярную архитектуру нежели карты Nvidia.

И в чем же ее гибкость и прогрессивность, ну и покажи или расскажи, где эта самая суперскалярная архитектура имеет применение на практике, сопоставимое с применением CUDA.

Вот блин , одни говорят что жифорс огого, другие что ати огого, а я, простой ламер, запутался нафиг:(

Наверно, все-таки подсобираю немного денег и возьму хорошую GTX 480 от MSI , с этой видюшкой я точно не прогадаю )

пока будешь собирать, можно будет спокойно взять GTX570 или GTX580 (хотя на последнюю врятли цена упадет) с этими видюшками наверняка не прогадаешь :good: Изменено пользователем I am Krogaaaaan

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

И в чем же ее гибкость и прогрессивность, ну и покажи или расскажи, где эта самая суперскалярная архитектура имеет применение на практике, сопоставимое с применением CUDA.

CUDA - среда программирования и специальное ПО (компиляторы), позволяющее приложениям (только тем, кто поддерживает эту технологию) использовать вычислительные ресурсы видеоадаптера. Она может быть прикручена к чему угодно (хоть к Radeon-ам, хоть к ARM процессору). Аналогично - DirectCompute, OpenCL и остальные.

AMD кстати представили BulletPhysics - аналог PhysX :-D В сети уже должны появиться бенчмарки. так что теперь пользователям Nvidia козырять нечем. BulletPhysics используется также в киноиндустрии... ;)

CUDA - не архитектура! Абсолютно два разных понятия, которые ты явно путаешь. Не надо смотреть на маркетинговые Nvidia CUDA-cores. Вопрос: ты постоянно упоминаешь CUDA - назови-ка, мне несколько приложений, с поддержкой данной технологии, которыми активно используют рядовые пользователи ПК? Негусто, да? ;)

Что есть суперскалярная VLIW архитектура

Цитата:

"Преимущества и недостатки

Подход VLIW сильно упрощает архитектуру процессора, перекладывая задачу распределения вычислительных устройств на компилятор. Поскольку отсутствуют большие и сложные узлы, сильно снижается энергопотребление.

В то же время, код для VLIW обладает невысокой плотностью. Из-за большого количества пустых инструкций для простаивающих устройств программы для VLIW-процессоров могут быть гораздо длиннее, чем аналогичные программы для традиционных архитектур.

Архитектура VLIW выглядит довольно экзотической и непривычной для программиста. Из-за сложных внутренних зависимостей кода, программирование на уровне машинных кодов для VLIW-архитектур человеком вручную является достаточно сложным. Приходится полагаться на оптимизацию компилятора."

Суперскалярная архитектура.

+ Низкое энергопотребление и размеры

+ Хорошая распаралеливаемость вычислений

- Сложное программирование (грубо говоря, под них труднее оптимизировать шейдеры и писать ПО - драйвера. Поэтому новые HD6870 получили сырые драйвера. Однако это вовсе не значит, что они такими сырыми и останутся.)

Вообще при скалярной архитектуре каждый потоковый ALU обрабатывает одну скалярную (за такт), а при суперскалярной - одну скалярную + одну векторную, состоящую из четырех простых скалярных операций.

Шейдерный домен у карт Nvidia работает на удвоенной частоте (поэтому можно считать, что за такт ALU выполняет 2 скалярных инструкции).

Современные HD69xx имеют немного другую архитектуру (это потребовало также серьёзно переписать драйвера - вот вам и задержка с анонсом) - ALU нового поколения могут делать 2 скалярные инструкции + 1 векторную. Также они получили два диспетчера потоков (теперь некоторые ALU не будут простаивать в нагрузке, как это зачастую бывало с HD2xxx-HD5xxx - их много, нагрузить всех сложно). Теперь сложные шейдеры (DirectX 11) карта будет перемалывать легче, а с простыми (DirectX 9) производительность слегка упадёт.

Вычислительное превосходство за картами AMD - они имеют большую производительность на транзистор.

Наверно, все-таки подсобираю немного денег и возьму хорошую GTX 480 от MSI , с этой видюшкой я точно не прогадаю )

Единственная нормальная современная карта Nvidia - Geforce GTX580. Все Geforc-ы 400-ой серии - полное УГ.

Брать её, либо ждать Geforce GTX570, Radeon HD6950, HD6970 (кстати должна быть быстрее чем GTX580) - с их выходом цены должны упасть.

+ Сделана не на обрезке, а на полноценном GPU (наладили таки выпуск) с 512 скалярными ALU

+ Блоки TMU работают на полной скорости (в GTX480 они были замедлены) - в сценах с интенсивным текстурированием новая карта сильно сделает GTX480

+ Уложились в энергопотребление GTX480, при увеличении частоты и кол-ва активных блоков (браво!)

+ Карта получила новый кулер с тангенциальным вентилятором большего диаметра и испарительной камерой - получаем на 10 градусов меньший нагрев в нагрузке.

- Жуткое энергопотребление, несмотря на все улучшения. Но с учётом остальных качеств, на это уже можно закрыть глаза.

какие-то жалкие 20 Вт между GTX460 и 5850

Поставь себя на моё место - я спорю с человеком, который утверждает, что "20 лишних ватт - фигня" - но эта фигня присуща более слабой карте (GTX460) чем HD5850. И при том, ты утверждаешь, что "нате вам, AMD имеют несовершенную архитектуру!" - это же где она несовершенная?! Жрёт, греется и шумит меньше, "бегает" быстрее - несовершенная говоришь? :blink: Графики и фотографии с моей стороны говорят о другом, с твоей лишь слова. И вот эти самые ватты выделются теплом в твоём системном блок, подогревая чипсет и процессор, которые ну уж точно не скажут спасибо за лишнее тепло. ;) Снимки тепловизера ты видел, больше мне добавить нечего - ПЕЧ460ка она и в Африке печка. :)

Изменено пользователем Shiala

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

А какова цена этой штучки?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

А какова цена этой штучки?

Рекомендованная - 599 долларов США (18 тысяч рублей). Розничная в России - от 23-25 тысяч...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Рекомендованная - 599 долларов США (18 тысяч рублей). Розничная в России - от 23-25 тысяч...

В Сибири - 28-30 тысяч :cray:

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

В Сибири - 28-30 тысяч :cray:

А ты чего хотел? За 20 штук можное с Ebay заказать ;)

Кстати две HD6850 в Crossfire будут примерно такие же (чуть быстрее) по скорости как GTX580:

http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:7:a:a:a:0:a:1:30:r:1:1:&oper=94810::::

perfrel_1920.gif

В графике нет GTX580 - производительность её лежит между GTX480 и HD5970

Стоить это удовольствие будет 15 тысяч. Нужна мат. плата с поддержкой Crossfire и 2-мя слотами PCI-E x16

Чем хороши - две HD6850 кушают меньше чем одна GTX580 (блоку питания не придётся рвать анус), неплохо разгоняются.

ОЛОЛО: http://cgi.ebay.com/Galaxy-GeForce-GTX-580-Fermi-1536MB-GDDR5-SLI-/320624586010?pt=LH_DefaultDomain_0&hash=item4aa6b6ed1a

2 I'am Krogaaaaaaaan:

На Overclockers.ru вышла статья HD6870 в которой автор недвусмыслнно намекает, что нынешняя продукция AMD - УГ, а GTX460 - величайшая видеокарта всех времён и народов, CUDA и PhysX - едва ли не хлеб насущный (статья кстати получила 2.6 (227 голосов) баллов из 5 - что как бы должно охарактеризовать неправоту автора). В обсуждении разумеется разгорелся срач. Кстати в обсуждении автор статьи впадает в полный неадекват и требует с форумчан 100000 рублей, что как бе символизирует его честность...

Выяснилось, что GTX460, которую тестировал автор - элитная POW GTX460 TGT Beast стоимостью 280 долларов - в статье о её цене ни слова (В России около 9000 рублей) - в разгоне (до 925 мгц) она таки перегоняет HD6870 - чему автор несказанно радуется на протяжении всей статьи :-D

Разумеется людям прочитавшим статью захочется купить GTX460 - однако купять они простую, версию без заводского разгона - которая не сможет взять и 850 мгц. А подобный разгон (без замены охлаждения) как в статье попросту убьёт обычную GTX460 (читаем ветку GTX460 на тех же оверклокерах - там есть куча постов горе-оверклокеров :-D )

Посты которым я поставила бы +100500:

http://forums.overclockers.ru/viewtopic.php?p=7883245#p7883245

http://forums.overclockers.ru/viewtopic.php?p=7883272#p7883272

http://forums.overclockers.ru/viewtopic.php?p=7883794#p7883794

http://forums.overclockers.ru/viewtopic.php?p=7884769#p7884769

http://forums.overclockers.ru/viewtopic.php?p=7885052#p7885052

http://forums.overclockers.ru/viewtopic.php?p=7885330#p7885330

http://forums.overclockers.ru/viewtopic.php?p=7886786#p7886786

http://forums.overclockers.ru/viewtopic.php?p=7888828#p7888828

Nuff Said. К чему всё это было - спор с тобой, очень напомнил мне текст этой статьи.

Изменено пользователем Shiala

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

2 Shiala:

http://www.amdclub.ru/videokarti/dva-na-odnogo-ili-crossfirex-amd-radeon-hd-6870-protiv-nvidia-geforce-gtx-580/vse-stranitsi

Это тест двух 6870 в Crossfire, но интересно опять же не это, а Palit GeForce GTX460 1 Gb Sonic Platinum и ATI Radeon 5870, ну елы-палы, ну на равных он с ней, кое-где и опережает, но они оказывается, долго не живут, ну как такое возможно - объясните GTX460 и 5870?????

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

2 Shiala:

http://www.amdclub.ru/videokarti/dva-na-odnogo-ili-crossfirex-amd-radeon-hd-6870-protiv-nvidia-geforce-gtx-580/vse-stranitsi

Это тест двух 6870 в Crossfire, но интересно опять же не это, а Palit GeForce GTX460 1 Gb Sonic Platinum и ATI Radeon 5870, ну елы-палы, ну на равных он с ней, кое-где и опережает, но они оказывается, долго не живут, ну как такое возможно - объясните GTX460 и 5870?????

В 2 тестах на равных, в двух тестах HD5870 продул - остальные не за GTX460

А вот что на этот счёт думает Techpowerup (результатам тестов которого доверия всё же больше) - разница в FullHD 15 процентов.

perfrel_1920.gif

Там конечно не Palit GTX460 Sonic, а Zotac GTX460 Amp! - однако Зотак работает на частоте в 10 мегагерц большей, так что всё честно

Чтобы выжать из GTX460 больше (без плачевных для неё последствий) уже нужно куда более серьёзное охлаждение или водоблок (+1500-2000 рублей). Вот вам и выходит:

http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:7:a:a:a:0:a:2:30:r:1:1:d136&oper=91395:::: (8000 рублей) + 2000 = 10000 рублей. Смысла в покупке GTX460 нет. Уж за эти деньги лучше взять HD5850 - сэкономишь 1500 р.(или уж на худой конец GTX470 - кушает так же как раогнанная GTX460, работает быстрее, сэкономишь 500 рублей.) - меньше геморрою, нет проблем с потерей гарантии, да и разогнать можно

Изменено пользователем Shiala

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

2 I'am Krogaaaaaaaan:

На Overclockers.ru вышла статья HD6870 в которой автор недвусмыслнно намекает, что нынешняя продукция AMD - УГ, а GTX460 - величайшая видеокарта всех времён и народов, CUDA и PhysX - едва ли не хлеб насущный (статья кстати получила 2.6 (227 голосов) баллов из 5 - что как бы должно охарактеризовать неправоту автора). В обсуждении разумеется разгорелся срач. Кстати в обсуждении автор статьи впадает в полный неадекват и требует с форумчан 100000 рублей, что как бе символизирует его честность...

Выяснилось, что GTX460, которую тестировал автор - элитная POW GTX460 TGT Beast стоимостью 280 долларов - в статье о её цене ни слова (В России около 9000 рублей) - в разгоне (до 925 мгц) она таки перегоняет HD6870 - чему автор несказанно радуется на протяжении всей статьи :-D

Разумеется людям прочитавшим статью захочется купить GTX460 - однако купять они простую, версию без заводского разгона - которая не сможет взять и 850 мгц. А подобный разгон (без замены охлаждения) как в статье попросту убьёт обычную GTX460 (читаем ветку GTX460 на тех же оверклокерах - там есть куча постов горе-оверклокеров :-D )

Посты которым я поставила бы +100500:

http://forums.overcl...883245#p7883245

http://forums.overcl...883272#p7883272

http://forums.overcl...883794#p7883794

http://forums.overcl...884769#p7884769

http://forums.overcl...885052#p7885052

http://forums.overcl...885330#p7885330

http://forums.overcl...886786#p7886786

http://forums.overcl...888828#p7888828

Nuff Said. К чему всё это было - спор с тобой, очень напомнил мне текст этой статьи.

Я лапуля конечно всё понимаю, но я откровенного дерьма, тоже терпеть не могу, и говорить что у меня есть что-то общее с каким-то дураком, который решил, может подзаработать деньжат, может еще что-нибудь, хрен его знает, пожалуйста не надо, а то так до много можно договориться, я все-таки горе-пользователем а уж тем более горе-оверклокером (к этому оверклоку я отношусь вообще никак) себя не считаю, а мои мысли и впечатления от НВидиа и Радеонах, исходят исключительно от моего собственного понимания и мыслей, опытом пользования НВидией,ну и естественно от различного рода источников информации, но не таких дерьмовых как данная статья....

В 2 тестах на равных, в двух тестах HD5870 продул - остальные не за GTX460

А вот что на этот счёт думает Techpowerup (результатам тестов которого доверия всё же больше) - разница в FullHD 15 процентов.

perfrel_1920.gif

Там конечно не Palit GTX460 Sonic, а Zotac GTX460 Amp! - однако Зотак работает на частоте в 10 мегагерц большей, так что всё честно

Чтобы выжать из GTX460 больше (без плачевных для неё последствий) уже нужно куда более серьёзное охлаждение или водоблок (+1500-2000 рублей). Вот вам и выходит:

http://www.fcenter.r...&oper=91395:::: (8000 рублей) + 2000 = 10000 рублей. Смысла в покупке GTX460 нет. Уж за эти деньги лучше взять HD5850 - сэкономишь 1500 р.(или уж на худой конец GTX470 - кушает так же как раогнанная GTX460, работает быстрее, сэкономишь 500 рублей.) - меньше геморрою, нет проблем с потерей гарантии, да и разогнать можно

Ну опять старая, песня............ Я весь этот балаган пытаюсь свести к единому знаменателю - что в настоящий момент GTX 460 (референс) - ХОРОШАЯ производительность + цена, GTX 460 (разогнанные) - ОТЛИЧНАЯ производительность на фоне 5850 и 5870, из недостатков как было упомянуто тепло и энергия (но это только перед 5850).........Ну уж с этим по-моему трудно не согласиться............ Изменено пользователем I am Krogaaaaan

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

Про "буллетфизикс". Эти буллеты были упомянуты еще год или полтора назад,точно не помню (читал в Журнале), вот и дождались. Havok тоже в киноиндустрии используется, но большого эффекта от этого нет. пользователям НВидиа есть чем козырнуть - NVidia 3D Vision, ну конечно с выходом 68хх, они анонсировали HD3D, но все это опять же маркетинг, доверить изготовление оборудования и интеграцию в ПО, сторонним компаниям, решение неоднозначное, естественно они будут продвигать это направление, но это все-таки требует времени, так что пока NVIDIA 3D Vision........

Изменено пользователем I am Krogaaaaan

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

но все это опять же маркетинг

Маркетинг - это сторона Нвидии - иначе как объяснить, то, что тесселяция повилась в Radeon-ах еще с HD2xxx серии (и даже раньше - с R500) - о ней никто и не вспоминал. Вышла HD5xxx с поддержкой DirectX 11 и усиленным блоком тесселяции - опять же, никто это не воспринял всерьёз. А как вышли GTX480 - началась форменная вакханалия, в каждой теме началась обсуждаться сия приблуда, начали меряться марками в Unigen Heaven - всё, что поддерживают Geforce-ы это словно Дар Божий - настолько маркетологи Nvidia умудряются пропиарить свой продукт, что просто диву даешься. И пофигу, что нормально тесселяция используется в 3 играх, а 3D Vision-ом пользуется четверть процента пользователей Geforce-ов - AMD гуано же, а у них этага нету! Маркетологи нвидии продадут ортодоксальному еврейскому раввину кусок свинины - а они их еще за это поблагодарит :-D

HD3D - не маркетинг, а работающая технология.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я после своего месячного использования Radeon'а к ним больше не подойду, даже если будет стоить дешевле, ну их, нервы дороже. В прошлом году ноутбук брали, так с этими картами даже характеристики и цены не смотрели. Нет, всё, никогда, что бы там про них не говорили.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я после своего месячного использования Radeon'а к ним больше не подойду, даже если будет стоить дешевле, ну их, нервы дороже. В прошлом году ноутбук брали, так с этими картами даже характеристики и цены не смотрели. Нет, всё, никогда, что бы там про них не говорили.

Старый дед!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Старый дед!

Да, старый. Столько лет прошло, я до сих пор вздрагиваю, когда мимо стенда с Радеонами прохожу.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

HD3D - не маркетинг, а работающая технология.

Впрочем как и CUDA,PhysX,3D Vision......:thank_you:

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Маркетинг - это сторона Нвидии - иначе как объяснить, то, что тесселяция повилась в Radeon-ах еще с HD2xxx серии (и даже раньше - с R500) - о ней никто и не вспоминал. Вышла HD5xxx с поддержкой DirectX 11 и усиленным блоком тесселяции - опять же, никто это не воспринял всерьёз. А как вышли GTX480 - началась форменная вакханалия, в каждой теме началась обсуждаться сия приблуда, начали меряться марками в Unigen Heaven - всё, что поддерживают Geforce-ы это словно Дар Божий - настолько маркетологи Nvidia умудряются пропиарить свой продукт, что просто диву даешься.

А это из серии " когда изобрели порох, и когда появились мушкеты", ну в принципе ATI приучило нас к технологическим новшествам, они по-моему первыми и единственными применяли память GDDR4 в своих Radeon X1950XTX. Кто же виноват, кроме них самих, и конурента естественно :-),что тогда еще самостоятельная ATI с HD2xxx не смогли продвинуть писсяляцию в массы, да и между 2ххх и 5ххх были еще и 3ххх и 4ххх, почему в них не попробовали?Тогда тоже много шума было что HD38xx, а потом еще и HD48xx, в пух и прах должны были разнести G92 и GT200 от НВидиа

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Впрочем как и CUDA,PhysX,3D Vision......:thank_you:

Ты сильно переоцениваешь их значимость - важна сама видеокарта: производительность на ватт, температурный режим, шумовые характеристики, игровая производительность - серия GTX4xx блещет только последним (и то далеко не всегда).

В этом плане GTX5xx - гораздо более продвинутые продукты, а GTX4xx - не лучший выбор.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

Ты сильно переоцениваешь их значимость - важна сама видеокарта: производительность на ватт, температурный режим, шумовые характеристики, игровая производительность - серия GTX4xx блещет только последним (и то далеко не всегда).

В этом плане GTX5xx - гораздо более продвинутые продукты, а GTX4xx - не лучший выбор.

Да я вообще их никак не оцениваю, по мне так вообще - я честно говоря сам не понимаю зачем нужны эти все DX11 ускорители, только лишь для Heaven и для слайд-шоу под названием Metro 2033, вообщем-то тоже самое можно сказать о PhysX, но увы условия современного рынка немного другие. Производительности карт предыдущих поколений хватает для вполне комфортной игры, не на макс.настройках, но в большинстве случаев на высоких, а учитывая что практически все игры мультиплатформенные, и в ближайшее время выхода новых консолей и новых движков не предвидится,то и этих карт на некоторое время должно хватить. Это хорошо, что ты понимаешь все приблуды, технологические особенности производителей и тд. Но просто когда я покупаю очередную игру допустим из последних приобретений FIFA 11,SW TFU 2 и у обеих читаю в ридми файле, о проблемах на видеокартах семейства Радеон, да и еще такие как некорректное отображение отражений на полу и тд., А для FIFA 11 вышел патч который устраняет проблемы в системах с видеокартами ATI Radeon, то как я пойду в магазин за этими видеокартами. Да в теории они лучше,совершенней и тд., но в теории всегда легче,чем на практике, ты сама знаешь. Изменено пользователем I am Krogaaaaan

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)
А для FIFA 11 вышел патч который устраняет проблемы в системах с видеокартами ATI Radeon, то как я пойду в магазин за этими видеокартами. Да в теории они лучше,совершенней и тд., но в теории всегда легче,чем на практике, ты сама знаешь.

А это уже проблемы разработчиков - не нужно устраивать из игр бета-тесты (очень явный пример Готика 4) - выпустят пораньше и дорабатывают патчами. Radeon-ы и Geforce-ы тут не причём.

Я уже 33 раз говорю - никаких проблем с Radeon-ами нет, поставила HD5850 и сижу счастливая. Глаза мои не видели ни одной проблемы: пропавшей текстурки, ни одного корявого полигона, ни мерцающих поверхностей, ни разу драйвер не вываливался с ошибкой - в общем какими на форумах стращают людей пользователи Geforce-ов (ох им то знать, о том как ведут себя в играх радики :-D ). Я не видела ни одной игры, где он бы тормозил на макс. настройках (ну разве что Метро 2033 - но я в эту пургу не играю). Чтобы иметь с картой какие то проблемы, нужно быть ну реальным неудачником. До этого были GTS 250 (лежит дома), HD4850 (лежит дома), x1950XT, 8600 GTS, 7600 GS, 7300 GT, 6800 GT, 9600 Pro, FX 5500, FX5200 (а раньше не знаю - ибо тогда я в железе совсем не бум-бум была) - символично, но Радики все живы-здоровы, а из Джифорсов в живых остались только FX5500 и GTS 250 - хотя эксплуатировала я их одинаково. Однако джифорсам я скажу спасибо - благодаря их частым поломкам и гуляниям по магазинам я таки начала разбираться в железе :) )

Изменено пользователем Shiala

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

Как еще один счастливый пользователь Radeon-ов я столько слышал про "все эти ужасные проблемы" на форумах, что почти начал в них верить и даже немного научился лечить..)) Сейчас 5850 молотит любые современные игры (ога и метро) без каких-либо проблем.. что я делаю не так?

Главная проблема, как мне кажется, находится не в системном блоке, а где-то между креслом и монитором, в большинстве случаев.

А суеверия во все времена сильнее любых аргументов))

Изменено пользователем RedR

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)
Да в теории они лучше,совершенней и тд., но в теории всегда легче,чем на практике, ты сама знаешь.

Они и на практике совершенней ;)

http://www.ixbt.com/video/itogi-video/0910/itogi-video-gallery-bugs.shtml

Символично - ошибок с Geforce-ами в играх больше чем с Radeon-ами (на 3-й квартал 2010 года в три раза). Ну и у кого драйвера кривые?

Новые снимки тепловизора.

http://www.hardware.fr/articles/747-32/maj-dossier-cartes-graphiques-degagement-thermique.html

HD6850

070c6080fef3.png

HD6870

598f3534ffa0.png

HD5870

30c2d68df0ec.png

GTX460

7dd80f450f29.png

GTX470

e97b4382fd9d.png

GTX480

84cd395e918b.png

А зимы нынче холодные, затаривайтесь ПЕЧками))))

Изменено пользователем Shiala

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Они и на практике совершенней ;)

http://www.ixbt.com/...lery-bugs.shtml

Символично - ошибок с Geforce-ами в играх больше чем с Radeon-ами (на 3-й квартал 2010 года в три раза). Ну и у кого драйвера кривые?

Новые снимки тепловизора.

http://www.hardware....-thermique.html

HD6850

IMG0029760.png

HD6870

IMG0029759.png

HD5870

IMG0028561.png

GTX460

IMG0029126.png

GTX470

IMG0028580.png

GTX480

IMG0028589.png

А зимы нынче холодные, затаривайтесь ПЕЧками))))

Ну так 460 не замечено ни в одной игре, а вот 5850 немножко есть. А то что на практике совершеннее - ну не знаю, вот тебе реальная ситуация которая была со мной в конце сентября - у меня на руках было 7500 рублей, мне хочется видеокарту за эти деньги, я не москвич и даже не подмосковец, а вряде регионов Радики дороже, и кстати Фцентра у нас тоже нет, так вот какие видюшки соответствуют моему варианту - 460 768, 460-1024, 5830, 5770, ну последняя сразу отлетает, остается три, при этом 5830 гармонь такая, у нее даже внешний вид какой-то отталкивающий, при этом из твоих же картинок видно что она потребляет больше энергии чем 5850, хоть ненамного но больше, при том что классом она ниже, ну и стоит брать такую карту за эти деньги, я думаю нет, и остается 460 в обоих вариантах, при том что сейчас могу с уверенностью сказать после моей предыдущей платы 9800ГТ в разгоне от Гигабайт, с моей нынешней 460 ни один из компонентов компа не нагрелся ни на один градус, при том что 460 горячее конкурентов. Ну где я не правильно рассудил? Если только бабла не накопил на 5850

http://www.3dnews.ru/video/nvidia-and-amd-drivers-comparison

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

Из всего вышесказанного возникает вопрос - почему АМД сами себя оставили без нормального среднего ценового диапазона (это я про 5830), и теперь при наличии такого ассортимента карт от НВидиа, 460 в разгоне могут конкурировать с 5850 и 5870 в плане производительности, при стоимости меньшей, ну или по крайней мере такой же (про тепловыделение напоминать не надо, у меня хорошая память:good: ), повторюсь берем в расчет готовые ЗАВОДСКИЕ продукты, естественно 5850 и 5870 можно разогнать самостоятельно, ну а заводские разогнанные будут стоить дороже чем 460. Ну как вот такое могло произойти с почти совершенным чипом от АМД???Что и в какой момент пошло не так, или это тактика у них такая??????

Изменено пользователем I am Krogaaaaan

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
(изменено)

Из всего вышесказанного возникает вопрос - почему АМД сами себя оставили без нормального среднего ценового диапазона (это я про 5830)

Когда появилась HD5830 - GTX460 не было, пипл, соображающий в железе, плевался на её скажем так откровенно хреновые потребительские качества, на хавал. Ибо ничего дельного (кроме "старых" HD4890, которые народ не брал "патамушта директрису 11 не паддерживают") в диапазоне между HD5770 и HD5850 не было.

Вышла GTX460. Пусть, она как и HD5830 скажем так "не ахти какая", но она закрыла ценовую и производительную дырку в ассортименте карт - разумеется народ накинулся на неё. AMD начала снижать цену на HD5830. По сниженной цене прокаченные версии HD5830 (MSI HAWK) смотрелись в сравнении с GTX460 довольно неплохо, однако референс был уныл. Пришлось снижать цену на HD5850.

Дырки закрывались, но получалось это хреново - не было промежуточных между HD57xx и HD58xx GPU (первые не разгонишь сильно, вторые слишком дороги для удешевления) - вот они и вышли: HD6850 и HD6870

HD6850 стоит дешевле референсной GTX460 (по "доброй" традиции к российским ценам это не относится - однако цены устаканятся), потребляет на 30 ватт меньше в нагрузке и быстрее на 3-5%. Очевидно - она сейчас лучший выбор в среднем ценовом диапазоне.

Просто меня немного передёрнуло, когда ты голословно начал утверждать, что GTX460 сейчас лучший выбор. Она им была (по причине отсутствия вменяемых конкурентов), но уже не является. Вот я и набросилась, извини если было обидно.

Изменено пользователем Shiala

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.


  • Последние посетители   0 пользователей онлайн

    Ни одного зарегистрированного пользователя не просматривает данную страницу

×
×
  • Создать...