Перейти к содержанию
BioWare Russian Community

Shiala

Посетители
  • Публикаций

    6 593
  • Зарегистрирован

  • Посещение

  • Победитель дней

    2

Весь контент Shiala

  1. Оххохо! На такие деньги Ведьмак будет казачком скакать :D
  2. Отдала же, пусть пользуется. Да и везти её придётся издалека. Решила брать новый комп - возьму уж всё новое. Я даже нашла кому GTS250 подогнать - у подруги-художницы стоит 8600GT, а она бедняжка подсела на Dragon Age...
  3. А зачем менять еще довольно мощную карту? Только если получится удачно слить старую и с совсем небольшой доплатой взять HD7850 либо заменить при наступлении гарантийного случая. Насчёт температур - в любом случае они не критичны (турбина же. Можно взять с альтернативной СО и "проблема" решена), главное в карте вот это: И что в разгоне до 1200 Мгц она почти равна (или даже быстрее) HD7950 А HD7850 при 1050 мгц - та же HD7870 на 1000 мгц - притом дешевле на 100 президентов. Ынтерэсна
  4. Вот она! Вот она, видеокарта моей мечты: http://www.techpower...D_7850_HD_7870/ HD7870 зажигает зачётно - особенно радует энергопотребление. Омрачает сия радостный анонс, только цена данного изделия, в 350 долларов СШП (т.е. на уровне с HD6970...и когда же нвидия выкатит ну хоть что-то нормальное,очень жду снижения цен) Производительность в целом выше HD6970 Своих денег в принципе стоит...но уже подумываю о HD7850... AMD-а также пилит что-то убермощное: http://www.overclock...menyaetsya.html
  5. Кстати с тобой товарищ не всё так однозначно :koo-koo: 1) ЧЗХ??? 2) Каким образом ты купил GTX560Ti, за:
  6. 1) Существуют весьма "тяжелые" в графическом плане игры (и со временем их будет становиться больше, т.к. близок анонс новых приставок - есть определенный расчёт на будущее, поскольку дорогая видеокарта не покупается на полгода): Crysis Crysis 2 Metro 2033 Shogun 2 Battlefield 3 2) Большинство остальных игр нагружает примерно 700-900 Мб видеопамяти, что также не есть хорошо для видеокарт с ~1Гб - сильная фрагментация данных в текстурных и кадровых буферах и как следствие падение минимального FPS в динамически активных сценах, где важна быстрая подгрузка новых моделей и текстур. 3) Разгружается ОЗУ и уменьшается время загрузки уровней, т.к. текстурный и кадровый буфер не надо хранить в медленной ОЗУ. 4) Не учитывается использование стереоскопического 3D и многомониторных конфигураций - там 2 Гб и более нужны как воздух.
  7. Два "гига" памяти очень даже нужны.
  8. Опять такое же УГ? Вот что надо покупать: http://www.regard.ru/catalog/tovar103126.htm (8810 р.) http://www.regard.ru/catalog/tovar103819.htm (10940 р.) http://www.regard.ru/catalog/tovar101020.htm (10490 р.) И на крайняк http://www.regard.ru/catalog/tovar95728.htm
  9. Вот такая? http://www.regard.ru/catalog/tovar100250.htm (9420 р.)
  10. Причём здесь толсто? Если взять GeForce и Radeon одной ценовой категории - последние будут надёжней, так как их производство в целом обходится дешевле (GPU меньше в размерах => дешевле в производстве => AMD продаёт их производителю по меньшим ценам => сэкономленную сумму производитель вкладывает в более качественную обвязку и элементную базу => меньше гарантийных случаев => покупатель доволен, а производитель меньше тратится на возмещение убытков по гарантийных обязательствам). Вот сколько денег потратил на Palit GTX570?
  11. А можно было просто взять HD6950/6970 - сейчас бы не наматывал сопли на палец...
  12. Не гонялся бы ты поп за дешевизною... В случае прожорливых GeForce эта пословица более критична, поскольку им систему питания ну совсем никак нельзя обрезать, а только усилять - но так они выйдут к тому же более дорогими.
  13. На чертеже так (а чертёж явно не полный). На другой фотке вообще так:
  14. Я намерила GK104 - у меня вышло ~350-355 квадратных миллиметров. У Tahiti 365 кв. мм. Оч. интересно... ДВА 8-пиновых коннектора
  15. Какая по прикидкам площадь чипа (и самое интересное с чего бы это он без крышки)? Спрашиваю, потому что на карте два 8-пиновых коннектора :huh:
  16. Проверь в AIDA64, походу это не просто "неправильно" отобразилось. Зы: очень хороший чип попался
  17. Ничего странного - у референса возможно хуже показатель ASIC Quality, поэтому его GPU работает на более высоком напряжении, оттого его энергопотребление получается даже выше, чем у более высокочастотного GPU с меньшим напряжением. Возможно XFX под эти карты специально лучшие чипы отобрала (XFX R7770 DD Super OC - лучшая версия HD7770 на рынке) - для фабрично разогнанных версий видеокарт подобное применяется почти всеми производителями. ASIC Quality своей карточки можно посмотреть в новом GPU-Z.
  18. Прошивочку значит менять надо... Хотя да - лучше сменить на другое. Накалякать про огромный перегрев и синие экраны.
  19. Так вроде тоже самое, только дешевле и гарантия на два года больше. Угу точно плекстор надо брать
  20. В интернетах тестируют каким-то AS SSD Benchmark - покажи-ка... Я заказала Plextor PX-128M3. Когда приедет - хз...
  21. Если ты такой умный - подсчитай тепловыделение видеокарт (затея провальная, так что пусть будут только GPU от GTX560Ti и HD6950), если известны энергопотребление, напряжение, сила тока и что тепловыделение полупроводника растёт линейно росту частоты и квадратично росту напряжения. Конечным итогом твоих изысканий станет примерно такой результат - насколько больше GPU отъел энергии, примерно настолько же больше он её и выделил (это логично, ибо оба GPU по своей структуре - полупроводниковый квадратный кусок кремния и физические законы действуют на них одинаково). Так что не заморачиваясь с формулами можно (пусть и не совсем обоснованно, основываясь на допущении) считать что если одна карта "съела" на 30 ватт энергии больше, она ~ эти же 30 ватт и выделит в виде тепла. Не включай дурачка - шейдерный блок в GPU от Nvidia тактуется на частотах ~ в двое больших чем остальная часть чипа (контроллеры памяти и ROP, TMU, буферы Z-stencil и прочие)
  22. А такого я и не говорила (если говорила - цитату в студию) - просто напросто для систем, со схожей микро и макроскопической структурой (делает их TSMC, тех. процесс один и тот же - 40 нм, режутся с одних и тех же кремниевых пластин, чипы схожей прямоугольной формы), коэффициент поглощённой и рассеиваемой мощности будет схож, т.е. так я хочу сказать, что Нвидия как ни крути всё равно делает печки чип, потребляющий больше энергии в любом случае выделит её больше (а уж насколько больше - это и считается подобными формулами - хотя конкретно твою я даже хз каким боком применить в нашей ситуации). Вообще на коэффициент энергопотребление/тепловыделение влияют также факторы как: архитектурные особенности и качество самого чипа (так называемый ASIC quality) и кол-во "токов утечки" в нём. Как эти факторы прикрутить к твои формулам? Для более яркого примера стоило бы взять пару GPU, схожих в производительности, только вот есть одна проблема - один из них как ни крути будет "обрезком", а значит сравнение некорректно (например GTX560Ti и HD6950 - последний в менее выгодном положении, поскольку сделан "обрезанием" от более мощного и сложного GPU. Та же ситуация с GTX560 и HD6870, только наоборот). В HD6930 установлен GPU под наименованием Cayman' date=' в котором была отключена часть функциональных блоков(1280 ПП). Этот же GPU, будучи в полнофункциональной конфигурации (1536 ПП) работает на стандартной частоте в 880 Мгц на HD6970 - то есть, частота 880 Мгц является для этого чипа штатной. Поэтому я не считаю разгон HD6930 до частот 920 Мгц чем то фантастическим. Прирост в 40-50 Мгц покрывает разницу в 256 ALU. Это вообще похоже на какой-то бред....Ниче не поняла....
  23. У меня в руке 34,5 сантиметровый фаллоимитатор HD5970 - меня никто не победит! Кстати видео весьма метко отражает суть происходящих здесь срачей. Разве что я не в костюме собаки, а вместо розовых штук - слова...
  24. Исправился... А теперь хедшот - если взять данную формулу за отправную точку подсчёта (а она на самом деле мало применима к видеокартам, поскольку у видеокарт помимо чипа есть силовая часть, где так же наблюдается потеря мощности/нагрев - естественно в разной степени, завзисящей от модели видеокарты). Большая часть GPU от нвидии работают на удвоенных частотах (1.5 ггц и выше) и схожем напряжении с GPU AMD... Я из плюсов отмечу только производительность. Всё остальное - явно не к этой видеокарте. А вот у HD6930 помимо производительности в плюсах еще и цена. Чип Cayman работает на стандартной частоте 880 мгц (у HD6970). 40 Мгц разницы с отключенными блоками - это "небольшой" разгон. Разгоняй свои "обрезки" на здоровье. Я куплю себе что нибудь получше, что точно не сгорит от "разгона" HD6930 стоит примерно как HD6870 и быстрее её - в графике она будет на первом месте (считай 160%) - как GTX560Ti 448 доберётся до такого, тогда и поговорим Даже с 90 градусами - тепла его карта выделяет меньше чем твоя GTX560Ti. Если он конечно не разблокировал нефункционирующие блоки.
×
×
  • Создать...