Перейти к содержанию
BioWare Russian Community

Shiala

Посетители
  • Публикаций

    6 462
  • Зарегистрирован

  • Посещение

  • Победитель дней

    2

Весь контент Shiala

  1. Причём здесь толсто? Если взять GeForce и Radeon одной ценовой категории - последние будут надёжней, так как их производство в целом обходится дешевле (GPU меньше в размерах => дешевле в производстве => AMD продаёт их производителю по меньшим ценам => сэкономленную сумму производитель вкладывает в более качественную обвязку и элементную базу => меньше гарантийных случаев => покупатель доволен, а производитель меньше тратится на возмещение убытков по гарантийных обязательствам). Вот сколько денег потратил на Palit GTX570?
  2. А можно было просто взять HD6950/6970 - сейчас бы не наматывал сопли на палец...
  3. Не гонялся бы ты поп за дешевизною... В случае прожорливых GeForce эта пословица более критична, поскольку им систему питания ну совсем никак нельзя обрезать, а только усилять - но так они выйдут к тому же более дорогими.
  4. На чертеже так (а чертёж явно не полный). На другой фотке вообще так:
  5. Я намерила GK104 - у меня вышло ~350-355 квадратных миллиметров. У Tahiti 365 кв. мм. Оч. интересно... ДВА 8-пиновых коннектора
  6. Какая по прикидкам площадь чипа (и самое интересное с чего бы это он без крышки)? Спрашиваю, потому что на карте два 8-пиновых коннектора :huh:
  7. Проверь в AIDA64, походу это не просто "неправильно" отобразилось. Зы: очень хороший чип попался
  8. Ничего странного - у референса возможно хуже показатель ASIC Quality, поэтому его GPU работает на более высоком напряжении, оттого его энергопотребление получается даже выше, чем у более высокочастотного GPU с меньшим напряжением. Возможно XFX под эти карты специально лучшие чипы отобрала (XFX R7770 DD Super OC - лучшая версия HD7770 на рынке) - для фабрично разогнанных версий видеокарт подобное применяется почти всеми производителями. ASIC Quality своей карточки можно посмотреть в новом GPU-Z.
  9. Прошивочку значит менять надо... Хотя да - лучше сменить на другое. Накалякать про огромный перегрев и синие экраны.
  10. Так вроде тоже самое, только дешевле и гарантия на два года больше. Угу точно плекстор надо брать
  11. В интернетах тестируют каким-то AS SSD Benchmark - покажи-ка... Я заказала Plextor PX-128M3. Когда приедет - хз...
  12. Если ты такой умный - подсчитай тепловыделение видеокарт (затея провальная, так что пусть будут только GPU от GTX560Ti и HD6950), если известны энергопотребление, напряжение, сила тока и что тепловыделение полупроводника растёт линейно росту частоты и квадратично росту напряжения. Конечным итогом твоих изысканий станет примерно такой результат - насколько больше GPU отъел энергии, примерно настолько же больше он её и выделил (это логично, ибо оба GPU по своей структуре - полупроводниковый квадратный кусок кремния и физические законы действуют на них одинаково). Так что не заморачиваясь с формулами можно (пусть и не совсем обоснованно, основываясь на допущении) считать что если одна карта "съела" на 30 ватт энергии больше, она ~ эти же 30 ватт и выделит в виде тепла. Не включай дурачка - шейдерный блок в GPU от Nvidia тактуется на частотах ~ в двое больших чем остальная часть чипа (контроллеры памяти и ROP, TMU, буферы Z-stencil и прочие)
  13. А такого я и не говорила (если говорила - цитату в студию) - просто напросто для систем, со схожей микро и макроскопической структурой (делает их TSMC, тех. процесс один и тот же - 40 нм, режутся с одних и тех же кремниевых пластин, чипы схожей прямоугольной формы), коэффициент поглощённой и рассеиваемой мощности будет схож, т.е. так я хочу сказать, что Нвидия как ни крути всё равно делает печки чип, потребляющий больше энергии в любом случае выделит её больше (а уж насколько больше - это и считается подобными формулами - хотя конкретно твою я даже хз каким боком применить в нашей ситуации). Вообще на коэффициент энергопотребление/тепловыделение влияют также факторы как: архитектурные особенности и качество самого чипа (так называемый ASIC quality) и кол-во "токов утечки" в нём. Как эти факторы прикрутить к твои формулам? Для более яркого примера стоило бы взять пару GPU, схожих в производительности, только вот есть одна проблема - один из них как ни крути будет "обрезком", а значит сравнение некорректно (например GTX560Ti и HD6950 - последний в менее выгодном положении, поскольку сделан "обрезанием" от более мощного и сложного GPU. Та же ситуация с GTX560 и HD6870, только наоборот). В HD6930 установлен GPU под наименованием Cayman' date=' в котором была отключена часть функциональных блоков(1280 ПП). Этот же GPU, будучи в полнофункциональной конфигурации (1536 ПП) работает на стандартной частоте в 880 Мгц на HD6970 - то есть, частота 880 Мгц является для этого чипа штатной. Поэтому я не считаю разгон HD6930 до частот 920 Мгц чем то фантастическим. Прирост в 40-50 Мгц покрывает разницу в 256 ALU. Это вообще похоже на какой-то бред....Ниче не поняла....
  14. У меня в руке 34,5 сантиметровый фаллоимитатор HD5970 - меня никто не победит! Кстати видео весьма метко отражает суть происходящих здесь срачей. Разве что я не в костюме собаки, а вместо розовых штук - слова...
  15. Исправился... А теперь хедшот - если взять данную формулу за отправную точку подсчёта (а она на самом деле мало применима к видеокартам, поскольку у видеокарт помимо чипа есть силовая часть, где так же наблюдается потеря мощности/нагрев - естественно в разной степени, завзисящей от модели видеокарты). Большая часть GPU от нвидии работают на удвоенных частотах (1.5 ггц и выше) и схожем напряжении с GPU AMD... Я из плюсов отмечу только производительность. Всё остальное - явно не к этой видеокарте. А вот у HD6930 помимо производительности в плюсах еще и цена. Чип Cayman работает на стандартной частоте 880 мгц (у HD6970). 40 Мгц разницы с отключенными блоками - это "небольшой" разгон. Разгоняй свои "обрезки" на здоровье. Я куплю себе что нибудь получше, что точно не сгорит от "разгона" HD6930 стоит примерно как HD6870 и быстрее её - в графике она будет на первом месте (считай 160%) - как GTX560Ti 448 доберётся до такого, тогда и поговорим Даже с 90 градусами - тепла его карта выделяет меньше чем твоя GTX560Ti. Если он конечно не разблокировал нефункционирующие блоки.
  16. Речь шла о GTX560Ti сравнении с HD6950 - первая потребляет больше, соответственно выделяет больше тепла. Что было обосновано мной тепловизионными фотографиями обеих карт под нагрузкой. Не надо называть меня обманщицей. Есть другие сведения? Пруфлинки в студию. Имелись ввиду аппаратные претензии (конструктивные особенности, нагрев, ТТХ и проч.), а не цена. Цена со временем снизится, а вот дополнительные блоки на GTX560SE со временем не появятся. А чем она хороша? Стоит овер9000 рублей. Насколько медленее чем GTX570/HD6970 - настолько же и дешевле. Вот продавали бы они её за 6000 рублей, тогда был бы другой разговор. AMD свой обрезок за 5500 рублей продаёт (речь идёт о HD6930, если кто не понял. Что как минимум в полтора раза дешевле), который в небольшом разгоне - те же GTX570/HD6970 за 10-11 тысяч. Все обрезки - говно, но некоторым (AMD) стыдно продавать говно по конским ценам (как Nvidia). С эти кулером и у HD6970/HD6950 были проблемы - плохо работают в паре с открытым кристаллом (и хорошо с GPU, спрятанным под теплораспределитель). Испарительная камера нужна.
  17. 1) Не надо указывать мне, что делать. 2) Знающий не купит, но на знающих анонс данной видеокарты и не расчитан. Крутая приставка "GTX" и модельный ряд "560" явно расчитаны на то, чтобы сбить непросвещенного покупателя с толку. Что мешало назвать её GT560? А так это уже четвёртая видеокарта с этим именем... 3) Процитируйцте мой пост, где я писала подобное (конкретно где есть крики и истерика).
  18. Причём здесь HD7770, если речь шла о GTX560SE? У HD7770 один недостаток - сейчас она просто напросто не стоит своих денег. Только цена еще упадёт - появился "конкурент". Вот какие конкретно есть претензии к HD7770? Я констатирую факты - в GPU порезано ~20-25% блоков (причём порезаны не просто ALU, а еще шина и ROPы), подсистема питания слабая (бюджетный продукт), энергопотребление большое (отбраковка не может работать на сниженном напряжении - оттого 2 х 6 пин) - маловато аргументов в пользу надёжности подобных обрезков? Где гарантии, что по прошествии года (средний гарантийный срок в наших магазинах) карта с подобным GPU не начнёт сыпать артефактами? Косячный чип наверняка деградирует быстрее своих "полноценных" собратьев. Это я еще не вспоминаю драйверописателей Нвидии, которые раз в году выпускают драйвера, приводящие к разнообразным аппаратным приколам. А конкретно какую "хорошую" карту Нвидии я так злобно обидела?
  19. Чуть ли не прямым текстом сказано - новые процессоры у нас есть, но продавать мы начнём их летом... Вообще не вижу смысла в покупке этого медленного, дико жрущего и обрезанного УГ. Та же GTX460SE
  20. Штеуд зажал новые процессоры - "хитрый план" обменять 2500К на 3570К с небольшой доплатой можно сказать провалился :mad:
  21. Хуанг просто люто и бешено доставляет... Такое чувство, что это не его покупать решили :laugh: Кстати ждём 1 апреля муляжик Кеплера в масштабе 1 к 1 XD
  22. Красные дни календаря... Обижаться не стоит HD7870 точно будет быстрее HD6950 и TDP меньше. Меньше тепла - вентиляторы тише. Не люблю шум... Ладно, завтра поеду на горнолыжку, надо вещички потихоньку собрать...Всем пока! Ой-ой! Забыла :unsure: Поздравляю всех мужчин с праздником! :girl_kiss:
  23. А козлом то где?! :ohmy: Нее, выйдет HD7870 буду потом локти кусать
  24. Видео потоковое так и артефачит... Едва ли не пятый месяц пошёл - не исправили толком. Работаю над этим. Думаю, что заказать - Plextor PX-64M3 или Crucial M4 64Gb - может подскажете? Жду HD7870, а ручонки мои попрошу не обзывать... DDR3-1866 9-10-10-28-1T итого 12 Гб
×
×
  • Создать...