Перейти к содержанию
BioWare Russian Community

Shiala

Посетители
  • Публикаций

    6 615
  • Зарегистрирован

  • Посещение

  • Победитель дней

    2

Весь контент Shiala

  1. Сломала мозг, пытаясь осмыслить вышесказанное.
  2. Тестировалось в Linx - он библиотеку Linpack использует.
  3. Linpack. 61 градус был получен вчера. Проверяла стабильность разгона после обновления BIOS (настройки сбились). Напряжение ЦП на новой прошивке получилось несколько снизить по сравнению с прошлой. Было 1.255, стало 1.225 Нет, это я для наглядности. Продолжать дискуссии у меня нет настроения.
  4. Скатились уже. Кстати: http://www.overclockers.ru/hardnews/47101/Prichina_silnogo_nagreva_processorov_Ivy_Bridge_zakljuchaetsya_ne_v_termointerfejse.html Мой ЦП при 4500 Мгц выше 61 градуса не грелся
  5. Это мои скриншоты, снятые лично мной. Я не нагуглила их. Скриншоть свои "шторки" и мерцающий курсор - я взгляну на них. А проблема с потоковым видео есть не у меня одной. Вон Kosepan тоже столкнулся с этим. Как и тысячи людей по всему миру. Про кучу сгоревших видеокарт из-за неработающих вентиляторов и ограничителей нагрузки на VRM тоже упомяну. Это к слову про: С этими глюками столкнулись максимум каждый восьмой-десятый, уж никак не большинство.
  6. leetSmithy О чём спор - я знала о "шторках". И даже помниться рассказывала о них кому то из ребят. И насколько я поняла причина "шторок" кроется не в драйверах, а в недо- (или пере-) вольтаже GPU или видеопамяти. Я практически сразу прошила карте модифицированный BIOS с разгоном до частот HD5870. Ни на каких драйверах я "шторок" не видела. Хотя слышала, что некоторые пользователи референсных HD5850 жаловались. И не надо меня тыкать по форумам - я основательно изучила всю "теорию" о видеокартах, бывших у меня в наличии и тех, что предполагалось приобрести.
  7. Ой почитала я твои посты и мне тебя, горемыку, стало так жалко, что аж слезы наворачиваются... Я как человек с открытой и доброй душой просто не могу "закрыть глаза" на такое безобразие, чинимое криворукими AMуDилами. Поэтому я от всего сердца предлагаю тебе обменяться видеокартами - твои HD5850 на мою GTS250 с прямыми как автобаны Германии драйверами. Правда стоит тебя предупредить заранее, что на драйверах 301.24 видеокарта бывает "зависает" с красивыми полосатыми геометрическим артефактами по всему экрану, а на более старых версиях потоковое видео выглядит как пиксельное зелёно-фиолетовое УГ и так по мелочи,два,три, но в сравнении с твоим глюками это просто пустяк, не обращай внимания :happy: Не стоит меня благодарить, я буду рада избавить тебя от твоей проблемы.
  8. Идиот детектед На мой взгляд на возросшее энергопотребление HD7970 можно закрыть глаза, поскольку оно не превышает энергопотребление карт прошлых поколений, а дополнительная мощность в тяжёлых игровых режимах приходится как раз кстати. Ну а насчёт 1-го часа игры в день - я этот вопрос больше со своей стороны рассматриваю. Ты же сам обрисовал мне ситуацию - "тебе дали 520 долларов на видеокарту"... Для меня в тех видеокартах разницы нет.
  9. Почему это сомнительная? Я играю редко, по ночам обычно гоняю торренты, компьютер фактически не отключаю - зачастую он у меня в состоянии S3 или S4 может по 20 часов в сутки висеть - мне такая технология очень даже к месту. Для меня лучше так: в сутки видеокарта жрёт 1 час 240 ватт, 5 часов 15 ватт и 18 часов 3 ватта, чем 1 час 190 ватт и 23 часа по 15 ватт. GTX680 экономичней только в нагрузке под разгоном, во всех остальных случаях по этому показателю HD7970 опережаёт её либо идёт на уровне. Так что не надо записывать GTX680 в однозначные лидеры по экономичности.
  10. Знакомься технология ZeroCore Power. Не вижу связи между посылом и следствием и тем более не вижу причин что-либо доказывать.
  11. При условии работы на стандартных частотах, где карты имеют схожее энергопотребление. Вариант HD7970 DCII от ASUS работал на повышенном напряжении и частотах - и как я уже писала выше, в разгоне HD7970 повышает своё энергопотребление намного сильнее чем GTX680. Поставь HD7970 стандартное напряжение, частоту и она будет "холоднее". При схожем энергопотребление с большего в площади GPU лучше снимается тепло. Один бенчмарк, не показывающий реального положения в играх. В тяжелых играх типа Metro 2033, Crysis 1/2 и пр. HD7970 будет либо быстрее GTX680 либо равна. В остальных играх где FPS и так зашкаливает за отметку в 60-70 GTX680 будет быстрее. Там где это и не надо. Как же ш, плюсы GTX680 надо указать, а плюсы HD7970 нет, ну интересные вы люди.
  12. Меня на HD5850 только турбина беспокоила (после полугода пользования) - в кожухе набивалось "войлоку" (откуда у меня в доме берётся пыль? Вроде убираюсь постоянно) и повышались обороты, да так что видеокарта натурально визжала. Несбрасывающиеся частоты и бракованные дроссели я не видела. Да, видеокарта за 1000 долларов, какие проблемы? :laugh:
  13. Вот вам GTX690 за тысячу долларов: http://www.overclockers.ru/hardnews/47076/NVIDIA_pokazala_videokartu_GeForce_GTX_690.html
  14. Корпусного БП должно хватить (хотя я им не доверяю - но денег на крутой БП всё равно не хватит, так что деваться некуда) - энергопотребление этих ЦП и видеокарты по современным меркам вообще детское.
  15. 1| ЦП http://hard.rozetka....i53550/p212090/ (1840) Новый Ivy Bridge +100 к понтам 2| МП http://hard.rozetka....7_pro3/p211206/ (936) 3| Видео http://hard.rozetka....01_20g/p210921/ (2203) 4| ОЗУ http://hard.rozetka....amd;21249=3367/ (412) Да-да, весьма иронично 5| Корпус http://hard.rozetka....e_500w/p151314/ (678) Итого: 6069
  16. В том то и дело, что частоты не равны - GTX680 "авторазгоняется". Представленный выше Palit GTX680 Jetstream обладает опорной (базовой) частотой для 3D 1085 Мгц, которая автоматом повышается при высокой нагрузке до 1163 Мгц. 1070 меньше 1163 Потолок максимальных частот для обеих карт одинаков, поэтому в том же разгоне обеих карт до 1200 Мгц HD7970 уже будет быстрее. 1 мгц её частоты несколько "мощнее". А так если резюмировать: 1| В игровой нагрузке энергопотребление и тепловыделение неразогнанных карт одинаково. В максимальной нагрузке энергопотребление HD7970 выше. 2| Температура GPU при схожих СО на HD7970 будет меньше - с большего в площади GPU лучше снимается тепло. 3| Без разгона GTX680 мощнее HD7970 5| На частотах ~1000 Мгц HD7970 равна стоковой GTX680 6| На частотах ~1200 Мгц HD7970 будет немного быстрее GTX680, работающей на такой же частоте. 7| При разгоне энергопотребление и тепловыделение GTX680 растёт гораздо меньше, чем у HD7970 (большой + GTX680) 8| HD7970 имеет очень низкое энергопотребление в состоянии покоя. 9| HD7970 имеет многократно большую вычислительную мощность (OpenCL, Direct Compute)
  17. Относительно адекватные тесты. Вот собрала графики разогнанных карт из теста MSI HD7970 Lightning (1070 Мгц) и Palit GTX680 Jetstream (1085 Мгц + GPU Boost в тяжёлой нагрузке до 1163 Мгц) Witcher 2 (ничья) COD MW3 (победа GTX680 +5 FPS) Anno 2070 (победа HD7970 +5 FPS) Battlefield 3 (ничья) Crysis Warhead (победа HD7970 +5FPS) Crysis 2 (ничья) Skyrim (победа GTX680 +14FPS) Metro 2033 (победа HD7970 + 6FPS) Попытайтесь найти здесь "слив" или "фейл".
  18. Ой, я то же собрала его как то. Ничего сложного
  19. MSI HD7970 Lightning - почему? Если возьму GTX680 от ASUS, она помешает мне нормально вставить аудиокарту в мат. плату. Страховку выплатили.
  20. Я бы взяла HD7870 ибо меня задушит жаба отдать 520 УЕ за кусок текстолита с вентиляторами. И с позиции энергопотребления и тепловыделения тоже лучший выбор.
  21. 1210/925*100-100~31% 1207/1058*100-100~14% я полагаю ты так считал? Да и вообще какая разница насколько её надо разогнать - она же разгоняется и работает. HD7970 вышла раньше, её спецификации делались без учёта характеристик прямого конкурента - видать в AMD думали, что 925-ю мегагерцами можно было обойтись. Вышла бы она позже ей бы дали 1050 мегагерц и для обгона GTX680 потребовалось бы немного "процентов" разгона. которая не может в разгоне обогнать такую же разогнанную HD7970, ага :D Она же не может 30% к своей частоте добавить, чтобы "убежать" от HD7970 Большинство пользователей, покупающих такие мощные карты, как раз таки и балуются разгоном, хотя бы маленьким. Иначе зачем как не для разгона покупать карту с двумя-тремя БИОСами, модулями контроля напряжений и прочими шалостями? Разогнала бы. Я же в игры 24 часа в сутки не играю - дай Бог, раз в три дня на 2-3 часа засяду. Карты умеют частоту и напряжение скидывать, не постоянно же они в форсированных режимах работают. Монитор ещё не подобрала (заказала один, но отменила заявку). Достойного ничего нет, знающих людей подсказать тоже. HD7870 до нас ещё не добрались.
  22. "Гляжу в книгу - вижу фигу" 1) Разогнанная до 1070 Мгц HD7970 в 2560х1600 (именно для такого разрешения покупаются такие карты) быстрее стоковой GTX680 с частотами 1006-1058 Мгц. 2) Разогнанная до 1058-1137 Мгц GTX680 в 2560х1600 примерно равна разогнанной до 1070 Мгц HD7970 (вообще я не пойму почему в тестирование был включен WOW, могли бы Ведьмака 2 хотя бы засунуть) 3) Стабильный разгон HD7970 до частот 1210 Мгц дал прирост производительности на уровене 15-16%, стабильный разгон GTX680 до частот 1207 Мгц дал прирост 9-10% Путём нехитрых прикидок в голове получаем, что HD7970 в таком разгоне будет несколько быстрее (ну или по крайней мере не медленнее).
  23. Ну если не видишь смысла, зачем приводишь в качестве примера цену 500$ референсного GTX680? Я слышала от вас раньше "слив" и прочее, а теперь разница только "только в цвете" :D Про "фейл" никто и не говорил, инженеры налажали - люди вроде бы умные, а то что миниатюризация ядра при схожем оставшемся тепловыделении приведёт к локальному перегреву, не подумали.
  24. Из тех же статей: ASUS GTX680 DCII TOP $520 MSI HD7970 Lightning $520 Где разницу в 20 баксов увидел? http://www.overclockers.ru/hardnews/47048/Termointerfejs_i_Ivy_Bridge_prodolzhaem_rassledovanie.html Инженеры Intel точно налажали...
×
×
  • Создать...