Перейти к содержанию
BioWare Russian Community

Shiala

Посетители
  • Публикаций

    6 626
  • Зарегистрирован

  • Посещение

  • Победитель дней

    2

Весь контент Shiala

  1. Нет прямой зависимости от мощности БП и реального энергопотребления системы. А Corsair Corsair CMPSU-500CXV2EU 500 ватт вполне достаточно: плюс прибавим энергопотребление HD6870 в нагрузке (125-130 ватт) минус энергопотребление простоя (15-20 ватт) = итого получаем около 270-280 ватт энергопотребления при 100% загрузке ЦП (на частоте 4.7 Ггц) и видеокарты. Corsair Corsair CMPSU-500CXV2EU выдаёт около 410 ватт по линии 12В (34А * 12В = 408 Вт). Имеем свыше 100 ватт запаса.
  2. Если возьмешь 500 ваттовый Corsair - хватит. Можно докинуть до такого: http://www.xcom-shop.ru/asus_ascot_cougar_retail_psu_cmx_550_192047.html Вот тоже неплохой БП за свои деньги: http://www.xcom-shop.ru/cooler_master_rs550-acaae3-eu_175123.html (у него линия 12 В крутая)
  3. У последнего активный PFC - он и будет лучше. А так советую взять это: http://www.xcom-shop.ru/corsair_cmpsu-500cxv2eu_226451.html Вообще выделю производителей БП в таком порядке 1) Отличные: Seasonic, Tagan, Enermax, CWT, Cougar 2) Хорошие: Corsair, OCZ, Zalman (своих БП не делают - используют наработки производителей из первой графы), AcBel, Enhance 3) Средние: FSP, Chieftec, Cooler Master, Thermaltake, Aerocool, Inwin, Hiper 2) Так себе: Delta, Microlab, Velton. 1) УГ: FoxLine, Codegen, PowerBOX, Gembird, Raidmax, King Power
  4. Хватит. Это если БП не от таких "фирм" как Gembird, Codegen, FoxLine....
  5. Феном дешевле, но нормальная мат. плата под него (с сокетом AM3+) выходит в среднем дороже обычной платы c сокетом 1155 и чипсетом P67. В разгоне Феному требуется более дорогое охлаждение (4 Ггц на 40 нм ЦП - это не в тапки ссать, довольно таки горячо). С разгоном Core i3-2120 смысл покупки Phenom II 955 BE отпадает напрочь - всё равно не обгонит. Разве что AMD поддержать Ну а Бульдозеры дай бог догонят хотя бы Nehalem-ы, а ты их уже в конкуренты Ivy Bridge записал...
  6. Если разогнать Phenom II X4 955 BE (до 3.8-4 Ггц) он как раз и достанет неразогнанный Core i3-2120 3.3 Ггц (возможно опередит на 5-10 процентов в паре игр и приложений). Кстати последний можно тоже разогнать (поскольку множитель заблокирован - повышением частоты шины на 3-4 Мгц, больше не даст). Итого можно выжать 3.4-3.43 Ггц. Некисло, но Phenom так его наврядли достанет, да и энергопотребление у Core i3-2120 значительно ниже.
  7. Не угадал - воткну HD6850 (ибо HD6950 в бюджет не впишется). Система выйдет слегка дороже, но для игр будет значительно лучше - слабее брать не советую (куда быстрее и не сильно дороже): 1) ЦП: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:3:a:a:a:0:d:1:30:r:1:1:1375&oper=97176:::: (4200) - ЦП впоследствии можно будет сменить на Ivy Bridge 2) МП: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:2:a:a:a:0:d:1:30:r:1:1:d75_1545&oper=100157:::: (3200) 3) ОЗУ: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:4:a:a:a:0:d:1:30:r:1:1:d209_1142&oper=84590:::: (2 модуля - 900) 4) Видеокарта: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:7:a:a:a:0:d:1:30:r:1:1:&oper=94810:::: (4900) 5) Корпус: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:10:a:a:a:0:d:1:30:r:1:1:d196&oper=94325:::: (2700) 6) Привод: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:25:a:a:a:0:d:1:30:r:1:1:d171&oper=83824:::: (600) 7) НЖМД: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:5:a:a:a:0:d:1:30:r:1:1:1174&oper=97913:::: (1700) 8 ) Кулер: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:51:a:a:a:0:d:1:30:r:1:1:1563&oper=97271:::600:1000 (700) Итого: ~ 18900 рублей (цены взяты "с потолка"). Можно найти и дешевле. Предвосхищая критику: "Ты предлагаешь двухъядерный процессор, а у него четырёхъядерник!" - читаем следующую статью - http://www.overclockers.ru/lab/42706_6/Testirovanie_Core_i3-2120_i_Core_i3-2100_v_igrah.html Хотя никто не мешает поставить тот же Phenom II X4 955 BE и мат. плату на чипсете AMD 970 - по цене выйдет примерно так же (а потом также можно будет заменить ЦП на новейший Bulldozer): ЦП: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:3:a:a:a:0:d:1:30:r:1:1:676_794&oper=83123:::: (3800) МП: http://www.fcenter.ru/products.shtml?eshop/act=h:a:0:2:a:a:a:0:d:1:30:r:1:1:&oper=100650:::: (3500)
  8. За 17 килорублей могу собрать систему в полтора раза быстрее (в играх естессно)
  9. Shiala

    Видеокарта

    Все дружно налетаем на свежие дровишки: ForceWare 280.19 beta: http://www.overclockers.ru/softnews/42908/Drajvery_NVIDIA_GeForce_Verde_280.19_Beta_c_ryadom_ispravlenij.html Catalyst 11.8: http://www.overclockers.ru/softnews/42895/Drajvery_AMD_Catalyst_11.7_ustranen_lag_kursora_i_Catalyst_11.8_Preview_povyshennoe_bystrodejstvie.html
  10. Они были заморожены и летели к Альфа Центавре не через масс-ретранслятор, а на обычном двигателе (учитывайте релятивистское замедление времени).
  11. Shiala

    Hard'n'Soft Help

    иногда в продаже попадаются ноутбуки совсем без операционной системы.
  12. Shiala

    Видеокарта

    Я говорю о реальном TDP, которое напрямую зависит от энергопотребления, а не о паспортном, которое каждый производитель меряет по разному.
  13. Shiala

    Видеокарта

    Ладно, возможно они и играют с частотами - тогда, судя по твоим словам Geforce сбрасывают их сильнее (также сильнее снижая производительность). Что это - плохая оптимизация нагрузки мультичиповой связки или банальное желание урезать энергопотребление? А TDP разных карт вполне можно взять за основу сравнения энергопотребления - все современные видеокарты имеют цепи питания из схожих компонентов, схожие полупроводниковые кристаллы GPU, которые все ВНЕЗАПНО делаются на TSMC и абсолютно аналогично выделяют тепло (40nm Extreme Low-K inter-metal dielectric). Вот если бы кто-то делал карты на основе органики, а кто-то на основе другой НЕХ - тогда да, сравнить бы их было нельзя. Поэтому вполне можно допустить - если одна карта "съела" на 30 ватт больше, она и выделит в окружающую среду на ~30 ватт больше тепла. И наоборот. Вот сравнить видеокарту и процессор по этим параметрам будет уже неправильно. Про мультиметр в цепи питания БП PCI-E я писала выше - я примерно знаю как реально измерить энергопотребление видеокарты.
  14. Shiala

    Видеокарта

    Назови мне хоть один ИГРОВОЙ тест (а они тестируют именно в игровом тесте), где не нагружается ЦП. ЦП не грузится только в специальных GPU стрес-тестах. :blink: при чём здесь частоты? Картина как я уже писала выше - аккурат обратная. Crossfire работает эффективней - следовательно средняя загрузка ЦП и карт выше - оттого выше энергопотребление. GTX560Ti в паре потребляют меньше, поскольку они и нагружающий их ЦП попросту больше простаивают.
  15. Shiala

    Видеокарта

    А ты то хоть читаешь, как они подсчитывали? Они изначально высчитывали энергопотребление системы в простое, потом в стресс-нагрузке игровым приложением. Вычли разницу и списали всё на энергопотребление видеокарт. Какая загрузка ЦП была во время теста, какая загрузка карт, где мультиметр и мониторинг БП с цепей питания видеокарт PCI-E - не указывается. Т.е. система SLI GTX560Ti + Core i7 965 (а это процессор с немалым TDP) могла иметь загрузку 95% - 60% (видео - ЦП), а система с Crossfire HD6950: 90% - 95% (поскольку последняя связка более процессорозависима). Оттого энергопотребление системы с последними могло выйти больше. Если у тебя есть иное объяснение, почему одиночная HD6950 потребляет меньше GTX560Ti, а в режиме Crossfire ВНЕЗАПНО больше SLI GTX560Ti - милости прошу, озвучь его. Peak: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Highest single reading during the test. Умножай на 2 и получишь пиковое энергопотребление карт в SLI-Crossfire.
  16. Shiala

    Видеокарта

    Я не показывала обзор энергопотребления Crossfire HD6950. Все ссылки кинули мне вы - и во всех рассчёт вёлся по совокупному энергопотреблению системы. А непосредственно карточки так никто и не измерил. Я показывала энергопотребление одиночной карты HD6950 - оно меньше. С чего бы двум таким вдруг потребуется энергии больше чем двум более прожорливым GTX560Ti? По этой же причине HD6990 быстрее GTX590, хотя HD6970 довольно намного слабее GTX580. Конечно, частоты GTX590 прилично снижены относительно GTX580 - но всё же:
  17. Shiala

    Видеокарта

    Author: Shane Baxtor (more) | Video Cards Content | Posted: Feb 2, 2011 Постарее обзора не нашёл? Techpowerup - создатели GPU-Z (W1zzard) Guru3D - создатели небезызвестной утилиты Driver Sweeper, Unwinder (если что - создатель Riva Tuner) разместил свою домашнюю страницу на Guru3D Geeks3D - Furmark, GPU Caps Viewer На мнение этих сайтов я всецело полагаюсь - всё остальное под сомнением. Еще нужны хоть какие то доказательства авторитетности и адекватности этих ресурсов? Одно объяснение: У Crossfire выше эффективность - следовательно выше загрузка CPU вы игровом тесте. Отсюда и выше энергопотребление системы. Карты в любом случае потребляют меньше (видно на примере одной).
  18. Shiala

    Видеокарта

    Где это же видано чтобы HD6970 сливали GTX560Ti? :blink: Вот довольно познавательный обзор (с авторитетного ресурса - хорош также тем, что там отсутствуют явно оптимизированные под ту или иную архитектуру игры. Ну и с довольно свежими драйверами): http://www.guru3d.com/article/club3d-radeon-hd-6870-x2-review/1 Там есть тест (акромя, пожалуй, Far Cry 2), где бы GTX560Ti обошла HD6950? Я уж про HD6970 молчу. Теперь вопрос на миллион - учитывая большую эффективность технологии Crossfire, нежели SLI: С чего бы более медленная в одиночном режиме GTX560Ti, в режиме SLI вдруг станет работать быстрее пары тех же HD6950? Особо наглядно выглядят результаты 3D Mark 11 (а график прямо таки точно показывает расстановку сил современных видеокарт в DirectX 11): http://www.guru3d.com/article/club3d-radeon-hd-6870-x2-review/21 И довольно сильно похож на график, среднеигровой производительности: http://www.ferra.ru/online/video/107562/ Т.е. измерение энергопотребления видеокарт GTX5xx подобными утилитами отражает неверную картину - в играх (где частоты не сбрасываются) энергопотребление будет больше. У Radeon HD5xxx/6xxx в играх энергопотребление напротив меньше (поскольку они совсем не сбрасывают частот). Почему обзорщики до сих пор меряют энергопотребление фурмарками - непонятно... На крупных ресурсах для подобных целей уже давно запускают Metro 2033 / Crysis с высокими настройками изображения.
  19. Shiala

    Hard'n'Soft Help

    Поэтому всегда нужно искать мат. плату, где мосты находятся как можно дальше от видеокарты. А корпус mATX?
  20. Shiala

    Видеокарта

    Зато актуальный ;-)
  21. 2Тб Seagate Barracuda Green ST2000DL003 В самый раз для файлопомойки и торрентов
  22. Shiala

    Ваш компьютер

    С каких это пор, цитирую из статьи: стало "обычным 3дэ приложением"? В играх и у Radeon энергопотребление ниже Тем более эту статью тебе не я показала - ты сам её достал. Вот откуда достал - туда и засунь поглубже.
  23. Shiala

    Ваш компьютер

    Неправильно меряли значит. Одна HD6950 потребляет меньше энергии чем одна GTX560Ti на 25 ватт (с эти мы разобрались на прошлой неделе). Следовательно две HD6950 потребляют на 50 ватт меньше двух GTX560Ti - а в тесте связка этих карт потребляет на 30 ватт больше. С чего бы это? У Geforce GTX4XX/GTX5XX стоит защита - во время высокой нагрузки (приложениями FurMark/OCTT), видеокарта сбрасывает частоты - оттого и такие странные результаты замеров энергопотребления. Энергопотребление в играх надо мерить.
  24. Shiala

    Ваш компьютер

    Каждый 20-ый референс не разблокируется. HD6950 мощнее GTX560Ti - тем более в мультичиповой связке Crossfire работает несколько лучше SLI Т.е. при добавлении второго Radeon HD69XX (разрешение 1920х1080) в систему мы получим в среднем 75-80% увеличение скорости. А при добавлении второго Geforce GTX5XX мы получим только 55-60% увеличение. В разрешении 2560х1600 ситуация для Geforce еще хуже: Поэтому и рекомендую две HD6950, а не две GTX560Ti. И быстрее, и меньше энергии нужно, и тепла меньше выделяют. Оффтоп лучше перенести в тему "видеокарты"
×
×
  • Создать...