-
Публикаций
6 462 -
Зарегистрирован
-
Посещение
-
Победитель дней
2
Тип контента
Профили
Форумы
Календарь
Весь контент Shiala
-
Нет - походу глюк с определением видеокарты - вместо GTS250 встроенную вывел. Опа - надо отправить на hwbot.org - Типа самый крутой разгон интеловской видяхи
-
Настройки: Охлаждение DeepCool V4000 + Thermalright TY-140. Без разгона в FurMark было 59 градусов - сейчас проверять лень. По некоторым причинам я не могу прогнать Heaven в режиме DX11. Если прогонишь в 1024х768 и DX9 или DX10 - сравним.
-
Карта в разгоне 800/1900/2400, температуры в простое 29, под нагрузкой Battlefield 3 - 54 градуса Цельсиях
-
1) Возможно 2) Не знаю, но хуже точно не станет 3) ЦП недостаточно для данной видеокарты. Надо разгонять хотя бы до 3 Ггц 4) Если брать новый "другой вариант" - старым планкам памяти там места не будет. Только DDR3
-
У меня нет этих игр - и ставить их желания тоже нет. В наличии Oblivion, Skyrim, L.A. Noire, Dragon Age II, Battlefield 3 Vantage возможно поставим
-
Провела разгон Core i5 2500K задав параметры вручную - был отключен лимит TDP в 95 ватт, напряжение было зафиксировано на отметке 1.265 В, множитель выставлен равным 45, память работала на частоте 1866 Мгц и таймингах 9-13-13-34 (автоматом - надо будет заняться более тщательной настройкой) В таком режиме процессор набирает 118 (!!!) гигафлоп и не стесняется кушать 140 ватт энергии, нагреваясь при этом почти до 70 градусов Цельсия.
-
Явно нет. Откуда такие конские цены? Из-за бугра заказать наверно дешевле выйдет http://h-y-c.ru/knowledge-base/programs/video/20-how-do-kmplayer-simultaneously-run-two-video-files.html
-
Палит на стандартных частотах то эксплуатировать небезопасно
-
Поскольку темы о разгоне как таковом на форуме нет - решила сделать вброс запостить опыты, по разгону собственного барахла прямо сюда. Просто так, от делать нефиг... Итак, оверклокерский вечерок Шиалы - блюдо дня: Имеем Intel Core i5 2500K, 4 Гб дешёвой DDR3-1333 ОЗУ и старую, однако по-прежнему боевую GeForce GTS250, которые собственно и будут подвергнуты "разгону" и тестированию в 3DMark 2006 и немного в Lynx (игр нет, ибо мерять в них скорость мне не чем, да я и не знаю как это делать). Дисклеймер: Первоначально система без разгона набирала: После выставления множителя 40, ЦП спокойно одолел 4000 Мгц (против 3300 стандартных), а ОЗУ легко прибавило 266 Мгц частоты и заработало на 1600 Мгц. Видеокарта работала на стандартных 740/1836/2200 Мгц. Как видно толку от разгона процессора и памяти мало, поскольку видеокарта сама по себе весьма тормознутая для нашего времени и для Core i5 2500K её маловато - GPU Score почти не изменился. Так давайте же разгоним видеокарту: ЦП-4000 Мгц, ОЗУ-1600, Видео-800/1900/2400 Вот это уже другое дело! Давайте поддадим старушке еще немного! ЦП-4000 Мгц, ОЗУ-1600, Видео-840/1940/2400 Ладно, коли с видеокартой накололись, подразгоним еще немного ЦП и ОЗУ - выставляем множитель 43 - ушлый Штеудик охотно заработал на 4300 Мгц (без поднятия напряжения), а дешёвое ОЗУ, как раз плюнуть, запустилось на 1866 Мгц!!! Всё это дело набрало 95 Гигафлоп в тесте Lynx и прогрелось до 63 градусов Цельсия: Собственно всё - на этом я и решила остановиться. Напрашивается очевидный вывод - видеокарту и монитор мне однозначно надо менять. Если есть желание поучаствовать в новогодней фаллометрии - милости просим, постите свои оверклокерские подвиги - буду рада поучаствовать.
-
Sapphire 7970 Atomic 1335 mhz! Radeon HD 7970 разогнан до 1700/8000 МГц или самая быстрая видеокарта на планете Вот и на выходных я порадую вас своими оверскими достижениями! Поддадим 900 Mhz на GTS250! Всех с Наступающим Новым Годом!
-
Как они могли захватить что то с собой, если на момент снятия скриншотов с GTS250 их НИКОГДА не было в этой системе. Тук-тук Радеоны в моей новой системе не стояли до этого дня. Проблема с графикой вроде бы решилась отключением сглаживания. А мне как конечному пользователю наплевать, что она видите ли "переименовывалась" - выпущена карта в 2009-м. А HD4850 в 2008.
-
Так на HD4850 работает нормально. Да ОС Win7 x64 - ошибка во время запуска Оперы - читала что жалуются на некий WebGL в нвидиевских дровах. HD4850 тоже стара как кусок испражнений мамонта - на ней то работает И ПЕЧку я ни за какие коврижки не возьму - купишь её, а через полгода Nvidia выпустит свой Кеплер и так же продинамит пользователей с дровами под GTX5xx - станут они такими же "устаревшими". В попу такое отношение к потребителю. Видеокарта не в разгоне (и никогда ему не подвергалась - Джифорсы из-за их чрезмерной любви к отвалам GPU не разгоняю). Замечаю подобное в последних играх (Skyrim еще например) - т.е. начиная с какого то момента (месяца 4-5 назад) Nvidia похоже просто положила болт на "старые" видеокарты и не оптимизирует свои драйвера под них. В играх полугодичной давности всё нормально. Охлаждение на видеокарте - полкило меди (4 тепловых трубки) и 140 мм вентилятор - поставлено специально, чтоб уж наверняка не подохла. Ах да, шутка юмора в том, что дравйера HD4850 ставились после того, как я сделала скриншоты на GTS250 - т.е. "говнодровишки" то тут совсем не причём. :koo-koo:
-
GTS250 - драйвер NVIDIA GeForce/Verde 290.53 HD4850 - драйвер Catalyst 11.12
-
Да пожалуйста - ты мне только подскажи программу, которой можно снимать скриншоты у этой игры. Пробовала Fraps-ом 2.6.4 - не снимает... Print Screen - фоткает чёрный экран. Я вот даже стрельнула у подруги свою старую HD4850 - и что интересно - на ней подобного веселья, описанного мною не было. Если не веришь - я тебе даже скриншоты на HD4850 сделаю, и видео сниму, и фотки Origin-а приложу (что Battlefield 3 лицензионный). Помучаюсь уж с перетыканием карт туда-сюда. А вот поставила новый Fraps - скриншоты снимаются...
-
Именно в них - вот купила я тут Battlefield 3 (чисто на графон посмотреть) - так у меня американские солдаты бегают измазанные зелёной и сиреневой краской, а некоторые солдаты ССО носят вместо шлема (о боже!) сгоревший остов автомобиля. Я молчу про чёрные полоски, идущие от прицела и выпадающие текстуры и объекты...
-
Основное внимание обращаю на энергопотребление, тепловыделение и шум - поэтому при первой же возможности буду использовать самую энергоэффективную связку ЦП Intel и AMD Radeon. Ныне сижу на Core i5 2500K (часть плана выполнена) и GTS250 - последние драйвера приводят меня в состояние дичайшего ужаса...
-
http://www.hisdigital.com/ru/product2-586.shtml
-
Ну ты же написал что средние начинаются с GK106 - значит эти два топовые
-
А потому что делать видеокарте среднего ценового диапазона 384 битную шину нет смысла - это будет уже карта не среднего ценового диапазона А смысл в двух топовых чипах (я про GK104 и GK100)? Основная выручка идёт от карт низшего и среднего звена - будешь понтоваться, выпуская чипы с кучей блоков и овер9000 битной шиной, останешься без штанов.
-
Потому-что это двуядерник. У меня был Phenom II X6 1055T - в диспетчере их отображалось шесть штук По слухам там будет 640 или 768 ALU и 256 битная шина (карта среднего ценового диапазона) - учитывая, что Nvidia в новых чипах отказалась от удвоенной частоты шейдерного домена, карты, основанные на них, врядли будут быстрее GTX570 и GTX580. Скорее всего для HD7970 они не соперники (для HD7870 возможно). Вот с GK100 и его гипотетическими 1024 ALU будет тяжело тягаться...но он обещает быть печкой, поскольку площадь ядра должна быть чуть ли не в полтора раза больше чем у HD7970
-
Что нибудь типа Core 2 Quad 9550, Phenom II X4 955 будет в самый раз. А лучше Core i3 2300 или Phenom II X4 980 и выше... http://www.overclock...ena_do_499.html Хотя GTX580 стоят 530-550 долларов, покупают же. У людей тратящих такие деньги на железку 20 лишних долларов на более мощную карту не найдётся?! XD А кеплер выйдет через полгода - еще через полгода какая нибудь HD8970 и через полгода опять... так и не дождешься :D
-
Резюмируем вчерашние события: 1) HD7970 (инженерный образец) разгоняется до частот 1125 мгц без поднятия напряжения. Как я поняла, программной поддержки у карты еще нет и и разгон был ограничен ползунком регулировки частоты (max 1125 мгц) в текущей версии AMD Overdrive. В таком режиме энергопотребление карты сравнивается с HD6970 и карта по скорости порой дотягивает до HD6990 и GTX590; 2) Карта быстрее GTX580 на 5-60% - в среднем 20-30% и быстрее HD6970 примерно в полтора раза (некий бета драйвер Dec 16 HD7970 reviewer build); 3) Есть поддержка DirectX 11.1 и шины PCI-E 3.0; 4) При переходе ПК в спящий режим карта отключает вентилятор и потребляет только 3 ватта энергии. Если есть Crossfire из нескольких карт, в 2D режиме работает только одна, остальные так же "спят" потребляя 3 ватта каждая. 5) Карта "холоднее" чем HD6970 По мне так весьма недурственно, учитывая что в обзорах участвовали инженерные образцы на сырых драйверах. наверно возьму через пару месяцев - там и драйвера должны доделать. +15% из карты еще вытянут. Тогда и разгон до частот 1200-1250 мгц будет доступен.