-
Публикаций
6 461 -
Зарегистрирован
-
Посещение
-
Победитель дней
2
Тип контента
Профили
Форумы
Календарь
Весь контент Shiala
-
Тут стоит помнить, что архитектура памяти в новых консолях и ПК несколько различается - например в Xbox SeX 10 Гб будет отдано под видеопамять, оставшиеся 6 Гб под систему и игры (у PS5 наверняка нечто схожее), тогда как у топовых игровых компьютеров 8-11 Гб видеопамяти и 16+ Гб системной памяти. "Излишки" системной памяти играют в ПК роль быстрого "SLC-кэша" для дисковой подсистемы, в который игры могут не стесняясь записывать все нужные данные про запас (некоторые в потреблении ОЗУ заходят свыше 12 Гб), тогда как у консолей такого запаса нет. Поэтому быстрый SSD им нужен обязательно, а для ПК с тем же успехом достаточно обычных SSD.
-
В тестировании GamersNexus автор прямым текстом сказал, что никакой разницы фактически нет. Слегка повышенные температуры VRM могут быть исключительно из-за того, что тестируемая карта EVGA GTX 1080 - двухвентиляторная (меньше статическое давление) и конструкция кожуха у неё с сильным перекрытием радиатора (без гигантского светодиодного табло в два слота с названием модели они обойтись не могли - оно препятствует естественной конвекции воздуха). Это совершенно не наши нынешние реалии - у нас большинство продвинутых топов сейчас трёхвентиляторные и имеют развитый открытый радиатор (см. вверху EVGA RTX 2080Ti) - это специально сделано т.к. корпуса с вертикальным расположение карт становятся всё популярнее.
-
У меня до стекла "смешные" 10 см, а до мат. платы просто "смехотворные" 4 см Вот сто процентов эти расстояния больше тех, если бы я поставила карту горизонтально. А теперь я логически поразмыслю. Из школьного курса нам известно, что теплый воздух легче и стремится вверх - это один из принципов естественной конвекции, от которой стоит отталкиваться, конструируя системы охлаждения и т.п. в том числе для наших ПК. Теперь вопрос на миллион: видеокарта в каком виде, с ребра или плашмя будет большим препятствием для конвективного потока в корпусе ПК? Стоит помнить, что современные топовые видеокарты имеют не только большие габариты в длину, но и в ширину (увеличенные, относительно стандартных размеров PCI устройств платы) - доходит до такого, что до корпусной стенки остаётся 0,5-1,5 см (вот здесь уже можно смеяться!). Видеокарта становится затычкой-переборкой в корпусе, под которой образуется застой теплого воздуха, воздуху остаётся избегать только в щель между ВК, корпусной стенкой и мат. платой - дополнительно её подогревая, чего нам ой как бы не хотелось, да? Плюс увеличивается статическое давление, которое приходится преодолевать вентиляторам, для прокачки воздуха. Поэтому люди вынуждены колхозить такое: Таким образом они выдувают застой теплого воздуха из этой "слепой кишки". А вот вертикально установленная карта такого колхоза не требует: Нагретый воздух, благодаря естественной конвекции и помощи вентиляторов беспрепятственно минует радиатор и улетает наверх. Свободного объёма для забора воздуха - хоть задуйся.
-
С чего ты взял? В плане охлаждения эта схема лучше классической по нескольким причинам: 1) Видеокарта не так сильно перекрывает воздушные потоки в корпусе; 2) Видеокарта отдалена от дополнительных источников нагрева - SSD, чипсета и т.п.; 3) Ребра радиатора (большинства видеокарт) естественно расположены вдоль восходящих потоков воздуха. Из минусов разве что вентиляторы могут быть не спроектированы для эксплуатации вертикально и излишне шуметь, да на ЦП придётся использовать СВО или компактный односекционный кулер в горизонтальном положении. Всё. У меня в компактном корпусе с температурным режимом точно стало лучше, плюс видеокарта не гнутая как банан.
-
Да под RTX (почти под все, кроме референсов и коротышей) нужна подпорка или вертикальный крепеж, у меня такой: https://www.coolermaster.com/catalog/cases/accessories/vertical-graphics-card-holder-kit/
-
Нормальный выбор, главное БП хороший иметь и не майнить)
-
Если без выпендрежа, в виде: обязательное 4K, 12-и и более ядерный проц, крутой корпус и охлаждение, то в 80-90К можно уложить.
-
На 11:00 кстати указали графический недостаток, который у меня с DLSS на 1080p присутствует. Если поднять разрешение - он пропадает и визуальная разница между DLSS и нативным разрешением практически сходит на нет. Это я могу назвать маленькой победой дядюшки Хуанга. Остаются вопросы: как широко DLSS будут применять и как легко DLSS можно приделать в игре?
-
На момент записи драйвера еще не было, там точно не 2.0. В 2.0 мыла СИЛЬНО меньше, детализация текстур лучше. Я проходила Control на 4K DLSS, разница явная.
-
Хотя стоп, у меня же метро есть) UPD: в Full-HD DLSS там не включается, видимо поддержку еще не подвезли
-
Это да, мне просто больше не на чем прогнать и проверить)
-
Погоняла в Control с DLSS - в общем есть весьма очевидные плюсы и не сильно очевидные минусы. Минусы усугублены самим Control-ом, поскольку к самой игре есть претензии - с ростом расстояния до объектов там детализация (текстур особенно) очень хромать начинает. Плюс у меня Full-HD, а рендеринг осуществлялся в 1280x960 и походу DLSS на такое особо не затачивали. Да это в некоторых сценах бросается в глаза, будто в вместе с TAA включили какой легкий шарп фильтр - самый большой недостаток. Особенно в контрастных сценах, где ГГ в кадре на светлом фоне или на фоне ярких эффектов частиц и пр. Сильно видно при отдалении камеры на персонаже - ожидаешь, что картинка размоется (типично для этой игры!), ан нет, персонаж остаётся очерчен чёткими толстыми линиями овершарпа - терпимо в общем, учитывая следующее: Это самый большой плюс, 40-60% на ровном месте фактически. Ну прошлая версия DLSS такую же прибавку давала, а визуально она сильно хуже выглядела. Сильно не очевидный минус - в динамике всё отлично, а в статике у меня персонаж заметно "пикселит": Верхний скрин в нативном Full-HD, второй 960p DLSS. Видно, что волосы на DLSS лучше, только вот на подбородке пиксели выросли - поэтому как мне кажется все скрины сравнения в динамике сделаны, остановкой кадра в видео. реально - в динамике ни намека не пикселизацию нет. Но если зайти в игровой фоторежим, то DLSS явно там халтурит. Хотя, что интересно, я не видела, чтобы другие объекты страдали от этого, возможно связано с тем, что Nvidia тупо не натаскала DLSS достаточно на такие маленькие разрешения рендеринга типа 960p. Угадайте где DLSS?
-
Экспресс слоупок новостей подъехал XD Подвезли тут новый DLSS версии 2.0 И прямо таки - вот оно! Теперь оно действительно похоже на что-то инновационное (в реальности, а не на бумаге) - видно улучшение качества отрисовки относительно нативного разрешения и производительности с горкой накидывает. Полезла тестировать в Control
-
Ну и отлично, надеюсь сами Сони смогут в дизайн. А то у меня в планах покупка Playstation 5
-
По мне так Xbox SeX выглядит лучше, хоть он и весь из себя квадратиш
-
Да кстати, у меня вывод кадров с частотой 144 Гц, разница с частотой опроса порта, если считать кратно: 144 - 125 = 19 144*2 - 250 = 38 144*4 - 500 = 76 144*7 - 1000 = 8 На 500 Гц - самая большая разница, возможно потому у меня на 500 Гц курсор отрисовывает кашу. Нам срочно нужен Freesync для мышей xD
-
Через CrystalDiskInfo посмотри. Много. У меня 400 гигов записей за полтора года (свап и темпы на другом диске)
-
У меня бешеное передвижение курсора мыши в режиме 1000Гц\12000DPI практически не вызывает нагрузки на ЦП, занято работой 2 потока: Спады - там я останавливала елозить мышью, чтоб дух перевести) Движение окна в том же режиме уже сильнее бьёт по производительности, работой в целом так же заняты 2 потока: Ну и тест в Пейнте: Лучший режим 1000Гц\2000DPI, на 500 Гц у меня мышь что-то трясучно и шумно отрисовывает линию, на 125\250 видны изломы. 1000Гц\12000DPI - там уже конкретная дичь, тремор руки, шершавость стола - всё на линии отражено. В общем оставлю 1000 Гц) Теперь мы знаем, что игровым мышам нужен многоядерный проц с кучей потоков, 4 ядра им противопоказаны.
-
Я в комментах видела, что их вообще в районе 200 сделали - и те почти все по ревьюверам разлетелись. Бумажный запуск на самом деле.
-
Для понимания всего ужаса - подпись к графику "System power consumption" означает, что разгон 10980XE не просто увеличил энергопотребление ЦП вдвое, а то что разгон двухкратно увеличил энергопотребление системы в целом.
-
Вот кому-то совсем не смешно))
-
Угу конечно: Когда 10980XE посетит прилавки магазинов, он будет стоит немного дешевле 9980XE. Даже с дефицитно-ажиотажными ценами 3950X будет дешевле.
-
Что-то тут тихо по поводу смачного просера от Intel - их новенький 10980XE в части рабочих задач оказался медленнее предыдущего 9980XE, несмотря на превосходящие ТТХ. Большинство техноблогеров склонились к мнению, что это связано с тем, что в микропрограмме чипов и UEFI для них закрыли часть уязвимостей, которым они подвержены. Ах да, тут еще более дешевый Ryzen 9 3950X от него мокрого места не оставил))) В общем процессоры вышли заранее "мертвыми"...
-
Демон тулсами балуешься, ай-яй)
-
У меня вообще нет лагов и просадок - файл подкачки я оставила чисто номинальный гиг, поскольку некоторые проги ругаются на его отсутствие. Какое-нибудь ПО для оптимизаций, антивирусы с песочницами стоят?