-
Публикаций
6 595 -
Зарегистрирован
-
Посещение
-
Победитель дней
2
Тип контента
Профили
Форумы
Календарь
Весь контент Shiala
-
Если получилось выставить реальные 4К, то по идее и должна возрасти загрузка памяти - или ты тут пытаешься нам втереть, что она так же осталась на уровне 2,5 Гб как и в Full-HD??? xD
-
GTX980 в паре с Core i7 4790K с горя пополам выдаёт в DAI 4К (что DSR, что в чистом 4К) около 25-35 FPS - без сглаживания. А тут Core i3 и GTX970 + 4xMSAA ~50 FPS. Говорю же чудеса.
-
Нуачо? Заминусуем на Метакритике, Стиме же! Нагадим на форумах! Будем безостановочно наезжать на ТП! Сделаем кучу возвратов и отмен предзаказов! В общем сорвём нафиг продажи, что придётся через месяц продавать игру с 30% скидкой и раздавать DLC бесплатно. Не буду тыкать пальцем на...
-
Без нас, бугуртящих нытиков, не вышел бы Mass Effect 3 Extended Cut - мы общественно полезная соц. группа. И DAI не оказался очередной халтурой по этому же поводу. Перенос сроков выхода последних крупных игропроектов как бы намекает нам, что разработчики и издатели не хотят с нами связываться.
-
Ну если не считать багом , что на карте мертвым грузом висят 500 мегабайт памяти, то проблем относительных быть не должно (кроме просадок FPS из-за нехватки видеобуфера). Главное настройки не выкручивать. http://www.overclockers.ru/hardnews/66715/nvidia-poprobuet-reshit-chast-problem-geforce-gtx-970-obnovleniem-drajverov.html Вот и какая то реакция от дяди Хуанга последовала.
-
:laugh: весьма оптимистично
-
Алсо - 4К и 50 FPS в DAI? Что за чудеса?
-
Ох если бы, некоторые новые игры уже в Full-HD не стесняются жрать больше 3 Гб. А что будет дальше?
-
Скорее всего тут зависит от конкретной модели GTX 970 - в описании первого видео озвучено логичное предположение: "По мнению некоторых экспертов, столь странное поведение видеокарты может зависеть от того, какой производитель создал чипы GDDR5 для конкретного экземпляра GeForce GTX 970. В любом случае, NVIDIA знает об этой проблеме, хотя о ее решении пока не сказано". Т.е. у каких-то карт эти 500 тормозных мегабайт вообще не функционируют - этим людям повезло, т.к. глюков и фризов у них не наблюдается, поскольку к тормозной памяти обращений нет - только просадки FPS от нехватки, как в первом видео. Тут есть такой прикол - у этих людей получается карта имеет 224-битную шину доступа к памяти, а не 256-бит, как заявлено xD А вот кому-то "повезло", что у него карта может использовать все 4 Гб своего видеобуфера (включая "тормозные" 500 Мб) - такие люди наблюдают ситуацию схожую с тем, что имеется во втором видео. Значит первый случай - GTX 970 224-bit, 3.5 Гб :laugh:
-
В обоих случаях судя по всему использовалось разрешение 2560х1600 или выше. В Far Cry 4 снижалась какая то настройка, чтобы понизить потребление памяти ниже 3500 Мб (и наоборот, повышалась, чтобы увеличить выше 3500).
-
AC:Unity - тормозное и неоптимизированное УГ. В Ведьмаке сразу видно на что нужны эти мощности. Остаётся только надеяться, что фирменные "оптимизации" от Нвидии, которые мы лицезрели в Watch_Dogs и в том же Unity, обойдут его стороной.
-
У данного товарища по какой то причине не задействованы 500 Мб видеопамяти и FPS местами падал ниже 40 - у GTX 980 он вообще в полтора раза выше (она мощнее, но не настолько). Call of Duty Advanced Warfare уже в разрешении 1920х1080 использует свыше 3 Гб видеопамяти, тут даже 4К не требуется. На втором видео память использовалась почти что вся, НО...всё видно и без объяснений.
-
Фиг бы с этими ценами - видеокарты ФРИЗЯТ и СЫПЯТ ГРАФОАРТЕФАКТАМИ (разъезды картинки и пр. "ништяки") при использовании >3500 Мб памяти! Эти 500 тормозных мегабайт ЕСТЬ на видеокарте и они никуда не денутся, заплатишь ты за них больше или меньше денег. Они багнутые, до кучи производитель умалчивал об этих особенностях и скрыл точные ТТХ. Мне понятно, отчего часть юзеров GTX970 испытывают дискомфорт в области пятой точки, и я не советую кому то пополнить их число. Юзеры стали активно пользоваться технологией DSR, чтобы улучшить качество картинки. Фактически DSR увеличивает разрешение выше максимального возможного, которое ограничено дисплеем и масштабирует его, улучшая тем самым качество сглаживания и детализации. Чем сильнее увеличивается картинка - тем больше отъедается видеопамяти. GTX980 и GTX970 имеют достаточно мощи чтобы без относительных проблем в части игр выводить изображение в 4К формате на Full-HD монитор с нормальным FPS, ОДНАКО в части игр расход Vram приближается к 4 Гб и GTX970 из-за особенностей в работе памяти выдает FPS с просадками и глитчами - хотя фактически мощи, чтобы не тормозить ей хватает.
-
Кушайте на здоровье Тесты в играх. Таких видео уже очень много, записано у разных юзеров в разных играх. Видеокарты реально ЛАГАЮТ при использовании >3500 Мб памяти.
-
Вот в результате тестов на них и обнаружился баг ("фича"!) с 3,5 + 0,5 Гб памяти. Народ начал копаться и всплыли остальные неприятные подробности про эти карты, такие как несоответствие заявленным ТТХ и другие особенности урезания. Оно вам надо - брать потенциального лаггера и глитчера?
-
И так тихой сапой мой процессор из разряда рекомендуемых перекочевал в разряд минимальных сис. требований (время идёт однако!). Ладно хоть видеокарта перекрывает рекомендуемые в два раза.
-
R9 295X2 ~70 килорублей, жееесть :huh:
-
Там GTX760 4 Гб в такую же цену стоят, а 770-ые 4 Гб еще и дороже на 3-4 килорубля - они по мощи и рядом не валялись. R9 290 сейчас самый адекватный вариант. Что я перечислила в порядке чем дальше тем круче. Брать то, на что хватит денег. Скажу сразу - всё что выше R9 290 фактически своих денег не стоит. R9 290X, GTX780Ti еще в натяжку можно назвать нормальным выбором - остальные слишком дорого стоят, а производительность от этого не сильно возрастает. GTX 780Ti чуть (реально чуть) слабее GTX980, а стоит на 10-12 килорублей дешевле.
-
У Ведьмака наиболее высокие сис. требования - в рекомендуемых там как раз таки ваш процессор и видеокарты уровня GTX770 и R9 290 - что странно, т.к. первая явно слабее и имеет уже недостаточный объём видеопамяти в 2 Гб. Поэтому из карт остаются R9 290, R9 290X, GTX780Ti и GTX980 (в свете последних событий GTX970 советовать не буду :laugh: ). http://www.dns-shop.ru/catalog/i174886/videokarta-pci-e-gigabyte-amd-radeon-r9-290-4096mb-512bit-gddr5-dvi-hd.html http://www.dns-shop.ru/catalog/i175489/videokarta-pci-e-sapphire-amd-radeon-r9-290x-tri-x-4-4096mb-512bit-gdd.html http://www.dns-shop.ru/catalog/i173132/videokarta-pci-e-palit-geforce-gtx-780-ti-3072mb-384bit-gddr5-dvi-hdmi.html (референс) http://www.dns-shop.ru/catalog/i175352/videokarta-pci-e-msi-geforce-gtx-780-ti-gaming.html http://www.dns-shop.ru/catalog/i1002776/videokarta-pci-e-gigabyte-geforce-gtx-980-4096mb-256bit-gddr5-dvi-hdmi.html Блок питания какой? Корпус?
-
Для того чтобы гарантированно избежать фризов и глитчей нужно подбирать настройки графики таким образом, чтобы используемая приложением видеопамять не выходила за порог в 3,5 Гб - тем самым "тормозная" часть видеопамяти задействована не будет. В Full-HD можно играть спокойно практически во все игры на ультра настройках, т.к. на таком "низком" разрешении вряд ли потребление памяти будет выше 3,5 Гб (хотя есть частные случаи, когда потребление может перевалить за эту отметку). Если разрешение выше, чем 1920х1080 - тут уже могут начаться проблемы. Ну еще про будущие требовательные к железу игры молчу. ЗЫ: Судя по схеме там вообще не 500, а около гигабайта тормозной памяти: Т.к. на последнем 64 битном канале висит 1024 Мб памяти (512+512) - из них последние 512 "тормозных" (1/7 скорости). По идее если идёт одновременное обращение к первым и последним 512 мб, то скорость чтения/записи в первом "быстром" блоке будет ниже, т.к. канал делится один на двух. Это в случае, если потребление памяти перескочило порог 3,5 Гб. Весело.
-
Ну это не только со новыми картами связано - тут еще и юзеры "старых" GTX660 и GTX660Ti в пролёте оказались. У них тоже >500 Мб медленной памяти на карте. То то полно жалоб на фризы в играх, когда потребление видеопамяти превышает 1,5 Гб.
-
Я просто сделала для себя вывод, что Nvidia фактически под видом видеокарты с 4 Гб памяти продает карту 3,5 Гб, в которой оставшийся объём задействован (задействован ли?) через костыль, который может вызывать в части приложений различные глитчи и фризы. Самый натуральный кастрат. Советовать к покупке никому не буду. Продолжение срача: у GTX970 не 64 блока растровых операций (как было заявлено), а 56 ROP. Короче это писец, Хуанг со своей Нвидией совсем обнаглел, спекулировать ТТХ - это не хорошо. http://www.3dnews.ru/908626
-
Да в теме прихожан мы обмусолили эту тему.