The Old One 1 917 27 октября, 2007 Обсуждаем видеокарты Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
I am Krogaaaaan 243 23 июля, 2011 Одно объяснение: У Crossfire выше эффективность - следовательно выше загрузка CPU вы игровом тесте. Отсюда и выше энергопотребление системы. Карты в любом случае потребляют меньше (видно на примере одной). Ты эти "авторитетные" ресурсы хоть иногда читаешь или только картинки смотришь. We'll be calculating the GPU power consumption here, not the total PC power consumption.(HD6950) With 2-way CFX we noticed our power consumption for the cards peaked to roughly 329 Watts, that's JUST the two cards, not the entire PC ! (GTX560Ti) With 2-way SLI we noticed our power consumption for the cards peaked to roughly 298 Watts, that's JUST the two cards, not the entire PC. 1 Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
faraleft 84 23 июля, 2011 успокойтесь уже кто то покупает то, что ему втюхают в магазе а кто то покупает опред фирму из-за "религи" ( и плевать ему что этот вариант кушает на 30 ватт больше) Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Shiala 4 310 23 июля, 2011 (изменено) Ты эти "авторитетные" ресурсы хоть иногда читаешь или только картинки смотришь. А ты то хоть читаешь, как они подсчитывали? Они изначально высчитывали энергопотребление системы в простое, потом в стресс-нагрузке игровым приложением. Вычли разницу и списали всё на энергопотребление видеокарт. Какая загрузка ЦП была во время теста, какая загрузка карт, где мультиметр и мониторинг БП с цепей питания видеокарт PCI-E - не указывается. Т.е. система SLI GTX560Ti + Core i7 965 (а это процессор с немалым TDP) могла иметь загрузку 95% - 60% (видео - ЦП), а система с Crossfire HD6950: 90% - 95% (поскольку последняя связка более процессорозависима). Оттого энергопотребление системы с последними могло выйти больше. Если у тебя есть иное объяснение, почему одиночная HD6950 потребляет меньше GTX560Ti, а в режиме Crossfire ВНЕЗАПНО больше SLI GTX560Ti - милости прошу, озвучь его. Peak: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Highest single reading during the test. Умножай на 2 и получишь пиковое энергопотребление карт в SLI-Crossfire. Изменено 23 июля, 2011 пользователем Shiala Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
I am Krogaaaaan 243 23 июля, 2011 А ты то хоть читаешь, как они подсчитывали? Они изначально высчитывали энергопотребление системы в простое, потом в стресс-нагрузке игровым приложением. Вычли разницу и списали всё на энергопотребление видеокарт. Какая загрузка ЦП была во время теста, какая загрузка карт, где мультиметр и мониторинг БП с цепей питания видеокарт PCI-E - не указывается. The methodology: We have a device constantly monitoring the power draw from the PC. We simply stress the GPU, not the processor. The before and after wattage will tell us roughly how much power a graphics card is consuming under load. Ох лапуля, в этом вся и мулька. Они люди не глупые и понимают что делают. Они в "стрессе" нагружают только видеокарту, то есть учитывая что нагрузка на ЦП остается неизменной, это и подтверждено фразой выше. Иначе это не имело бы никакого смысла, и именно в "стрессе" CF из 2-х HD6950 потребляет больше чем GTX560Ti Sli. HD6950 CF - System in IDLE = 184W System Wattage with GPU in FULL Stress = 473W Difference (GPU load) = 289W Add average IDLE wattage ~ 40W Subjective obtained GPU power consumption = ~ 329 Watts GTX560Ti - System in IDLE = 201W System Wattage with GPU in FULL Stress = 449W Difference (GPU load) = 248W Add average IDLE wattage ~ 50W Subjective obtained GPU power consumption = ~ 298 Watts Если у тебя есть иное объяснение, почему одиночная HD6950 потребляет меньше GTX560Ti, а в режиме Crossfire ВНЕЗАПНО больше SLI GTX560Ti - милости прошу, озвучь его.Думаю ответ прост - NVidia научилась в связках multi-GPU более эффективно использовать частоты каждого из GPU, немного лучше чем AMD, и в этом ничего смертельного нет. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Shiala 4 310 23 июля, 2011 (изменено) Ох лапуля, в этом вся и мулька. Они люди не глупые и понимают что делают. Они в "стрессе" нагружают только видеокарту, то есть учитывая что нагрузка на ЦП остается неизменной Назови мне хоть один ИГРОВОЙ тест (а они тестируют именно в игровом тесте), где не нагружается ЦП. ЦП не грузится только в специальных GPU стрес-тестах. Думаю ответ прост - NVidia научилась в связках multi-GPU более эффективно использовать частоты каждого из GPU, немного лучше чем AMD :blink: при чём здесь частоты? Картина как я уже писала выше - аккурат обратная. Crossfire работает эффективней - следовательно средняя загрузка ЦП и карт выше - оттого выше энергопотребление. GTX560Ti в паре потребляют меньше, поскольку они и нагружающий их ЦП попросту больше простаивают. Изменено 23 июля, 2011 пользователем Shiala Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
I am Krogaaaaan 243 24 июля, 2011 :blink: при чём здесь частоты?А при том, что это самый простой способ увеличить энергоэффективность и уменьшить тепловыделениевот пример технологии AMD power tune Думаю что NVidia использует нечто подобное, отсюда может и энергоэффективность в связке SLI быть чуть лучше. И вообще ты как думаешь - как можно объективно измерить энергопотребление допустим той же видеокарты? Я говорю, что есть только один способ - сделать разрыв цепи питания PCI-E, подтащить аналоговый прибор со стрелкой ака "Ц-шка", и померить потребляемый ток видеокарты (все мы знаем, что амперметр включается в цепь последовательно) и зная напряжение питания посчитать потребляемую мощность, можно также токоизмерительными клещами. А если ты отождествляешь уровень энергопотребления с величиной TDP, то любой справочник по электронике, ну или википедия тебе в помощь.http://ru.wikipedia.org/wiki/TDP . Также и Guru3D пишут, что estimated TDP, хотя это неправильно. Рассеиваемая мощность, зависит от потребляемой нелинейно.Если видюшка потребляет на 10 Ватт больше, не факт что она выделит тепла на 10 Ватт больше. А эти 10 Ватт (точнее несколько ампер) больше нагреют лишь провод и разъем питания, а дальше уже всё зависит от полупроводников, как они будут использовать энергию и сколько Ватт они будут рассеивать. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Shiala 4 310 24 июля, 2011 А при том, что это самый простой способ увеличить энергоэффективность и уменьшить тепловыделение Думаю что NVidia использует нечто подобное, отсюда может и энергоэффективность в связке SLI быть чуть лучше. Ладно, возможно они и играют с частотами - тогда, судя по твоим словам Geforce сбрасывают их сильнее (также сильнее снижая производительность). Что это - плохая оптимизация нагрузки мультичиповой связки или банальное желание урезать энергопотребление? А TDP разных карт вполне можно взять за основу сравнения энергопотребления - все современные видеокарты имеют цепи питания из схожих компонентов, схожие полупроводниковые кристаллы GPU, которые все ВНЕЗАПНО делаются на TSMC и абсолютно аналогично выделяют тепло (40nm Extreme Low-K inter-metal dielectric). Вот если бы кто-то делал карты на основе органики, а кто-то на основе другой НЕХ - тогда да, сравнить бы их было нельзя. Поэтому вполне можно допустить - если одна карта "съела" на 30 ватт больше, она и выделит в окружающую среду на ~30 ватт больше тепла. И наоборот. Вот сравнить видеокарту и процессор по этим параметрам будет уже неправильно. Про мультиметр в цепи питания БП PCI-E я писала выше - я примерно знаю как реально измерить энергопотребление видеокарты. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Kosepan 1 726 24 июля, 2011 (изменено) Вот две статьи SLI и CrossFire/ Жаль что отдельно, там наглядно показано что масштабируются одинаково. Изменено 24 июля, 2011 пользователем Kosepan Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
I am Krogaaaaan 243 24 июля, 2011 А TDP разных карт вполне можно взять за основу сравнения энергопотребления Ни в коем случае, лапуля. TDP - это прежде всего ПОТЕРИ. И явный пример того, что при сравнении энергопотребления нельзя брать это значение, это GTX570 (TDP до 219 Вт) и HD6970 (TDP до 250 Вт), хотя энергопотребление второй меньше чем у первой. Вот тебе и нелинейная зависимость. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Shiala 4 310 24 июля, 2011 (изменено) Ни в коем случае, лапуля. TDP - это прежде всего ПОТЕРИ. И явный пример того, что при сравнении энергопотребления нельзя брать это значение, это GTX570 (TDP до 219 Вт) и HD6970 (TDP до 250 Вт), хотя энергопотребление второй меньше чем у первой. Вот тебе и нелинейная зависимость. Я говорю о реальном TDP, которое напрямую зависит от энергопотребления, а не о паспортном, которое каждый производитель меряет по разному. Изменено 24 июля, 2011 пользователем Shiala Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Shiala 4 310 28 июля, 2011 (изменено) Все дружно налетаем на свежие дровишки: ForceWare 280.19 beta: http://www.overclockers.ru/softnews/42908/Drajvery_NVIDIA_GeForce_Verde_280.19_Beta_c_ryadom_ispravlenij.html Catalyst 11.8: http://www.overclockers.ru/softnews/42895/Drajvery_AMD_Catalyst_11.7_ustranen_lag_kursora_i_Catalyst_11.8_Preview_povyshennoe_bystrodejstvie.html Изменено 28 июля, 2011 пользователем Shiala Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Zio 4 278 28 июля, 2011 Бета...я лучше недельки 2-3 подожду,чем потом откатывать. ) Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Kosepan 1 726 3 августа, 2011 Музей видеокарт в Харькове Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
WildFire 261 3 августа, 2011 У меня куда больше ностальгия по самому Харькову (7 лет там прожил, включая студенчество), чем по видюшкам... Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Kosepan 1 726 4 августа, 2011 NVIDIA увеличила свою долю на рынке графических процессоров Акции NVIDIA на этой неделе выросли на 5.35% и предлагались по цене $14.57. Одновременно с этим отмечается рост "высокотехнологичного" фондового индекса NASDAQ на 23.83 пункта и индекса S&P 500 на 6.29 пунктов. В корзину S&P 500 входит 500 избранных акционерных компаний США с наибольшей капитализацией, среди которых можно найти NVIDIA. Кроме того, по данным аналитических агентств, представленных на страницах MarketWatch, компания из Санта-Клары нарастила свою долю на рынке графических ускорителей. В сегменте дискретных видеоадаптеров NVIDIA прибавила 8.9 процентных пункта и в настоящее время контролирует 50.6% рынка, в сегменте решений для ноутбуков рост компании не такой заметный, всего 3.8 пункта, до 54.6% соответственно. Также, NVIDIA создала плацдарм для быстрого наступления на рынке смартфонов и планшетных ПК в виде перспективной платформы Tegra. Тем не менее, по мнению аналитика Марка Лапасиса (Mark Lipacis), в долгосрочной перспективе NVIDIA может ждать очередное снижение экономических показателей. Так, несмотря на положительные результаты второго квартала, с начала года акции компании упали на 5%, а нарастающее давление на основной бизнес NVIDIA по производству графических чипов со стороны AMD не может благоприятно сказаться на состоянии "зелёных". Также, инициатива производителей ноутбуков по снижению энергопотребления мобильных компьютеров может стать причиной отказа от использования дорогих и относительно "прожорливых" дискретных GPU, что в свою очередь станет сильным ударом по позициям NVIDIA. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Kosepan 1 726 7 августа, 2011 (изменено) В погоне за производительностью видеокарты Август 2011 Наглядно видна работа SLI и Crossfire Изменено 7 августа, 2011 пользователем Kosepan Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
welliz 155 7 августа, 2011 NVIDIA увеличила свою долю на рынке графических процессоров И насколько это? Учитывая, что уже в этом году выходят AMD 7***. А когда там выходит Kepler? Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Kosepan 1 726 7 августа, 2011 И насколько это? Учитывая, что уже в этом году выходят AMD 7***. А когда там выходит Kepler? В этом году, будут готовы, а в начале следующего начнутся продажи. И чему вы радуетесь анонса 7*** еще не было, как и более подробной информации. Так что ваши слова не более чем пустой звук, лишь бы написать. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
welliz 155 7 августа, 2011 В этом году, будут готовы, а в начале следующего начнутся продажи. И чему вы радуетесь анонса 7*** еще не было, как и более подробной информации. Так что ваши слова не более чем пустой звук, лишь бы написать. В любом случае 7*** выйдут раньше. А посему смысла от новости выше даже если и есть, то ненадолго. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Kosepan 1 726 7 августа, 2011 В любом случае 7*** выйдут раньше. А посему смысла от новости выше даже если и есть, то ненадолго. А там и сказано что в долгосрочной перспективе такого роста не будет. И посмотрим когда выйдет 7***, и во сколько раз она будет быстрее 6***, если конечно раз. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Zio 4 278 7 августа, 2011 (изменено) А там и сказано что в долгосрочной перспективе такого роста не будет. И посмотрим когда выйдет 7***, и во сколько раз она будет быстрее 6***, если конечно раз. В несколько раз? Такое возможно только теоретически.Полагаю, и NVIDIA и AMD могут уже сейчас начать производство видеокарт гораздо мощнее нынешних. Но это невыгодно, поэтому мощность будет наращиваться незначительно с каждой серией. А топовые видеокарты всегда будут стоить дорого. Изменено 7 августа, 2011 пользователем Zio Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Roma89 109 9 августа, 2011 Кстати, отныне под брендом Radeon будут выпускаться не только видюхи, но и оператива. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Эйден Гэлсион 1 570 14 августа, 2011 Впервые столкнулся с таким чудом. Дело в том, что это компьютер стоит на работе у папы. Частота обновления стоит по умолчанию, поменять нельзя, а мерцание-то весьма заметно (монитор старый). Думая, что дело в драйверах, я решил узнать, какая видеокарта здесь стоит. И вуаля: Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Xzander 7 244 14 августа, 2011 Впервые столкнулся с таким чудом. Это не чудо, это банальное отсутствие "родного" драйвера. Стоит стандартный VGA, который устанавливается после установки винды. Видимо там на работе не потрудились даже всунуть диск от видюхи после установки винды. Поэтому и частоту обновления поменять нельзя и все прочее. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты
Эйден Гэлсион 1 570 14 августа, 2011 То бишь самому ставить? Понятно, спасибо. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты