среда, 25 июля 2012 г.

Прогресс или застой в ИТ индустрии? Часть II – Видеокарты.


В предыдущей статье я рассмотрел прогресс развития процессоров, но это не единственная часть компьютера. Многие очень любят играть за компьютером, здесь не маловажную роль играет видеокарта.

Начало начал

Первые видеокарты не предназначались для 3D графики, они нужные были для вывода обычного 2D разрешения. При этом они были на столько слабы, что до нынешнего FullHD 1920x1080 им очень далеко, 640х480 уже было очень прекрасно. 32 битный цвет? Нет, о нескольких миллионах цветов и мечтать никто не мог, 16 цветов уже хорошо, а 256 цветов просто сказка. Потом стали появляться псевдо трехмерные игры – ужасная графика, изображения состояли из цветной мешанины квадратиков.

Видеокарта EGA-VGA ISA 8 bit

Далее появились настоящие трехмерные, с объектами из полигонов, игры. Соответственно появились и видеокарты обрабатывающие 3D изображение (не путайте его с тем изображением, которое вы видите в кинотеатре при просмотре фильма в стерео-3D). Первые видеокарты были вообще дополнительной картой к обычной 2D карте и вставлялись в соседний слот. Потом появились видеокарты способные обрабатывать и 2D и 3D.

Тернистый путь

Сейчас модно, если у тебя видеокарта поддерживает последний DirectX, а тогда он начинал ещё только захватывать рынок и то очень робко и не умело. Первые 3D видеокарты не имели поддержки какого-то ДиректаИкса. Производители стали указывать поддержку стандарта, только начиная с версии DirectX 6.0. Для установки карты в материнскую плату использовались обычные слоты PCI, позже его разновидность AGP, ну а сейчас уже используется PCI-E. Шины отличались скоростью и питанием, потому что с ростом качества 3D игр, видеокарты всё больше потребляли энергии. В свое время очень популярны были Riva TNT и 3Dfx Voodoo, сейчас они конечно выглядят очень устаревшими.

16Mb PCI Riva TNT

Видеопамяти было очень мало, ходовое разрешение у игр было 800х600 и 16 битный цвет. Потом появился GeForce, также к тому моменту стала активна ATI выпустив Radeon. Обе серии до сих пор живы, но один из производителей теперь не ATI, а AMD. Обе видеокарты могли рассчитывать динамические источники света и поддерживали последние нововведения DirectX 7.0 и OpenGL 1.3.
Знаменательным можно считать время, когда появилась программируемая шейдерная архитектура (DirectX8.1 и OpenGL1.4). Игры стали выглядеть в разы лучше, теперь было важно не только  количество полигонов и качество текстур, но и поддержка шейдеров. С этого времени наконец-то вода стала похожа на реальнуюJ.  Далее шейдеры совершенствовались, видеокарты толстели, а пользователи всё больше удивлялись графическим красотам. На данный момент (DirectX10-11) шейдерная архитектура стала унифицированной и уже не различаются вершинные, пиксельные или ещё какие-то шейдеры, в видеокартах количество шейдерных процессоров уже измеряется тысячами.

В чём проблема?

В плане роста производительности к видеокартам очень мало претензий, раньше они могли выводить только разноцветные треугольники, а сейчас они позволяют обрабатывать различные эффекты, при чем не только графические эффекты, но и производить физические расчеты. При этом теперь видеокарты можно применять не только для графических задач, а также: для расчета сложных химических/ физических/ биологических процессов, для подбора паролей, для генерации криптографических ключей и прочее. Помимо расширяющегося функционала, видеокарты постоянно увеличивают свою производительность. Кажется всё замечательно? Но как всегда есть ложка дегтя, такой рост требует жертв, в данном случае это тепловыделение и энергопотребление. Каждое поколение требует всё больше и больше энергии, если раньше видеокарта обходилась питанием подаваемым через разъем PCI или AGP, то потом этого стало не достаточно. Шина AGP способна предоставить 40вт, шина PCI-E подняла порог до 75 вт, и этой мощности видеокарте не хватало, поэтому сначала появились видеокарты с одним разъемом питания,


потом с одним 6-pin разъемом,
потом с двумя разъемами 6-pin,

потом с разъемами 6 и 8-pin,
далее с двумя 8-pin разъемами, что уже позволяло видеокарте потреблять более 300вт!!
Но производители даже на этом не остановились, и недавно на выставке Computex показывали видеокарты с тремя 8-pin разъемами.
Интересно, что же дальше будет? 4, 5 или 6 разъемов сразу на одной видеокарте? Очень странная тенденция, когда-то компьютеры пытались уменьшить в размерах, вспомните здоровенные ламповые махины суперЭВМ на несколько комнат, то теперь пошла другая тенденция и нам наверное скоро придется отводить целую комнату под системник компьютера. При этом некоторые предпочитают ставить не одну и даже не две, а сразу ЧЕТЫРЕ мощных видеокарты. Если так и дальше развивать видеокарты, то скоро для них придется брать отдельную материнскую плату и отдельный блок питания, да и вообще вспоминая, что у процессоров тоже растут аппетиты, придется ставить собственную электростанцию для своего системника. И это не единственная проблема – а как же отводить тепло от таких монстров, если раньше охлаждение у видеокарты было однослотовое, то сейчас система охлаждения может занимать и два, и три, и даже четыре слота, а также ещё и подпорку в комплекте вам выдадут, чтоб видеокарта ничего не сломала. А ведь когда-то видеокарты были даже без радиатора!!!
Radeon 9800 для охлаждения было достаточно одного слота
GeForce 6800 Ultra
Radeon HD4850
GeForce GTX480 - горячий нрав и большие размеры
Разогнаный трех-слотовый вариант Radeon HD7970 - существуют версии, где  вентилятор немного выпирает занимая четвертый слот, а также в комплекте идёт небольшая телескопическая подпорка.
А нужно ли это?
Из выше написанного видно, чтобы сохранить текущие темпы роста производительности видеокарт, приходится сильно завышать аппетиты видеокарт, что конечному потребителю выливается в большие счета за электричество. А нужна ли вообще такая производительность? Сейчас уже какой год игры штампуют для одного и того же поколения приставок, т.е. для игр достаточно  средней видеокарты, которые стоят в приставках с середины 2000-х. При этом, новое поколение приставок навряд ли будет сильно мощнее предыдущего, потому что нет особого смысла. Почему нет смысла? Представьте у вас на столе лежит 10 горошин, а на другом столе на такой же площади 100 горошин. Разницу вы увидите, тут можно не спорить. А теперь представьте что на одном столе лежит 10000 горошин, а на другом 100000. Разница между ними всё та же, на одном столе горошин больше чем на другом в 10 раз, а вот на глаз вы уже хуже определите разницу. А теперь представьте, что PS4 будет мощнее PS3 тоже в 10 раз, как вы думаете, заметно это будет? Будет там не 10млн полигонов одновременно на экране, а все 100млн полигонов, а также будут там текстуры более высокого разрешения. Если разница будет заметна, то она не будет столь разительной, как когда-то графика PS1 отличалась от PS2, или PS2 от PS3. А если эффекта мало, то зачем столько вкладывать средств, лучше сделать дешевле следующее поколение приставок. Соответственно и игры будут подстраиваться под следующие приставки. Посмотрите на последние хиты, в особенности на самые крутые в плане графики, они не так разительно отличаются друг от друга, а ведь следующее поколение принесет ещё меньше отличий.
Witcher 2 - включение параметра “запредельное качество” в два раза снижает fps, но стала ли картинка в два раза лучше?

Battlefield 3 – заметна ли разница между двумя режимами? Без микроскопа, наверное даже не видно, чтобы не томить сразу скажу, что сглаживание стало лучше и улучшились тени, но заметите ли вы это в динамических сценах, если даже сейчас в сравнении это сложно увидеть?

Зачем монстры видеокарты, которые с бешенной силой крутят счетчик эелектричества, которые способны обогреть всю квартиру, которые способны погнуть материнскую плату под тяжестью своего охлаждения - если различий в играх становится всё меньше между настройками качества графики?






Комментариев нет:

Отправить комментарий