МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Видеоадаптеры, классификация, особенности строения и работы

    дальше объект, тем больше туман его поглощает. Поэтому для удаленных

    объектов разумно использовать меньше полигонов, чем для близких. Туман

    также скрывает и переходы между уровнями детализации.

    Туман можно разделить на полигонный (per-polygon) и пиксельный (per-

    pixel). Полигонный метод линейно интерполирует уровень тумана по значениям

    в вершинах для получения уровня тумана в каждой точке полигона. Этот метод

    хорош только для маленьких полигонов. Пиксельный метод рассчитывает уровень

    тумана для каждого пиксела, и для больших полигонов дает более реалистичное

    изображение.

    Туман также можно разделить и по другому признаку – на линейный и

    экспоненциальный (или табличный). При линейном тумане степень поглощения

    объекта туманом линейно зависит от расстояния до наблюдателя, а при

    экспоненциальном тумане – рассчитывается на основании таблицы.

    [pic]

    Удаление скрытых поверхностей (Hidden Surface Removal)

    Удаление скрытых поверхностей (hidden surface removal – HSR) –

    комплексный механизм, служащий дл\я уменьшени\я числа треугольников,

    которые будут участвовать в рендеринге, а также правильном рендеринге с

    точки зрени\я глубины.

    Прежде всего надо отбросить все треугольники, которые заведомо не

    видны.

    Отсечение (clipping). Отбрасываютс\я все треугольники, которые не

    попадают в объем отсчечени\я (clip volume), который ограничен шестью

    плоскост\ями по трем координатам. Это важнейший метод HSR, который

    выполн\яетс\я всегда.

    Отбрасывание задних граней (backface culling). Выполняется проверка,

    куда "смотрит" треугольник. Это возможно, так как у каждой вершины есть

    нормаль и поэтому все треугольники являются ориентированными в

    пространстве. Если треугольник смотрит "на наблюдателя", он считается

    видимым, а если "от наблюдателя" – то невидимым. Это позволяет снизить

    вдвое число видимых треугольников, например для вывода сферы, состоящей из

    треугольников, необходимо срендерить только треугольники, составляющие

    полусферу, которую видит наблюдатель.

    BSP-деревья. Программный метод HSR для статической геометрии, например

    уровней в 3D-шутере. Цель BSP-деревьев – упорядочение треугольников спереди

    назад (front-to-back) и определение тех треугольников, которые полностью

    закрываются другими.

    После того, как осталось минимум треугольников, надо их отрендерить,

    причем так, чтобы видимые пикселы были видимы, а невидимые – невидимы.

    Z-буферизация (z-buffering).

    Z-сортировка (z-sorting). Z-сортировка – менее аккуратный программный

    метод удаления скрытых поверхностей по сравнению с z-буферизацией, также

    известный как алгоритм Паинтера. Объекты сортируются сзади наперед (back-to-

    front). Более удаленные объекты рендерятся в первую очередь, за ними

    следуют менее удаленные. Если объекты пересекают друг друга, то ближайший

    накладывается на дальнего, то есть происходит z-алиасинг.

    [pic]

    . 3D-программные интерфейсы (3D API)

    API (программный интерфейс) – интерфейс для написания программ,

    поддерживающий оборудование определенного типа и операционную систему. 3D

    API позволяет программисту создавать трехмерное программное обеспечение,

    использующее все возможности 3D-ускорителей. API обычно включают в себя

    функции, глобальные данные, константы и другие элементы, позволяющие

    разработчику избегать непосредственного взаимодействия с оборудованием.

    3D API делятся на универсальные и специализированные.

    Универсальный 3D API позволяет абстрагироваться от конкретного

    оборудования. Без универсального API, поддерживающих широкий спектр 3D-

    ускорителей, разработчиками пришлось бы портировать игры под множество

    плат. Наиболее известные универсальные 3D API – OpenGL и Direct3D.

    Специализированный 3D API (Native 3D API) предназначен для одного

    конкретного семейства 3D-ускорителей и ограждает программиста от

    низкоуровнего программирования с помощью прямого доступа к регистрам и

    памяти. Примеры специализированных 3D API – Glide (от 3Dfx), RRedline (от

    Rendition), PowerSGL (от Videologic), RenderGL (от Intergraph).

    Direct3D – 3D API компании Microsoft, предназначенный для использования

    преимущественно в играх. Direct3D существует только в Windows 95, в скором

    будущем появится в Windows NT 5.0. Direct3D имеет два режима: RM (retained

    mode) или абстрактный и IM (immediate mode) или непосредственный. IM

    состоит из тонкого уровня, который общается с аппаратурой и обеспечивает

    самое высокое быстродействие. Абстрактный режим – высокоуровневый

    интерфейс, покрывающий множество операций для программиста, включая

    инициализацию и трансформацию. У обоих режимов есть достоинства и

    недостатки, большинство Direct3D-игр используют IM.

    OpenGL – открытый 3D API, созданный компанией SGI и контролируемый

    ассоциацией OpenGL Architecture Review Board, в которую входят DEC, E&S,

    IBM, Intel, Intergraph, Microsoft и SGI. OpenGL реализует широкий диапазон

    функций от вывода точки, линии или полигона до рендеринга кривых

    поверхностей NURBS, покрытых текстурой.

    Использование универсального 3D API предполагает использование

    драйверов для этого API. На сегодняшний день наличие драйверов Direct3D и

    OpenGL является обязательным требованием ко всем 3D-ускорителям.

    Direct3D-драйвер реализует так называемый уровень аппаратной

    абстракции, HAL (Hardware Abstraction Layer) – интерфейс, который

    взаимодействует непосредственно с оборудованием и позволяет приложениям

    использовать возможности 3D-ускорителя с маскимальным быстродействием. HAL

    имеет низкоуровневый доступ к 3D-чипу и реализует 3D-функции на аппаратном

    или программно-аппаратном уровне. В отличие от HAL, уровень эмуляции, HEL

    (Hardware Emulation Layer) является программным растеризатором.

    OpenGL-драйвер может быть реализован в двух вариантах: как ICD и как

    MCD. ICD (Installable Client Driver) полностью включает все стадии

    конвейера OpenGL, что дает максимальное быстродействие, но ICD довольно

    сложно программировать. MCD (Mini Client Driver) разработан для внесения

    абстракции в конвейер OpenGL. MCD гораздо легче программировать, так как

    разработчик программирует только те участки кода драйверы, которые он

    считает нужным оптимизировать для своего чипсета. Однако MCD уступает ICD в

    быстродействии, плюс ко всему MCD работает только в Windows NT. Для

    широкого внедрения OpenGL на платформе Windows 95 сейчас разрабатывается 3D

    Graphics Device Driver Kit (Комплект разработчика драйверов устройств для

    3D-графики). Новый DDK будет включать переработанный SGI ICD DDK и Direct3D

    DDK и позволит поставщикам графических микросхем и плат разрабатывать

    OpenGL-драйверы для Windows 95, Windows NT 4.0, а также Windows 98 и

    Windows NT 5.0.

    . Наложение рельефа (Bump mapping)

    Наложение рельефа, или bumpmapping, – продвинутая методика

    моделирования рельефных поверхностей. Суть bumpmappingа в следующем: в

    реальном времени рассчитывается рельефная карта, которая используется для

    симуляции рельефности. Такой рельефной картой может быть карта освещенности

    или карта смещений UV. Общий вид рельефной карты – DuDvL, где Du/Dv –

    дельты текстурных координат environment map, L – освещенность.

    Прежде всего программист готовит карту высот (height map), которая

    описывает рельеф в виде множества высот, либо карту смещений нормалей

    (normal dispmap), которая описывает рельеф в виде нормалей. Для того, чтобы

    например подчеркнуть показать бугорки и впадины рельефа с помощью

    светотени, надо затемнить либо осветлить стенки этих бугорков и впадин.

    Таким образом существенными для bumpmapping являются не сами высоты, их

    дифференциалы.

    Рассмотрим два вида рельефных карт по отдельности.

    Карта освещенности (lightmaps). Каждому пикселу ставится в соответствие

    значение освещенности L. Карта освещенности рассчитывается с учетом

    источников света. Полученная карта освещенности накладывается на основную

    текстуру альфа-смешением. Этот метод симулирует рельефность матовой

    поверхности игрой света и тени.

    . Карта смещений UV (UV-dispmap). Каждому пикселу ставится в

    соответствие вектор DuDv. Карта смещений UV используются для получения

    environment map с пертурбацией. Пертурбация означает, что environment

    map искажается определенным образом, чтобы передать рельефность.

    Полученный environment map также накладывается на основную текстуру

    альфа-смешением. Этот метод симулирует рельефность глянцевой или

    зеркальной поверхности отражением окружающей среды.

    Используя комбинацию карты освещенности и карты смещений UV, можно

    получать очень красивые модели.

    [pic]

    . Z-буферизация (Z-buffering)

    Z-буферизация – самый надежный метод удаления скрытых поверхностей. Z-

    буфер – область видеопамяти, в которой для каждого пиксела хранится

    значение глубины. Когда рендерится новый пиксел, его глубина сравнивается

    со значением, хранимом в z-буфере, точнее с глубиной уже срендеренного

    пиксела с теми же x и y координатами. Если новый пиксел имеет значение

    глубины выше значения в z-буфере, это значит что новый пиксел невидим, и он

    не записывается во фрейм-буфер, если ниже – то записывается. Z-буфер обычно

    расположен во фреймбуфере, поэтому при отключении аппаратной z-буферизации

    место под z-буфер освобождается, что позволяет 3D-ускорителю работать в

    более высоких разрешениях. Ради получения этих высоких разрешений некоторые

    игры с несложной графикой используют не Z-буферизацию, а более простые

    методы удаления скрытых поверхностей. Тем не менее отключение z-буферизации

    может приводить к артефакту, известному как z-алиасинг.

    Главный аттрибут z-буфера – разрещающая способность. Она критична для

    высококачественного рендеринга сцен с большой глубиной. Чем выше

    разрешающая способность, тем выше дискретность z-координат и точнее

    выполняется рендеринг удаленных объектов. 24-разрядный z-буфер дает

    разрешающую способность 16 млн, 32-разрядный – 2 млрд, а 16-разрядный –

    только 64 тыс. Если при рендеринге разрешающей способности не хватает, то

    может случиться, что 2 перекрывающихся объекта получат одну и ту же z-

    координату, в результате аппаратура не будет знать какой объект ближе к

    наблюдателю, что опять же ведет к z-алиасингу.

    [pic]

    При использовании z-буферизации надо позаботиться о том, чтобы глубины

    были корректны с точки зрения перспективы. Допустим, ускоритель рендерит

    треугольник с заданными z-координатами трех его вершин. Он должен

    рассчитать z-координаты для всех точек, лежащих внутри треугольника. Если

    их просто интерполировать, то результат получится некорректным с точки

    зрения перспективы, поэтому их надо корректировать. Но современные 3D-

    ускорители используют технику, называемую w-буфером. W-координата –

    величина с плавающей точкой, обратная к z-координате. Всем вершинам

    ставятся в соответствие именно w-координаты, которые можно интерполировать

    без перспективной коррекции.

    Поколения 3D-акселераторов

    Вообще-то, функции, ускоряющие расчет трехмерной графики, начали

    появляться в массовых видеочипах давно – с 1995 года. Такие микросхемы, как

    S3 Virge и ATI Rage, имели в списке своих возможностей аппаратное

    ускорение некоторых операций растеризации 3D-изображения. Однако они были

    крайне медленными и в то время еще не появилось стандартных API, а

    фирменные API практически не были поддержаны разработчиками программного

    обеспечения.

    В 1996 году появляются видеочипы с серьезными заявками на гордое звание

    “3D-ускоритель” – Verite1000 от фирмы Rendition, Matrox MGA-1064SG и nVidia

    NV1 (крайне интересный продукт – чип работал на основе расчета не

    полигонов, а криволинейных поверхностей Безье; имел затенение по Фонгу, а

    не по Гуро (это вытекало из неполигонной технологии); у него была поддержка

    билинейной фильтрации текстур, мипмэппинга, альфа-смешения, попиксельного

    тумана – кое-что из этого только начинает внедряться в самых последних или

    только анонсированных видеочипах). Но они снова были практически не

    востребованы производителями программ – на горизонте возникли громада

    Microsoft с ее API DirectX (Direct3D) и фирма, всколыхнувшая рынок массовой

    3D-акселерации и фактически создавшая его заново – 3DFX.

    Чипсет фирмы 3DFX - Voodoo Graphics (VooDoo1) надолго определил

    стандарты качества, скорости и принципов 3D-графики на PC. Voodoo Graphics

    состоял из двух микросхем, снабжаемых раздельными банками памяти - Pixel FX

    и Texel FX. Первая была предназначена для работы с буфером кадров и Z-

    буфером. Она осуществляла закраску треугольников, используя для этого

    данные, поступающие со второго кристалла, который контролировал буфер

    текстур и отвечал за все операции по получению данных и их интерполяции.

    Судя по всему, первоначально эта архитектура разрабатывалась для более

    серьезных, неигровых применений, и первые мощные платы Obsidian (позже и

    Obsidian II на базе чипсета Voodoo2) использовались военными. Тактовая

    частота — до 60 МГц. Поддерживалась только память типа EDO (время доступа —

    30—35 нс), при этом размер буфера кадров мог достигать 4 Мб, а буфера

    текстур — 8 Мб. Максимальное разрешение — 800х600 точек, у платы с буфером

    кадров емкостью 2 Мб — 640х480. Скорость заполнения — 50—60 млн пикселей в

    секунду. Производительность — около 500 тыс. треугольников в секунду. Вывод

    трехмерных сцен в окне Windows не поддерживался (была возможна работа

    только на полный экран). Также необходимо отметить ещё несколько

    особенностей. Первое – это был внешний 3D-ускоритель, обычная 2D-видеокарта

    соединялась с картой на базе VooDoo Graphics посредством скозного кабеля, а

    та, в свою очередь, соединялась с монитором, пропуская ее видеосигнал через

    себя. Когда программа начинала использовать 3D-функции, тогда VooDoo просто

    блокировал сигнала обычной видеоплаты и работал сам. Второе – это

    масштабируемость (массово эта технология стала применяться только в

    Voodoo2), т.е. можно соединить две карты в одну и при этом увеличивается

    максимальное разрешение и, конечно, скорость. И третье - удобный для

    программирования API Glide, который поддерживался только картами от 3Dfx и

    до сих пор еще поддерживается разработчиками программного обеспечения.

    К тому же, 3DFX не стала лениться и добилась широкой поддержки своего

    продукта разработчиками игр – путем личных бесед с программистами и

    руководителями фирм, поставки вариантов своих карт для проверки

    работоспособности программ и создания (без проволочек и задержек) SDK

    (Software Development Kit) для Glide и бесплатной рассылки его почти всем

    девелоперским фирмам.

    Только почти через год, к концу 1996-нач. 1997 года появился конкурент

    этому чипсету. И стал им новый продукт фирмы nVidia – Riva128. Фирма учла

    свой неудачный опыт с NV1 и пошла по уже накатанной 3DFX колее в

    архитектуре своего чипсета. Новый ускоритель работал с принятой всеми

    разработчиками программного обеспечения полигонной технологией но, кроме

    повторений некоторых идей 3DFX, имел и свои плюсы. Сразу отметим вдвое

    большую разрядность шины памяти. Первый плюс. Второй плюс заключается в

    интеграции 2D/3D ускорителей на одной микросхеме. Также, очень неплохой

    являлась работа с вводом/выводом композитного видеосигнала (конечно для

    видеоплаты, у которой эти функции не являются основными). Микросхема стала

    одной из первых, кто был совместим с новой графической шиной AGP (не теряя

    поддержки PCI) и была первой, корректно и осмысленно реализовавшей

    естественную для AGP архитектуру DIME (Direct Memory Execution), которая

    позволяет отводить часть оперативной памяти компьютера под хранение текстур

    (AGP Memory). Таким образом буфер кадров и Z-буфер находятся в локальной

    памяти платы, а большая часть текстур хранится в системной памяти

    компьютера. Поддерживала работу только с 16 битным цветом. Riva128 была

    сильно процессорозависимым чипом - максимальные характеристики были

    достижимы только на недавно появившихся тогда процессорах класса PentiumII.

    Fillrate составлял 100 млн. пикселей в секунду. Геометрия – до 5 млн.

    треугольников в секунду. Также существовал несколько доработанный вариант

    Riva 128ZX с увеличенным объемом памяти до 8 Мб (у обычной Riva 128 – 2-4

    Мб).

    В конце 1997-нач. 1998 г. (вообще, с тех пор именно это время почему-то

    стало у фирм любимым временем представления новых 3D-продуктов) появились

    ускорители следующего поколения.

    Первым вышел новый чипсет от 3DFX – VooDoo2. Это было трехчиповое

    решение – чипсет имел 2 микросхемы Texel FX2, работавших под управлением

    схемы Pixel FX2. Карты на его основе продолжали традиции VooDoo Graphics и

    были дополнительными картами для основной видеоплаты. В связи с наличием

    двух текстурных процессоров, стало возможным наложение двух текстур за один

    проход - “бесплатное” мультитекстурирование (“бесплатное” в том смысле, что

    производительность в режиме мультитекстурирования не падала, по сравнению с

    однотекстурным режимом, так как в этом случае второй текстурный процессор

    просто не работал). Тактовая частота кристалла возросла до 100 МГц. Имел

    192-битную архитектуру, скорость работы с памятью – 2,2 Гб/с, fill rate –

    90 Mpixels/sec, способен обсчитывать 3млн. полигонов/с. Именно в этом

    чипсете была полностью реализована для массового пользователя технология

    SLI (Scan Line Interleave). По этой технологии 2 карты VooDoo 2

    устанавливались в систему и соединялись для параллельной работы (одна

    считала четные строки изображения, а вторая – нечетные). При этом

    теоретическая производительность вырастает вдвое (реально чуть меньше). За

    счет этого Voodoo2 удавалось долго держаться на плаву.

    Позже появился и главный конкурент – 3D-чип Riva TNT (TwiN Texel) от

    фирмы nVidia. Он тоже имел два текстурных конвейера и мог делать

    однопроходное мультитекстурирование и трилинейную и анизотропную

    фильтрацию. Имел 24(16)-битный Z-буфер и 8-битный буфер шаблонов (через

    который можно было делать интересные эффекты, вроде “правильных” теней).

    Fill rate – 250 Mpixels/sec (125 – в режиме мультитекстурирования), 6 млн.

    полигонов/с. Обладал прекрасными 2D- возможностями – имел RAMDAC 250 MHz,

    акселерацию для распаковки видео форматов MPEG-1 и MPEG-2 (для проигрывания

    DVD).

    Чуть позже TNT, 3DFX выпустил на рынок первый свой 2D/3D-чипсет Voodoo

    Banshee. Это был вариант Voodoo 2, но без одного Texel FX2 процессора и со

    встроенной в чип 2D-графикой. Был медленнее Voodoo2 в режиме

    мультитекстурирования, который фактически вытеснил однотекстурный к этому

    времени, но все равно обладал неплохой скоростью и качественной графикой,

    поэтому, хотя и не стал лидером продаж, нашел свою долю рынка.

    Вышедшие через год чипсеты 3DFX Voodoo 3 и nVidia Riva TNT2 являлись

    эволюционным развитием предшественников и были, по существу, вариантами

    Banshee и TNT - сделанными на новом технологическом процессе, с

    исправленными ошибками, добавлением второго текстурного процессора (для

    Voodoo3), работающие на более высоких частотах чипа и памяти, и с

    некоторыми мелкими улучшениями и нововведениями. Так, технологический

    процесс уменьшился с 0,35 мкм до 0,25-0,22 мкм, частоты возросли от 100 до

    143-183 MHz, выросло количество адресуемой памяти – до 32 Мб и режимы 32-

    битной 3D-графики приобрели вполне рабочую скорость в высоких разрешениях

    (но не Voodoo3 – 3DFX считала, что 32-битный цвет никому не нужен и не

    интересен).

    В настоящий момент главные игроки на поле трехмерной акселерации –

    фирмы nVidia и 3DFX поменялись ролями (теперь 3DFX выступает в роли более

    слабого конкурента nVidia) выбрали себе разные пути развития, по которым и

    пытаются повести весь мир за собой.

    NVidia выбрала путь создания устройств менее процессорозависимых,

    способных выполнять весь цикл рендеринга самостоятельно – устройств с

    аппаратным расчетом трансформации, отсечения и освещения, так называемым

    hardware T&L (TCL). У нее уже вышло два чипсета с поддержкой T&L –

    GeForce256 и GeForce2 GTS. Их характеристики впечатляют – хотя они и не

    намного (GeForce2 GTS – всего в 2,5-3 раза) быстрее чем устройства, которые

    для этих расчетов используют центральный процессор PC, но зато при этом они

    почти полностью освобождают его от работы над графикой (все занимается

    специальный графический процессор – GPU) и позволяют использовать ЦП для

    программирования физики или искусственного интеллекта противников в играх,

    для обработки красивого окружающего звука, процедурных текстур (текстур,

    расчет которых идет с использованием фрактальной математики) и пр.

    К сожалению, пока их новые идеи и продукты слабо поддержаны

    разработчиками, но такие программы уже появляются, а поддержка hardware T&L

    в DirectX7 и OpenGL дает все основания думать, что даром усилия фирмы

    nVidia не пропадут и что она движется в правильном направлении. К тому же,

    там где hardware T&L не поддерживается, новые акселераторы могут работать

    как обычные (но более быстрые) и все равно являются лидерами по

    производительности.

    3DFX пошла по пути увеличения fill rate и использования полноэкранного

    сглаживания. Она разработала архитектуру VSA-100, одночиповое решение с

    поддержкой 32-битного цвета, которое можно масштабировать, объединяя до 32

    чипов (каждый со своей собственной памятью), а по некоторым данным и до 128

    чипов, добиваясь при этом fill rate более 3,5 Гигатекселей в секунду! А

    еще, при использовании более 2-х чипов на плате, становится доступным

    использование их новейшей технологии T-Buffer.

    Технология T-Buffer была создана инженерами компании 3dfx с тем, чтобы

    повысить уровень реализма визуализации 3D графики в персональных

    компьютерах. Достигнуть этого можно при условии избавления от различных

    дефектов изображения, возникающих при воспроизведении компьютерной 3D

    графики. Конечная цель заключается в приближении качества создаваемого

    изображения на компьютерных системах к качеству изображений, получаемых с

    помощью фото или видеокамер.

    Технология T-Buffer, на которой решила сконцентрироваться компания

    3dfx, должна способствовать обеспечению более качественной визуализации

    компьютерной 3D графики за счет наложения различных цифровых эффектов в

    режиме реального времени на сформированное в результате рендеринга

    изображение. Самыми важными среди предлагаемых к использованию эффектов

    являются: full-scene spatial anti-aliasing (сглаживание всей сцены, т.е.

    удаление неровностей линий и границ полигонов на всем пространстве видимой

    сцены, чаще называемым просто full-scene anti-aliasing), motion blur

    (эффект размытости контуров быстро движущихся объектов, аналогичный тому,

    который возникает при съемке фотокамерой движущихся объектов) и depth of

    field (эффект облегчающий визуальное восприятие конкретных объектов сцены

    за счет фокусировки только на конкретном объекте или части сцена, а все

    остальная сцена остается не в фокусе, т.е. размывается). Эффект depth of

    field позволяет использовать такой параметр, как расстояние между

    объектами. Делается это за счет введения различных уровней четкости или

    величины фокусировки для каждого объекта сцены. Объект или часть сцены, на

    которых сделана фокусировка, выглядят более четко, а все остальные объекты

    или окружающая сцена выглядят более размытыми. Таким образом, внимание

    наблюдателя может концентрироваться как на близких, так и на удаленных

    объектах или частях сцены.

    Пока компания запаздывает с выпуском своих новых продуктов на VSA-100 –

    видеоплат серий Voodoo4 и Voodoo5, но уже стало известно, что хотя они и

    имеют fill rate более высокий (не намного), чем чипы GeForce256 и GeForce2

    от nVidia, но включение функций T-Buffer сильно тормозит их работу (а для

    карт серии Voodoo5 6000, которые несут в себе четыре чипа VSA-100 и могут

    работать с T-Buffer на нормальных скоростях, установлена чрезвычайно

    высокая цена – более 600 долларов!).

    К тому же, все эффекты новой технологии можно использовать на любой

    видеоплате, которая имеет хорошую скорость – например, уже имеются драйвера

    с полноценной (и вполне работоспособной по скорости) поддержкой full-scene

    spatial anti-aliasing для видеокарт на базе GeForce. А разработчики

    программного обеспечения новую технологию пока не поддерживают никак,

    только антиалиасинг можно использовать в любых, даже старых, программах, а

    новые эффекты должны быть сразу запрограммированы в программах. Так что,

    похоже, T-Buffer, в том виде, как его преподносит 3DFX, не нужен никому и

    этот путь ведет фирму в никуда.

    Я почти не коснулся в своей работе продукции других фирм-производителей

    видео чипсетов – таких как ATI, Matrox, S3, Intel, NEC (Videologiс), 3DLabs

    и других. Все они либо шли по проторенной nVidia и 3DFX дороге (и при этом

    не слишком преуспели в скорости и качестве своих продуктов по сравнению с

    главными конкурентами), либо (зачастую, к сожалению, совершенно не

    заслуженно) их инновации не пришлись “ко двору” и были или совсем не

    востребованы (как, например, тайловая архитектура чипов Videologic), или

    позднее выпущены в новых продуктах гигантами индустрии.

    Вот, вкратце, и вся история, классификация и особенности строения и

    работы видеоадаптеров персональных компьютеров.

    Использованные материалы:

    1) материалы статей и обзоров сайта iXBT Hardware (ixbt.stack.net)

    2) материалы статей и обзоров сайта 3D News (www.3dnews.ru)

    3) материалы статей и обзоров журнала и сайта “Компьютерра”

    (www.computerra.ru)

    4) материалы статей и обзоров журнала и сайта “Мир ПК” (www.pcworld.ru)

    5) материалы статей и обзоров журнала и сайта “PC Magazine: Russian

    Edition” (www.pcmagazine.ru)

    6) материалы журнала фирмы “Пирит” “Upgrade” №№7 и 8

    7) Е.Рудометов, В.Рудометов. Архитектура ПК, комплектующие,

    мультимедиа.- СПб: “Питер”, 2000

    Страницы: 1, 2, 3


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.