.
Вид для печати
.
:) breeze, людям нужно верить, но кроме этого ещё неплохо бы вникать в то что они пишут:
"Аппаратный интерлейс.
Как известно, Спек имеет два экрана, и в каждом из них по 192
строки. Цикл работы интерлейса занимает два кадра. В первом на
экран выводятся четные строки из нулевого экрана и нечетные из
первого, во втором -- нечетные из нулевого и четные из первого.
Эффект схож с тем, когда каждое прерывание переключают экран, но
без явно выраженного мерцания."
Так что никакого обмана нет, цикл режима Gigascreen по прежнему выполняется за 2 кадра, как и в оригинальном варианте, но есть субьективное мнение, что мерцание "не явно выражено".
В дальнейшем, чтоб не путаться такая реализация получила название Hardware Gigascreen.
Чтоб закрыть эту тему с Hardware Gigascreen абсолютно окончательно :) , хочу упомянуть о ещё одной возможной реализации у которой кроме того что мигание происходит по строкам (как в вышеприведённой схеме), оно ещё сделано и по знакоместам в строке. Т.е. два экрана чередуются в шахматном порядке. В этой реализации мерцание ещё менее явно выражено, хотя цикл режима Gigascreen по прежнему выполняется за 2 кадра.
И на закуску пару слов о перспективном, но пока аппаратно не реализовывавшемся режиме Gigascreen+, который принципиально НЕ мерцает вообще. Это режим в котором суммирование экранов реализовано арифметическим усреднением. Данный режим легко реализуется в системах с двумя аппаратными банками памяти или удвоением обращений видеопроцессора к быстродействующей памяти.
P.S.
1. Обсуждение вопроса о терминологическом разделении режимов Gigascreen, Hardware Gigascreen и Gigascreen+, см. здесь: Gigascreen+ в эмуляторах.
2. Более подробно о возможных режимах Спека см. здесь: Стандартизация принципов развития видеопроцессора (продолжение).
По-моему это ерунда, извиняюсь за имхо.
Во-первых, для этого совершенно не нужно делать аппаратный гигаскрин, так как перемешать строки можно и программно.
Во-вторых, представляю как это будет смотреться... Мало того, что так же будет все мерцать, так еще и (скорее всего на большинстве контентов) будет нещадно 'полосатить'...
Дык проц освободится. :)
Можно уже всякие аркады ваять, а не только тупые смотрелки-моргалки.
Нормально смотрится, лучше, чем полнокадровый гигаскрин (найди редактор DBS например и сравни - см. тему Preliminary Monty). На телевизоре было совсем незаметно.
А вообще от картинки зависит - рисовать/конвертить надо аккуратно, и будет тебе щастье.
Он мерцает. Возьми LittleViewer (из последних) и запряги его смотреть какую-нибудь 2-экранную картинку. При обнаружении порта #FF увидишь гигаскрин с интерлейсом (потыкай в 1 и 2 чтобы почувствовать разницу).
ПэЭс: я недавно сэмулил "шахматный" гигаскрин на интерлейсном - ужас неописуемый.
Блин, на что жаловаться то ? На мерцание или полосатость ? Дак это же неотьемлимая часть спека, большинство воспринимает как должное програмный гигаскрин, а уж аппаратный - сам бог велел, проц действительно разгрузится, и куча прочих бонусов. Народ сел на моники с частотой 80 fps и выше, и уже не помнит (?) как не жужжа сидел вплотную перед 50/2 fps часами и сутками :smile:
Проще надо к Спекки то относиться...
Аппаратный гигаскрин, насколько я все это помню, моргал. Но это было совершенно незаметно. Мерцание не напрягало взгляд.
насколько трудно с точки зрения железа реализовать аппаратное смешение цветов (gigascreen+ в терминологии BC, насколько я понял)?
На разрабатываемых компах не трудно, трудности со старыми заключаются в том, что видеопроцессор должен одновременно читать 2 банка ОЗУ или в два раза чаще обращаться к ОЗУ. Двухбанковых компов было мало, а организовать в два раза более частое считывание скорее память не позволит, да и потом ещё лепить блок суммирования.. Вобщем не фунт изюму.. Энтузиазисты конечно сделать могут, но проводов..