Держи... ;)
Вид для печати
А что собс-но было "слушать"? Что собака в итоге никуда от дерева не делась? :v2_laugh: (правильный ответ - ходила вокруг него). Ведь все потуги всегда кончаются именно этим: "стандартный RGB выход же остается", типо последний аргумент в пользу очередного решения (причем зачастую те же люди с пеной у рта доказывают, что 50Гц кадр уже умер либо скоро умрет вместе с аналоговым ТВ... ну и толку-то, что он "остается"?)
Гм... так вы мне скажите :) а то написано тут много: есть ли возможность реализовать сей девайс для отдельного подключения к тому же Pentagon1024SL2.2 ?
ну вообще-то мне по любому придется просить кого-то сделать :( а пока мой пентагон не готов - особого смысла нету :(
кстати видили интересную доработку DMA - как оно скажется на отображении ?
Я вот не въеду, какая разница с точки зрения софта 60 или 50 герц? Плавный скролл все равно не выйдет, а что тогда? Делать без анимации? Или как? Простите тупого, но в чем здесь собака порылась?
Если я правильно понимаю, то есть игрушки и особенно много демок, которые синхронизированы интом, т.е. расчитаны как раз на то, чтобы уложиться в 70000 тактов проца (20мс, 50Гц). Если сделать частоту инта равной частоте кадров 60Гц (или 70Гц, как сейчас) то естественно проц не будет успевать... ну если его не разгонять... А при разгоне начнет летать весь софт... Поэтому думаю целесообразно сделать 2 переключаемых режима инта: 50Гц и равному частоте кадров (60/70Гц).
Коментариев и картинок пока конечно-же нет :D Но могу немного доработать... Просто из-за бесконечной работы времени катастрофически мало...Цитата:
Сообщение от fan
Все равно хрень получается - на 60 гц между интами меньше тактов - тормоза! А если гнать проц, то тормозов не будет, но софт ускорится, особенно аркады. И звук. Наверно тут не стоит ничего трогать. Получится что хочешь в асме/текстовом редакторе или подобоном посидеть - добро пожаловать на VGA, хочешь демки/геймы/интро - подключайся к ТВ. Или терпи мерцание. Инт не стоит менять, имхо, толку не будет.
не обязательно, здесь есть описание варианта (F4), работающего на 75Гц, не требующего изменения инта, и даже по идее более-менее корректно отображающего демки/геймы/интро (может быть даже более плавно, чем на оригинале за счёт промежуточного кадра).
А делать программы под инт для 60, 70 и т.д. Гц - по моему глупость, как впрочем и сам такой режим. Делать нужно только то, что совместимо со старым софтом, тем более что сделать это можно.
Как собаке пятая :) 60Гц надо монитору, почему-ту бОльшее кол-во имеющихся мониторов держат 60Гц, но или 75Гц, здесь уже не принципиально.
Добавлено через 5 минут
Кстати, вроде как витала здесь идея уже, как насчёт того, что бы в области бордюра (а лучше в момент гашения), "добавлять" процессору тактов? Полностью проблемы это не решит (бордюрные эффекты всё равно будут плыть), но зато должно излечить дрожание/мерцание. Причём построчно это делать, а не покадрово. С другой стороны, это "наскипирдарит" также процедуры, которые вообще с экраном на работают.
И опять вернулись к проблеме, которая была у меня в самом начале :D
Для описанного тобой метода надо как минимум 1 чип быстрой SRAM,
отдельновисящей от основной памяти, что я себе не могу позволить...
32Кб SRAM отнимет как минимум 25 ног у FPGA (если /CE на "0" посадить),
а у меня всего 97 ног на матрице под мои нужды...
Я даже наверное буду вынужден воздержаться от IDE... а так хочеться DivIDE прикрутить...
В данный момент байты пикселей/аттрибутов берутся из основной памяти, разделяя доступ с процессором...
Вообщето я неочень понимаю зачем надо 2 штуки SRAM :v2_conf2:
Если уложиться в 64 ноги на ПЛИС, то шины A и D у обоих микросхем будут общие...
то есть нет абсолютно никакого различия между 32Кб или 2 х 16Кб....
А если шины разделять, то только для памяти надо 50 пинов... ввести шины с проца еще 24 пина.... + видеовыход минимум 8, + /WR, /MREQ и т.д....
получается около 90 пинов :v2_eek:
Насчет режимов 60/70Гц ты неправ... Они нужны обязательно...
впрочем это сразу станет понятно первому-же счастливому обладателю такой карточки...
Если будет только 50Гц, а монитор эту частоту не поддержит (кстати, мониторов, подерживающих 50Гц, я еще не встречал)
то человек будет чувствовать себя немного .......(слово придумай сам :D)
И отмазки типа "Ищи монитор с поддержкой 50Гц кадровой" будут никчему...
А 100Гц, никак не сделать? Или при 100 тоже плавность тераяется? Или я что-то пропустил... ;)
Можно, отчего ж нельзя? Надо будет только либо пропускать каждый второй фрейм, либо показывать его два раза (скорее последнее). Только имхо, это для особо ярых онанистов надо. Для нормальной работы софта необходимо устранить мерцание (которое не обязательно возникает из-за недостатка тактов в кадре), а всё остальное идёт лесом, даже если наберётся 1% такого нативного софта. Кто не согласен - всегда остаётся нативный вывод на ТВ.
Добавлено через 1 минуту
И тем не менее они есть, тфт ессно, проблема в том, что не у каждого они есть, а пока произойдёт смена парка тфт, у нас начнутся другие приколы.
Начал потихоньку документировать наработанное...
Скоро будет готово описание работы VGA.
С этого и начнет работу мой сайт!
2BlackCat
Чтото я недопонимаю... ты хотел просто доставать данные с RGB-выхода спека? :v2_eek:
Если да, то это так и останется концепцией... причем навсегда...
Ты меня извени, но мне теперь вообще ничего не понятно...
Про повторение/буферирование пикселов/строк/фрэймов и дураку понятно.
И всяких способов RGB/VGA-конвертации я могу понапридумывать
еще пару десятков, в дополнение к тем, которые ты описал...
Только никому от этого теплее не становится...
Посему вопрос:
КАК ТЫ ДУМАЛ ЛОВИТЬ ДАННЫЕ ДЛЯ ОТОБРАЖЕНИЯ??? ЧЕРЕЗ WLAN? :v2_wacko:
Я знаю только 2 способа: ловить с системной шины или прямо с RGB-выхода.
Причем второй ОЧЕНЬ СЛОЖЕН в практической реализации....
Остается только системная шина...
Ну если ты только не придумал чегото сверхестественного....
да ничего сверхъестественного, всё педельно просто - снимаем те данные, которые читает видеосканер из ОЗУ в один или два сдвиговых регистра (в зависимости от видеорежима) и передаём на конвертор с частотой 14МГц, плюс к этому таким же макаром передаём данные из порта #FE, только с частотой 875кГц (т.е. байт на знакоместо), ну и ещё туда же кидаем тактовую 14МГц для синхронизации, и ещё сигналы разрешения экрана и бордюра, по которым конвертер будет отсчитывать координаты - в общих чертах это и весь интерфейс - задействовано всего 5 выводов ПЛИС, т.е. в VGA видеорежиме эти сигналы должны заменить собой R,G,B,I,SYNC, а 14МГц берётся извне.
Как видишь ни системной шины, ни RGB выходов не нужно :) - всё это излишества. При этом такой интерфейс можно прикрутить практически к каждому отечественному Спеку, что позволяет использовать такой конвертор повсеместно. А сам конвертор - это ПЛИС и две ОЗУшки - предельно простая для сборки конструкция.
Короче фигня это всё... ИМХО
Как потом такой конвертор к разным клонам подключать???
Особенно если спек на ПЛМ сделан???
Устройство должно быть простым, предельно простым, чтобы
воткнул в ZX-BUS и порядок... никаких паек и ковыряний.
Не у всех есть желание свой спек ковырять.
Не у всех есть ZX-BUS, а гемороится еще с созданием его ради того что бы потом просто "воткнуть и порядок" - тоже хрен редьки не слаще. Чисто имхо, без всяких претензий, но то что описал BC наверное самому делать проще. Я не говорю про вариант - купил и воткнул, продавать некому. Закон джунглей - каждый сам для себя.
в этом случае подключение ещё проще, т.к. для реализации самого интерфейса судя по всему даже ни одной дополнительной макроячейки не понадобится.:) ты не учитываешь одну простую вещь - реализовать такой интерфейс во много раз проще чем NemoBus, а компов без NemoBus - море. А вот тех моделей которые уже имеют NemoBus можно пересчитать на пальцах одной руки: KAY-256/1024SL, Scorpion Turbo+, Pentagon-1024SL . Я уж молчу про то, что на некоторые клоны NemoBus вообще корректно не поставить! А на тех клонах, у которых есть NemoBus - как правило уже некуда втыкать, т.к. устройств больше чем разъёмов. А что касается технологичности такого интерфейса, то в отличии от NemoBus, у него 100% повторяемость на любом клоне (за исключением сделанных на ULA/БМК, хотя даже на них его можно прикрутить - просто чуть больше элементов понадобится). Это значит, что сделать его сможет любой умеющий паять радиолюбитель, т.к. никакой настройки не требуется и учитывать те тонкости, которые например нужны для корректной работы NemoBus и требуют достаточной квалификации - не надо. Это именно тот вариант, который если правильно спаял - сразу работает и абсолютно некритичен к особенностям схемотехники разных клонов. Т.е. в плане технологичности - это самая лучшая реализация. Более нетребовательную в изготовлении и настройке конструкцию, и при этом дающую абсолютное качество изображения - не сделать! Да ещё ко всему, такой конвертор позволяет совершенно бесплатно добавить дополнительные видеорежимы, например Gigascreen+.
И в заключение - лично для тебя - один такой конвертор, выполненный как внешний блок избавит тебя от проблем с подключением обоих твоих клонов Спека к VGA :) . Возможность использования такого конвертора в качестве внешнего устройства - это ещё один его плюс. Т.е. имея в коллекции много Спеков (ессно с установленным таким интерфейсом) и один VGA монитор - нужен будет один же и конвертор что бы при этом иметь возможность подключать их все :) .
Я ещё тебя не убедил? :)
Ну себе то я уже сделал ;)
Просто я думаю, надо использовать те сигналы, которые есть в каждом клоне (и в оригинальном спеке тоже), а не х.е.з. что....
А нужны, кстати, только шины A и D + еще пару сигналов с проца (/IORQ, /MREQ, /WR...)... и все!
Потом такой адаптер VGA можно хоть под переходник для CPU сделать (как AY на странице у fanа)
Добавлено через 6 минут
Как бы это странно не звучало.... но не убедил.
Если сделать VGA адаптер таким-же способом, как я его на FPGA сделал,
то никаких проблем с подключением и с качеством изображения быть не должно!!!
ВСЕ СИГНАЛЫ ТОЛЬКО НА ЧТЕНИЕ!!!
VGA-адаптер ничего не пишет на шины... он только ловит ;)
И что самое главное.... этот способ благополучно проверен мной на практике!
А насчет убеждений... покажешь хотябы работающий прототип - убедишь...
З.Ы. совсем забыл.... я совершенно точно знаю, что можно сделать
эмулятор ВГ93 и читать образы TRD и SCL с SD/MMC-карты без использования RAM-диска......
Я никому не вдалбливаю о том, что это возможно и сделать это надо вот так или так.....
все и без меня знают,что надо взять карту, читать с FAT16/32 образы и эмулировать ВГ93...
я просто очень хочу такой девайс....
и если хватит ума и времени, то обязательно сделаю....
аналогично и конвертор - только ловит :)мой интерфейс как раз и использует те внутренние сигналы, которые есть на всех отечественных Спеках (схемы оригинального не имею, поэтому могу только предполагать). Что же касается "х.е.з.", то проще "х.е.з." принять как стандарт и с помощью 7! проводков подключить конвертор на большое количество компов, нежели тянуть 60! линий для NemoBus или иметь возможность подключиться только на несколько моделей имеющих такую шину :) .
Да ладно, чё уж там.. не впечатлился открывающимися перЕспективами - значит не впечатлился - насильно мил не будешь :)
Вообще, делать девайсы под переходник CPU не лучшая идея. Потому, что если захочется поставить несколько таких девайсов, то начнутся проблемы с контактами, конфликтами адресов, нагрузочной способностью CPU по шинам, да и вообще, как этот "бутерброд" выглядеть будет и как всё это закрепить потом, что бы не отвалилось ?
По моему, было бы не плохо соорудить некий Extended ZX-BUS, по принципу, как ISA расширили до ISA-16. На вторую, дополнительную честь разъёма вывести все требуемые сигналы, которые могут понадобится для DMA, VGA и прочего подобного.
Всё ИМХО конечно...
Знаешь у меня на пентагоне одновремено таким бутербродом, благо корпус позволял, висело- соундрайв, кемпстон маус, хайес-модем, плата с ау и кемпстон-джойстиком.При наличии прямых рук и монтажных стяжек всё работает и не глючит.Но согласен это не лучший вариант.Лучше то что ты педложил, пониже. но опять же соплестрой...Цитата:
Вообще, делать девайсы под переходник CPU не лучшая идея. Потому, что если захочется поставить несколько таких девайсов, то начнутся проблемы с контактами, конфликтами адресов, нагрузочной способностью CPU по шинам, да и вообще, как этот "бутерброд" выглядеть будет и как всё это закрепить потом, что бы не отвалилось ?
Почему соплестрой ??? :v2_eek: Это как раз стандартизация и отказ от соплей. Конечно придётся выпустить новые ревизии матерей, но ведь и так планируется АТМ-3 и надеюсь, следующий пентагон (2048 ? :v2_rolley ). Может быть наши уважаемые разработчики рассмотрят такой вариант ?
В точку.А обладатели старых спеков идут лесом! где-то я это уже слышал и видел, дежавю понимашь....