О каких байтах вы вообще речь ведёте?
Вот к примеру результаты теста HPCG для суперкомьютеров: https://www.hpcg-benchmark.org/custo...d=155&slid=299
Самый интересный столбец там это "Fraction of Peak %", который показывает сколько реальных попугаев достигается в данном тесте от теоретической производительности(на типе double). И наибольший результат там показывает NEC SX-ACE, весьма скромный по общему числу ядер. В отличии от теста HPL, в котором в основном нужно только умножать числа двойной точности, в HPCG большую роль играет обмен данными. И у этого SX-ACE, на каждое ядро дающее производительность 64 GFlops/s при частоте 1GHz приходится 64 GBytes/s пропускной способности его шины. А следующая серия будет иметь регистры в которые влезает 256 double, 3 три вычислительных устройста выполняющих по 32 операции за такт и в полтора раза большую частоту.
Вы действительно думаете что кого-то всё еще волнует плотность кода? За какое время вы займёте своим кодом хотя бы мегабайт памяти?




