>Пример, сначала пихали много конвейеров в процессор, теперь уже много ядер (процессоров) в кристалл. Вон у Sun аж 8 ядер по 8 конвейеров. Следующим этапом, думаю, всю эту накопившуюся сложность начнут унифицировать (сначала рефлексируя методики потом перестраивая архитектуру). Стержнем всей этой ветви развития вычислительной техники является универсальность, но неперестраиваемость внутренней архитектуры.
>Ведь борьба (за время) идет именно что для конкретных (программных) алгоритмов и ценой за универсальность вычислительного устройства является его относительно невысокая производительность.
Дальнейшая миниатюризация и замена "неуменьшаемых" компонентов нанотехнологиями уже тянет всех в этом направлении. Вон грядет очередная революция в RAM за счет исключения контроллера шины памяти в современном виде. А направление большая универсальность-малая производительность мне кажется уже не остановить. В ближайшей перспективе мне кажется, будет некая двухуровневая схема. Много процессоров (слабых и универсальных) собранных в блок и работающих в пределах локального устройства с микрозадачами и алгоритмами способными "на лету" задействовать другой процессорный блок (в пределах того же локального устройства) Не путать с современными блэйдами. И второй уровень алгоритсов и вычислений - сетевой распределенный, где универсальные алгоритмы выделяют более крупные порции вычислений и раскидывают их по скоростным каналам между такими локальными устройствами(эти технологии уже есть, но только на зачаточном уровне универсализации и стандартизации). Очень интересно также сращивание этих технологий с технологиями виртуализации (кто балуется). Там можно сделать так, чтобы "virtualization layer" подбирал себе необходимые ресурсы, как по количеству процессоров, так и по их удаленности.