Главная страница Visual 2000 · Общий список статей
Куда идет компьютерная техника?Андрей Колесов
© 1997, Андрей Колесов Говорить
о перспективах...
Прогнозы — дело тонкое
При каком поколении ЭВМ мы живем?
Считать завтра быстрее, чем сегодня. Но что считать?
Эта статья была опубликована в "Компьютерре" № 27/97 — номере, посвященном теме "Какой же русский не любит быстрой PC?". Среди статей было приведено развернутое и весьма любопытное интервью с Борисом Бабаяном, одним из ведущих разработчиков компьютеров "Эльбрус", которые упоминаются и в моей статье (чисто случайное совпадение). Тогда же, в качестве реакции на эту публикацию, я написал довольно большую статью под названием "Эльбрус", Burroughs и другие", которая до сих пор осталась неопубликованной... Но этот вопрос о достижениях и перспективах отечественной вычислительной техники в той или иной степени затрагивался во многих последующих моих публикациях и он до сих пор не закрыт.
Говорить о перспективах развития вычислительной техники довольно сложно. С одной стороны, мы привыкли к сумасшедшим, не имеющим аналогов в истории человечества темпам роста ее мощностей и проникновению в самые разнообразные сферы жизни человеческого общества. И в результате появляются критические письма читателей, которые сетуют на то, что новое поколение микропроцессоров всего на 10-20 процентов повышает производительность предыдущего. (Для примера: сегодня еще во всю летает ИЛ-62, появившийся более тридцати лет назад). С другой стороны, действительно даже как-то не верится, что подобные темпы смогут сохраниться такими же высокими.
В плане прогнозов на будущее я хотел бы вспомнить о одной истории двадцатилетней давности. Будучи тогда молодым выпускником МИФИ, мне пришлось прослушать на паре технических конференций один и то же доклад в изложении В.С.Бурцева — директора института Института Точной Механики и Вычислительной Техники АН (ИТМиВТ), члена-корреспондента АН СССР (очень солидный титул по тем временам). Для справки: ИТМиВТ был ведущим разработчиком семейства БЭСМ, а в конце 70-х там заканчивалась разработка первого советского многопроцессорного суперкомпьютера "Эльбрус", предназначенного, в первую очередь для нужд ВПК (точнее, для ПВО страны).
Основной темой доклада было обоснование необходимости перехода от однопроцессорных систем к многопроцессорным. Острота вопроса определялась противоборством в тот момент (разные министерства) "Эльбруса" с семейством ЕС, которое в тот момент было безусловным лидером в советском компьютерном мире.
Одним из главных аргументов было то, что возможности повышения производительности однопроцессорных систем (по крайней мере на основе полупроводниковой интегральной технологии) уже практически исчерпаны. В качестве обоснования этого тезиса с весьма серьезными математическими выкладками высказывалась мысль о том, что дальнейшее повышение быстродействия микросхем связано с нелинейным увеличением энергопотребления (все это рассматривалось на уровне детального анализа физических процессов p-n перехода) и, следовательно, с перегревом полупроводникового кристалла, от которого не спасут никакие системы принудительного охлаждения. (Кстати, в то время обсуждалась возможность использования для охлаждения микросхем серьезных устройств на базе криогенных систем, вместо простых вентиляторов.) А если при этом иметь в виду проблему повышения интеграции, т.е. плотности транзисторов на кристалле и следовательно увеличения удельного тепловыделения, то вывод был очевидным: нужно либо переходить к созданию многопроцессорных вычислительных систем, либо ждать появления цифровых приборов, основанных на других физических принципах.
Надо отметить, что специалисты ИТМиВТ знали, о чем говорили: этот институт не только создавал супер-ЭВМ на архитектурном уровне, но и вел разработку первых в СССР быстродействующих цифровых микросхем на переключателях тока (так называемая 500-я серия) специально для проекта "Эльбрус".
Так вот, теперь об итогах прогноза — уже через лет десять стало ясно, они не сбылись: полупроводниковая технология стабильно развивалась, повышая и плотность интеграции активных элементов, и их быстродействие.
При каком поколении ЭВМ мы живем?
Опять же лет двадцать-тридцать назад в СССР было принято ясное понятие о поколениях ЭВМ. Как истинные материалисты, мы считали, что оно определяется элементной базой компьютеров. 1-е — электронные лампы, 2-е — дискретные полупроводниковые приборы, 3-е — интегральные микросхемы. Действительно, посмотрите: первые двадцать лет эпохи ЭВМ прогресс аппаратуры определялся в основном решительной сменой физических принципов, лежащих в ее основе. А последние 30 лет мы фактически живем в условиях одной и той же электронной технологии. Вот это правда удивительно.
В соответствии с прогнозами специалистов Intel можно ожидать дальнейшего роста показателей микропроцессоров и по плотности интеграции, и по быстродействию (см., например, полный вариант статьи Альберта Ю "Будущее микропроцессоров" в ComputerWeek-Moscow 22-23'97, стр. 50-55). Но вполне возможно, что общие темпы повышения производительности компьютеров несколько снизятся.
Здесь хотелось бы отметить, что сравнение Pentium и Pentium Pro даже сегодня является несколько преждевременным. По сути дела Pentium Pro была экспериментальной и не очень удачной моделью (так, идеи интеграции на одном кристалле самого процессора кэш-памяти и их работы на одной тактовой частоте явно не оправдались). На самом деле фактически рабочая история семейства P6 начинается только сейчас с выходом Pentiun II: у него есть отличный потенциал для снижения себестоимости и одновременно — для повышения частоты.
Возможное снижение темпов роста производительности для микропроцессоров является довольно понятным. Дело в том, что с точки зрения большинства вычислительных задач размерность данных в 32 разряда является наиболее оптимальной. В этом плане 16-разрядный процессор работал существенно быстрее 8-разрядного, а 32-разрядный — быстрее16-разрядного. Но вот переход к 64-разрядной схеме уже вряд ли принесет столь же весомый результат. Вполне возможно, что будущий Merced будет действительно очень сильно опережать Pentium II, но только на 64-разрядных тестах.
Честно говоря, я не вижу никакой особой трагедии в некотором замедлении темпов наращивания производительности компьютеров чисто механическими способами (повышением тактовой частоты). Имеется немало методов ее увеличения архитектурными методами, например, параллельными вычислениями, которые в последние 10-15 лет отступили на второй план. Не говоря уже о том, что у разработчиков ПО появится стимул более критично посмотреть на свои продукты, которые превратились в пожирателей ресурсов. (Я полностью согласен с Георгием Кузнецовым, что в этом нет никаких злобных происков Microsoft & Co — просто сегодня таковы реалии компьютерного рынка.)
Считать завтра быстрее, чем сегодня. Но что считать?
На само деле есть большая опасность в том, что порою появляются иллюзии, что повышение мощности компьютеров чуть ли не автоматически сможет решить наши проблемы. Действительно, есть много задач, где увеличение производительности дает очень высокий эффект (например, графическая обработка данных), но немало и таких, где подобного результата уже давно не наблюдается.
Вот что написал недавно мой приятель и бывший коллега (это я сменил профессию), доктор наук 39-ти лет, который всю сознательную жизнь занимается исследованиями в области математических моделей геофильтрации, а сейчас работает в университете г. Беркли (Калифорния): "Десять лет назад нам казалось: поставьте нам на стол 286 (386, 486) компьютер и мы тогда... Сегодня у меня на столе стоит рядовой ПК, который при этом равен совокупной мощности двум ВЦ МИНМЯСОПРОМА, куда я хаживал в молодости на четыре часа в неделю. Но не то что пропорционального эффекта, пожалуй, и логарифмической пропорции не наблюдается..."
Действительно, эта проблема во многих областях, особенно в научных исследованиях, стала довольно заметной еще десять-пятнадцать лет назад — оказалось, что адекватность математических моделей определяется не ростом числа элементов, а соответствием действительности самой теории. Вот над чем было бы полезно поразмышлять.