Главная страница Visual 2000 · Общий список статей

Развитие софтверных технологий: 2004 - ???? гг.

Андрей Колесов

© Андрей Колесов, 2003
Авторский вариант. Статья была опубликована c незначительной литературной правкой в журнале PC Magazine/RE (N 01/2004, с. ??).


Что было, что будет, чем сердце успокоится...

Что было, что будет, чем сердце успокоится... С одной стороны делать прогнозы — это дело довольно рискованное, вдруг найдется какой-то чудак, который достанет эту статью через несколько лет и покажет всем, чего на самом деле стоит эрудиция автора. С другой, на самом деле риска никакого нет, найти уважительные причины для допущенных ошибок на самом деле очень просто.

В апреле2003 года мне пришлось беседовать со старшим вице-президентом IDC Джоном Гантцем, который отвечает в этой известной аналитической компании именно за проведение глобальных исследований ИТ-рынка. Разговор, в частности, шел о том, какой вообще практический толк от подобных исследований и какова точность выдаваемых предсказаний (см. PC Week/RE N 20/2003, раздел "Стратегии" с. 32). Накануне этой встрече я нашел в своем архиве большое число пресс-релизов IDC от 1998 года, где давались выдержки из прогнозов на пятилетний период. Я предложил г-ну Гантцу сделать беглый анализ эти данных, чтобы посмотреть в какой мере они осуществились. На это он ответил: "Когда говорим о долгосрочных прогнозах, то тут есть определенные сложности при сопоставлении прогнозируемых и реальных данных. Проблема заключается в том, что на этом рынке сами определения тех или иных понятий меняются самое на реже, чем раз в полтора года. Поэтому сравнение данных, разделенных отрезком даже в 2-3 года, является не совсем корректным, так как изменилась сама структура рынка".

Тогда я достал текст, к которому проблема реструктуризация рынка не имеет отношение. В 1998 году IDC предсказывало: "Linux скорее получит распространение среди домашних пользователей, чем в среде бизнеса". "Великие тоже имеют право на ошибки, — ответил вице- президент IDC, и добавил — тогда никто не ожидал, что монополизм Microsoft в области клиентских компьютеров будет столь значительным".

В начало статьи

Все будет хорошо

По большому счету в первом десятилетии нового века будут проявляться те же тенденции развития ИТ-рынка, что и в предыдущие 10-15 лет (см. PC Magazine 12/2003, 85): общее повышение значимости софтверной составляющей, рост актуальности проблем интеграции и обеспечения безопасности, Java будет бороться с .NET, Linux с Windows. Ну, и, конечно, XML, который спасет мир от всеобщего хаоса.

Если говорить о технологических новинках с точки зрения конечного пользователя, то в уже в ближайшие годы должны произойти серьезные изменения в стиле его общения с компьютером. Во-первых, будет шире использоваться графический ввод данных с помощью пера и экрана- планшета, в том числе в режиме автоматического распознавания рукописного ввода. По- видимому, в этом плане наибольшие видимые перспективы у компьютеров типа Tablet PC. Еще два года назад, я впервые смог познакомиться с их опытными образцами на конференции Microsoft Professional Developers Conference 2001 и тогда они казались продуктом далекого будущего. А в этом году на той же MS PDC, но 2003, я видел эти мобильные ПК в руках многих участников в качестве обычного рабочего инструмента.

Во-вторых, будет использовать голосовой ввод — сначала для управления командами, а потом будет осваиваться и автоматическая оцифровка речи. Хотя хотел бы сразу оговориться: ждать каких-то ошеломляющих успехов в распознавании слитной речи и рукописного текста в ближайшее время вряд ли нужно. Прогресс тут будет носить эволюционный характер. Вспомним, что о скорых победах в области машинного перевода говорилось еще тридцать лет назад.

Наверное, нужно ожидать успехов в области интеллектуальной обработки неструктурированных данных — в первую очередь текстов, затем — графики, звука, видео. Нужно же нам научиться действительно извлекать знания из этого хаоса информации! Если говорить о каких-то радикальных изменениях в архитектуре современных вычислительных систем, то, наверное, наиболее значительное влияние окажет развитие сегмента мобильных карманных (класса Pocket PC и смартфоны) и планшетных систем.

Но, к чему нам говорить о частностях — речь, графика, видео и пр. Все это частности! Давайте потолкуем о глобальных проблемах...

В начало статьи

Новый век начался с кризиса

В видимой перспективе на ИТ-рынке будут действовать та же группа лидеров, что и сегодня, что и 7 лет назад. И развитие софтверных технологий на уровне платформ будет идти по прежнему сценарию "Microsoft со товарищи против всех остальных". Вряд ли реально повторение феномена Intel & Microsoft 80-годов прошлого столетия. Но не потому что не будут появляться качественного новые технологии или бизнес-модели, которые дают шанс новичкам вырваться вперед. Просто наученные горьким опытом IBM, взрастившей из собственного же проекта по созданию IBM PC себе конкурентов, лидеры внимательно отслеживаются все новинки и пресекают появление потенциальных конкурентов на корню.

Один из главных факторов, определяющих процесс развития ИТ-технологий в начале века, — это общий кризис мировой экономики и, естественно, ИТ-индустрии. Он, в частности, хорошо показал реальную роль ИТ в жизни общества. Бурное развитие ИТ-рынка в конце 90-х годов, рост значимости ИТ, позволил многим экспертам говорить о самодостаточности отрасли, которая, якобы, сама по себе является важным элементом экономического роста. Но кризис все поставил на свои места — он недвусмысленно показал вторичность ИТ-рынка, его вспомогательную роль и, в частности, ограниченные возможности самому формировать потребительский спрос. Как бы ни было велико маркетинговое давление ИТ-компаний на пользователей, все равно спрос, а значит и объемы поставок, определяется реальными потребностями заказчиков.

В свою очередь именно кризис стал хорошей проверкой актуальности тех или иных технологий, а также устойчивости различных бизнес-моделей, используемых ИТ-компаниями. Общая ситуация выглядит следующим образом: сообщество Wintel в целом демонстрирует наилучшие результаты (темпы роста Microsoft по доходами и прибыли таковы, что как будто никакого кризиса и нет), а из конкурирующего стана много терпят убытки (та же Sun).

Другое наблюдение — софтверные компании также чувствуют себя намного лучше "железячных". Последние в свою очередь постоянно расширяют в своей деятельности "программистскую" составляющую. О том, какое значение Intel уделяет именно разработке ПО в общем-то хорошо известно (количество программистов в Intel больше, чем у самой Microsoft). Вот другой пример — корпорация EMC, один из мировых лидеров в сегменте устройств хранения данными (оборот 5, 5. мрлд. долл.) на фоне сокращения поставок аппаратуры в последние два года неуклонно расширяет свою софверную составляющую, в том числе активно скупая ведущие в специализированных сегментах компании (в 2003 году — LEGATO, Documentum, Vmware).

Это я к тому, что роль программного обеспечения в двуедином комплексе Hard & Soft будет продолжать расти...

В начало статьи

Это волшебное слово XML

Начало века ознаменовалось продвижением совместными усилиями (в первую очередь IBM и Microsoft) целого ряда технологий на базе открытых стандартов XML. В общем-то идея XML настолько очевидна, что возникает лишь один вопрос — почему до необходимости его создания не додумались раньше. Ответ на него имеется — просто задачи интеграции разнородных систем не были ранее столь актуальными. И дело тут, конечно, не в том, что ИТ- компании решили облегчить жизнь своим клиентам — они (компании) просто были вынуждены почти на это по воле требований рынка.

Кстати, нужно отметить, что в последние годы у заказчиков явно нарастает раздражение в отношении ИТ-компаний, навязывающих клиентам все более высокие темпы обновления продуктов в условиях неадекватного увеличения их функционала. В этой связи можно вспомнить популярную пять лет назад "компьютерную хохму" под названием "Если бы Microsoft делала автомобили"). Тогда многие считали, что ее выдумали злобные враги команды Билла Гейтса. Но на самом деле ее автор — корпорация General Motors, и острие иронии направлено не против конкретной компании, а против всей ИТ- индустрии.

Возвращаясь к XML, нужно сказать, что его появлению в немалой степени помог все тот же экономический кризис, в условиях которого компании-конкуренты вынуждены консолидировать усилия для совместного решения общеотраслевых задач. Но... рецессия мировой экономики вроде бы ("тьфу-тьфу-тьфу") заканчивается. Так что впереди у идей открытых стандартов предстоит испытание на прочность в условиях перспективы роста ИТ-бизнеса, когда каждая компания будет пытаться перетащить одеяло на свой край.

В начало статьи

Linux .vs. Windows

В плане перспектив операционных систем все эксперты солидарны во мнении — доминировать здесь будут Windows и Linux. Но, кто из них выйдет победителем — об этом речи обычно не ведется. Собственно, вопрос о реальной конкуренции между этими системами пока и не стоит: рост доли Linux идет в основном осваивания новых сфер применения компьютеров (в первую очередь, связанных с Internet) и "отъедания" доли рынка у своих же родственников — UNIX- систем. Прямая борьба между Linux и Windows сейчас идет в сфере мобильных и встроенных устройств и промежуточные ее итоги мы сможем увидеть через один-два года. К тому времени две ОС войдут в режим "огневого контакта" на фронте серверов приложений корпоративного уровня.

Но, тут хотелось бы вспомнить мудрое изречение одного из героев рассказов О'Генри: "Трест есть свое самое слабое место" (дальше он раскрывает смысл этого тезиса — трест трудно разбить снаружи, но он в какой-то момент может развалиться изнутри). Сможет ли Linux- сообщество сохранить сплоченность для поддержки единых стандартов? Не повторит ли эта ОС историю UNIX, которая тоже была задумана как единая система, но все же развалилась на множество очень похожих, но несовместимых систем? Такая угроза вполне реальна. Не даром у же сейчас на спецификациях многих прикладных решений указывается не просто "Linux", а вполне конкретное название версии конкретного производителя.

Да и сама идеология Open Source, хорошо работающая в научной среде, требует еще проверки времени в условиях жесткой конкуренции на рынке. В этой связи хотелось бы привести мнение того же Джона Гантца, который считается еще и одним из лучших экспертов IDC в области безопасности. На мой вопрос, о том какая из моделей — традиционная, основанная на закрытых кода, или набирающая популярность Open Source — обеспечивает более высокий уровень защиты, он ответил следующее: "Тут ситуация очень непростая. Например, возможность анализа кода огромным числом людей помогает оперативнее находить ошибки. Но вполне вероятно, что еще быстрее, чем предприятие исправит код, кто-то сможет воспользоваться найденной брешью. Недавно я познакомился с информацией о том, что группа противодействия киберпреступлениям одного известного университета публикует больше предупреждений относительно проблем безопасности Linux, чем Windows. Короче говоря, ни одна из моделей не дает заметных преимуществ с точки зрения безопасности. Каждая из них имеет свои достоинства и недостатки".

В начало статьи

От .NET к Longhorn

Концепция Java родилась и начала свое победоносное (на своем игровом поле!) шествие во второй половине 90-х годов. В значительной степени само ее появление было обусловлено необходимостью создания противовеса архитектуре COM от Microsoft. В начале века команда из Редмонда сделала ответный шаг, предоставив на рынок архитектуру .NET.

Вообще говоря, сравнивая J2EE и .NET легко заметить много общего, в том числе ключевую идею — управляемый код, что должно обеспечить повышение безопасности и платформенную независимостью. Но я бы сразу при этом отмел упреки по поводу "копирования чужих идей" в адрес Microsoft, в том числе в отношении C#. Такая схожесть определяется тем, что развитие технологий в глобальном плане идет, в общем-то, в одном направлении. Ну, а то, что Microsoft учла опыт Java — это вполне естественно. Ведь и Java родилась не на пустом месте, взяв многие вещи из тех же COM и Visual Basic.

Если же говорить о принципиальных отличиях Java и .NET, то оно только в одном. Java использует только один язык программирования (будет различать Java как язык, и Java как архитектура), но предполагает возможность работы в среде любой операционной системы. .NET позволяется применять разные языки и позволяет работать на любой аппаратной платформе, но... лишь той, где установлена Windows, а точнее виртуальная машина под названием .NET Framework.

После почти двухлетнего разогрева ИТ-рынка, в начале 2002 года Microsoft представила свои первые варианты .NET-продуктов — инструмент разработки Visual Studio .NET и саму среду исполнения .NET Framework. Но одновременно, в маркетинговом запале продвижения новых идей, корпорация стала использовать суффикс .NET в названиях своих продуктов, что называется "право и налево", в том числе для тех, что появились еще раньше, чем была анонсирована сама концепция.

В концу 2002 года стало понятно, что такое использование новых слов "в суе" лишь вредит продвижению концепции. В результате в именах ключевых продуктов корпорации, выпущенные в 2003 году (Windows Server 2003 и Office 2003) .NET не упоминается, хотя еще на этапе бета- тестирования этот термин активно применялся.

Более того, когда на MS PDC'2003, проходившей в конце октября в Лос-Анжелесе, была впервые представлена прототип будущей версии Windows качественно нового поколения (кодовое название Longhorn) слово .NET также почти не не употреблялось. Хотя речь идет сейчас как раз о реализации идей .NET на уровне архитектуры ОС. Вот некоторые основные идеи, которые заложены в Longhorn.

Ее основу составит новая API-модель, построенная на базе архитектуры Microsoft .NET Framework и получившая название WinFX, которая придет на смену нынешней Win32 (рис. 1). В цепочке эволюции программной модели операционных систем Microsoft предстоящий переход будет столь же радикальным как от Win16 к Win32. Если до сих пор .NET Framework представляла собой промежуточную операционную среду, построенную на основе Win32, то теперь WinFS сама станет ее составной частью и будет реализована в виде специальных наборов библиотек классов с корневым именем System, среди которых сейчас выделены четыре основные группы функций:

В частности, нужно отметить принципиально новый оконный дизайн, но за ним стоит не просто изменение стиля и цвета, а качественно иные технологии. Для управления экранным интерфейсом используется новый описательный язык разметки XAML (eXtensible Application Markup Languadge), реализованный на базе XML. По сути — это те же динамические HTML- страницы, но только адаптированные под внутреннее применение в ОС. Сам интерфейс теперь будет строиться на базе векторной графики, что, например, позволяет создавать окна произвольной конфигурации с произвольным же углом наклона. Для диалога с компьютером можно использовать речевой ввод команд.

Доступ к данным производится не только традиционным перемещением по каталогам, но и с помощью иерархии объектов, объединяющих файлы не по месту хранения, а по их смысловому содержанию. В частности, пользователь сможет получить в окне список всех DOC- файлов, хранимых на диске. Потом выбрать из них только файлы, созданные за определенный промежуток времени, и так далее. Решение подобной задачи упрощается за счет новых возможностей WinFS, в которой все файлы будут иметь набор метаданных, обеспечивающих автоматическое определение логических взаимосвязей между ними. По утверждениям представителей Microsoft, в Longhorn должны быть существенно улучшены такие критичные функции как предотвращение конфликтов драйверов и приложений, оптимизация управления памятью и пр.

Несмотря на революционность представленных изменений в программной модели Longhorn в ней будет обеспечена совместимость с предыдущими ОС Microsoft. Для доказательства этого утверждения на новой ОС на ее демонстрации на PDC'2003 была запущена электронная таблица VisiCalc, двадцатилетней давности, работающая в текстовом режиме DOS. Microsoft обещает выпустить Longhorn на рынок уже в 2005 году, но скорее все это произойдет позднее.

В начало статьи

Grid: новое — это хорошо забытое старое

Одним из наиболее перспективных направлений развития информационных технологий является реализация концепции сетевых вычислений — Grid Computing. Об этом еще год назад объявила аналитическая компания IDC, и оправдывая этот прогноз в течение 2003 года о поддержке Grid — как на уровне идей и стандартов, так и продуктов — активно заговорило большинство ведущих мировых ИТ-поставщиков, а следом за ними — и специализированные СМИ. В то же время, очевидно, что пока эта технологий еще только находится в начальной стадии своего становления. Аналитики сегодня чаще всего делают сравнение текущей ситуации в области Grid с состоянием WWW десять лет назад, при этом многие из них предсказывают, что Grid произведет такую же революцию в области обработки данных, какую сеть Интернет произвела в сфере информационных коммуникации.

Вообще-то концепция Grid появилась еще в конце 60-х годов и как огромного число других ИТ- инноваций ее рождение и развитие многие годы было связано с фундаментальными научными исследованиями. Идея тут лежит на поверхности: использование для вычислений свободные ресурсы компьютеров. Это проблема было особенно актуальна 25-35 лет назад, когда для построения серьезных математических моделей были нужны мощности суперкомпьютеры центров, которых тогда в мире было совсем не много. А технически задача решалась также довольно просто, так как речь шла о разовых вычислительных заданий, без очень жестких требований по их реализации.

До сколь-нибудь широкого применения в сфере бизнеса в те времена технология Grid не дошла. С одной стороны, тут сказались чисто технические причины: организовать динамическое перераспределение распределенных ресурсов для огромного числа разнородных задач — это очень непросто (в отличие от ограниченного числа уникальных научных задач). С другой — актуальность самой проблемы отошла на второй план, так как именно в 70-е годы начался небывало быстрый рост мощностей автономных компьютеров.

Если посмотреть на историю развития вычислительных технологий, то легко увидеть, что речь всегда о той или иной реализации распределенных систем (даже на уровне одного компьютера!), при этом наблюдает постоянно противоборство двух тенденций — централизации и децентрализации вычислительных ресурсов. Конкретное их соотношение определяет многими факторами, среди которых нужно выделить в первую очередь показатели "производительность/цена" для собственно вычислителей и "пропускная способность/цена" для каналов связи, а также соображения в отношении более оптимального использования ресурсов.

Однако главной отличительной чертой подавляющего большинства распределенных систем сегодня (и в течение всей компьютерной истории) является статическая схема распределения вычислительной нагрузки по узлам сети. Разработчики платформ научились масштабировать системы за счет увеличения числа узлов и повышения производительности отдельных узлов, но вот динамически перераспределять ресурсы (даже между кластерами в одном вычислительной центре) — это пока проблема. Здесь нужно подчеркнуть принципиальное отличие кластерных решений от Grid: в первом случае речь идет жестко связанных компьютерах, изначально управляемых из единого центра, во втором, в общем случае, — о слабосвязанной, одноранговой схеме с независимыми узлами.

Тем не менее, технология Grid, начиная с 60-х годов, по-прежнему применяется для решения многих, в первую очередь очень ресурсоемких научных задач (например, расшифровки генома человека). Поэтому если говорить о специфике нового этапа развития Grid (точку отсчета которого можно условно назвать начало нынешнего столетия), то в первую очередь речь идет о возможностях ее применения для решения деловых повседневных задач для более широкого круга заказчиков с ее поддержкой со стороны ведущих ИТ-поставщиков, таких как IBM, Hewlett- Packard, Microsoft, Oracle, Sun.

В активности ИТ-компаний наблюдаются сегодня два основных направления. Первое — это участие в глобальных международных научных проектах, под руководством независимых исследовательских центров. Одни из наиболее известных сейчас — TeraGrid (США), ComboGrid (Великобритания), Datagrid (Европейский Союз с участием России). Их важность для ИТ-индустрии заключается в том, что именно в них формируются мировые Grid-cтандарты. Второе направление — формирование собственных коммерческих продуктов и технологий с учетом специфики своего позиционирования на рынке.

Классическая концепция Grid включает пять ключевых пунктов:

Однако даже беглый анализ предлагаемых ИТ-поставщиками решений показывает, что практически никто не реализует эти принципы в полном составе. Но при этом, нужно сразу подчеркнуть, что это вряд ли нужно ставить в упрек разработчикам — весьма вероятно, что "идеальная" схема вообще не реализуема в общем случае (по крайней мере, на нынешнем этапе развития мировой ИТ-индустрии). И в этом плане нет ничего удивительного, что каждая компания подходит к решению этой задачи со своей "сильной" стороны.

В частности, Sun и Oracle делают акцент на повышение уровня управляемости в Grid- кластерах, IBM реализуется идеи Grid в виде конкретных крупных проектах, HP — в своих программно-аппаратных решениях. Особняком тут выглядит позиция Microsoft, которая пока считает, что для начала нужно полностью использовать потенциал технологии Web Services.

Однако Web Services все же ориентированы на реализацию статической распределенной модели вычислений. По-видимому, в более полном варианте Grid Computing в общем виде будет реализован в рамках архитектуры Open Grid Services Architerture, которая фактически должна привести к созданию динамических Web-сервисов. Эта работа ведется в рамках независимых организаций Global Grid Forum (www.gridforum.org) и Globus Project (www.globus.org) при участии ведущих мировых ИТ-компаний,

В начало статьи

Виртуальные машины возвращаются

В общем-то, то, что прогресс информационных технологий во многом идет по классической диалектической спиралевидной схеме — повторение старых идей на качественно новом уровне — не требует особенного доказательства. Вот еще один пример — концепиция виртуальных машин (VM)

Идеи VM была впервые реализованы еще в 70-е годы прошлого столетия корпорацией IBM на своих мэйнфреймах System 360/370. Ее применение понадобилось тогда в основном для поддержки работы различных версий ОС (в том числе устаревших на тот момент) в системах коллективного пользования. Казалось бы, прогресс в области аппаратных средств сделал эту проблему неактуальной: гораздо проще пользоваться подходом "каждому экземпляру OC по выделенному компьютеру". Однако в последние годы одной из наиболее заметных "движущих сил" развития ИТ является значительный рост заинтересованности заказчиков в использовании VM-технологий, причем, как ни странно, именно для персональных ПК (мы сейчас говорим только о платформе Intel).

С начала 90-х годов сразу несколько компаний приступили к продвижению собственных продуктов, используемых при создании виртуальных машин для персональных ПК. Среди них лидирующее положение занимали компании WMware и Connectix, которые помимо создания систем для рабочих станций последние пару лет вели активные работы по разработке серверных решений.

Connectix, WMware, "занимали", "вели"... Почему в прошедшем времени? Потому что этих компаний больше нет — первую в начале 2003 года купила Microsoft, а вторую в конце года — EMC. Такой поворот событий лучше всего показывает, что "виртуальные машины" — это очень интересно и перспективно. В декабре 2003 года Microsoft уже выпустила обновленный вариант системы для рабочих станций — Virtual PC 2004, а в начале 2004 года обещает выдать на рынок серверный вариант. О планах EMC еще пока ничего не известно, но очевидно, что просто так подобные покупки (за 635 млн.долл. наличными!) не делаются.

На этом с прогнозами на будущее нужно закругляться. В конце концов, мы скоро все будем наблюдать развитие событий собственными глазами...

В начало статьи