Темой февральского номера журнала является
«Всеобъемлющий Web»
(«Pervasive
Web»).
В тематической подборке пять статей, приглашенный редактор
отсутствует, и подборка, на мой взгляд, выглядит довольно случайной.
Поэтому я буду рассматривать статьи просто в порядке оглавления
журнала.
Первую статью февральского номера написал Дэвид
Макартур (David McArthur,
GoH Corporation).
Она называется «Национальная научная электронная библиотека:
формирование инфраструктуры образования» («National
Science Digital Library: Shaping Education’s
Cyberinfrastructure»).
Летом 2007 г. Национальная научная электронная
библиотека (National
Science
Digital
Library,
NSDL)
обеспечивала доступ к более чем 2.5 миллионам образовательных
ресурсов, покрывающим области науки, технологии и инженерии на
уровнях от подготовительного до выпускного. К этому времени основной
портал www.nsdl.org
был доступен в Internet
уже около пяти лет, обеспечивая единую точку доступа к десяткам
распределенных электронных коллекций и служб, многие из которых были
созданы в результате выполнения более чем 200 небольших проектов,
финансировавшихся программной NSDL.
После достижения этого уровня
зрелости программы Национальный научный фонд США (National
Science
Foundation,
NSF)
теперь заново осмысляет статут NSDL
как исследовательской программы. С одной стороны, NSDL
остается типичной программой NSF,
выполняемой в рамках традиционного цикла предоставления грантов:
публикация оповещения, получение заявок от групп исследователей и
разработчиков и предоставление грантов лучшим из заявителей. С
другой стороны, эта программа не вполне обычна, поскольку целью ее
проектов является не просто расширение базы знаний исследований и
практики научного образования, но также и построение
интегрированного ресурса, который будет существовать долгое время и
приносить пользу преподавателям и обучающимся всех возрастов.
Но независимо от этого
программа NSDL
достигла той точки своего развития, после которой она либо должна
подвергнуться существенному изменению, либо понемногу пойти на
убыль. Многие программы NSF
завершаются в течение десятилетия или меньшего промежутка времени,
часто после достижения основной поставленной цели и формирования
основы для новой исследовательской программы. В качестве библиотеки
NSDL
становится достаточно зрелой, чтобы исполнять роль операционного
центра. Поскольку NSF,
прежде всего, является исследовательской организацией, дальнейшее
финансирование NSDL
противоречило бы общей политике NSF
не поддерживать рутинную научную и образовательную деятельность.
Тем не менее, имеются веские
аргументы в пользу продолжения финансирования NSDL,
но природа этой поддержки должна быть изменена в соответствии новым
задачам NSDL.
Вообще говоря, политика NSF
состоит в том, чтобы «расцветали тысячи цветов», и с
этой целью Фонд порождает программы, предоставляющие гранты
различным проектам и полагающиеся на конференции и публикации
(традиционные и электронные) как средства взаимного влияния
исследователей. Это замечательная цель, но именно NSDL
дает NSF
возможность упрочить связь между исследовательскими проектами. Эта
библиотека способна обеспечить стандартизованную техническую
инфраструктуру, поддерживающую (возможно, даже требующую) гораздо
более высокую степень межпроектных взаимодействий.
Автор представляет себе
будущую NSDL
как платформу, позволяющую повысить продуктивность разработки
образовательных ресурсов и усовершенствовать исследования в области
образования, а также как инструмент для создания новых научных
знаний об образовании и обучении и управления этими знаниями.
Автором статьи «Wiki:
от каждого сообразно его знаниям» («Wikis:
‘From
Each
According
to
His
Knowledge’»)
является Дэниэл О’Лэри (Daniel
E.
O’Leary,
University
of
Southern
California).
В последние годы про wiki
много писали исследователи, журналисты, блоггеры и поставщики
программного обеспечения. Не удивительно, что большая часть этой
информации публиковалась на самих wiki-сайтах.
При наличии взрывчатого роста числа приложений wiki
и споров вокруг этой технологии полезно разобраться с доводами за и
против wiki,
чтобы лучше понять, что это такое, как используется, в чем состоят
преимущества и недостатки, и с какими проблемами сталкиваются
разработчики соответствующих программных средств.
Первый инструментарий wiki
WikiWikiWeb
был реализован Уодом Каннингамом (Ward
Cunningham)
в 1994 г. для содействия обмену идей между друзьями-программистами
Уода на его Web-сайте
Программное обеспечение WikiWikiWeb
было написано на языке Perl
и основывалось на стеке HyperCard,
разработанном Каннингамом в конце 1980-х гг. Сегодняшние
wiki-приложения
пишутся на различных языках, включая Java,
Lisp,
PHP,
Smalltalk,
Python
и Ruby.
Wiki
у гавайцев означает «быстрый», и в соответствии с этим
значением названия технологии ее исходная цель состояла в том, чтобы
предоставить пользователям возможность быстро размещать контент в
Web.
Однако сегодня назначение wiki
зависит от того, для кого и какого вида приложение разрабатывается.
Вообще говоря, программное обеспечение wiki
разрабатывается для ускорения и упрощения генерации контента, его
совместного обогащения и распространения.
При использовании wiki
пользователи могут виртуально соединяться во времени и пространстве,
образуя частные сообщества или взаимодействуя публично, для
создания, модификации и совместного использования знаний. Обычно
wiki
позволяют пользователям добавлять новый контент, привязываться к
другому родственному контенту, редактировать существующий контент,
организовывать и структурировать контент, просматривать контент и
получать доступ к его истории.
Большая часть контента,
поставляемого посредством wiki,
является текстом, но он может также включать файлы изображений,
видео и звука. Документы для Web
создаются коллективно с применением упрощенного языка разметки, или
«викитекста» из Web-браузеров
Internet
или intranet.
Это позволяет создавать wiki-приложения
непрограммистам и добавлять к этим приложениям новые возможности без
знакомства с их кодом. В wiki
используются различные механизмы для отслеживания истории контента,
так что пользователи могут видеть, кто и когда его изменял.
В течение многих лет
предлагались различные подходы для облегчения управления знаниями,
особенно на уровне предприятия. Однако обещания сделать
подразумеваемые знания явными во многом остаются невыполненными –
многие подразумеваемые знания по-прежнему недоступны. Технология
wiki
обладает потенциалом для сбора этих знаний из различных источников.
Wiki
удовлетворяет четыре важнейшие потребности управления знаниями: сбор
знаний у тех, кто ими владеет; преобразование знаний в явно
доступный формат; связывание тех, кому требуются знания, с теми, кто
располагает знаниями; организация связей между знаниями.
При классическом управлении
знаниями эксперты по сбору знаний отвечают за их сбор от экспертов
прикладных областей. Wiki
обеспечивает удобные средства сбора информации за счет устранения
посредников и создания возможности непосредственного разделения
знаний между людьми. Кроме того, wiki
делает общедоступной информацию или источники, доступные ранее
только поставщику контента. Таким образом, пользователи
непосредственно влияют на структуру базы знаний и контент. Делая
доступной информацию об участниках, wiki
содействует установлению связей между заинтересованными сторонами.
Наконец, за счет использования гипертекста wiki
позволяет участниками связывать соответствующие знания.
Следующая статья представлена Рамешем Джейном
(Ramesh
Jain,
University
of
California,
Irvine)
и называется « EventWeb:
разработка антропоцентрической компьютерной системы»
(«EventWeb:
Developing
a
Human-Centered
Computing
System»).
В известном смысле в центре всего компьютинга
находится человек. После того как люди успешно разработали машины,
повышающие их механические возможности, они сосредоточились на
разработке механизмов, увеличивающих их аналитические возможности.
Первая аналитическая возможность, которую удалось усилить, касалась
простых вычислений. Появились различные типы вычислительных
устройств, а в середине прошлого века – электронные
компьютеры.
Наращивание аналитических
возможностей человека остается основной целью и сегодняшних
компьютеров. Область вычислительных машин быстро развивается,
опираясь на достижения в направлениях обработки и хранения данных,
коммуникаций и т.д. Еще одной движущей силой является появление все
более актуальных проблем сенсорных данных (включающих видео- и
аудиоданные), которые можно решить с помощью компьютеров.
Текущий интерес к
антропоцентрическому компьютингу (Human-Centered
Computing,
HCC)
вызывает новые волнения в компьютерном сообществе. В области HCC
объединяются многие мощные и независимые подходы из разных
направлений, от человеко-машинных интерфейсов (Human-Computer
Interfaces,
HCI),
машинного зрения, распознавания речи до систем виртуальной
реальности. Большинство компьютерных систем позволяет создавать
мощные интерфейсы с использованием аудиовизуальных методов. Однако
для разработки систем HCC
требуются еще качественный контент, тщательно спланированные
организация данных и механизмы доступа к ним, а также мощные подходы
к внешнему представлению данных.
В конечном счете,
пользователей интересует контент, и поэтому так важно обеспечить его
качество. Качество контента определяется его достоверностью,
глубиной и своевременностью. Проблемы, с которыми сталкиваются
исследователи HCC,
не ограничиваются интерфейсами. Они состоят в корректной организации
разновидных данных, поступающих из различных источников, нахождении
наилучшей комбинации мультимедийных источников для передачи
сообщения или события, представлении и распространении этих
источников с обеспечением их наилучшего восприятия, а также в
содействии совершенствованию человеческих знаний и построению более
сильных сообществ с использованием этих подходов.
Большая часть подходов, применяемых к компьютерной
науке, возникла на основе алфавитно-цифровых данных, которые
доминировали в раннем периоде компьютинга. Исследователи пытаются
расширить эти подходы применительно к разнообразным динамическим
данным. Для построения новых компьютерных приложений в различных
областях, от биологии до развлечений, от обеспечения безопасности до
поддержки бизнеса, нужно бросить свежий взгляд на применяемые в
настоящее время инструментальные средства.
Комбинация технологических достижений, уменьшение
числа барьеров, препятствующих взаимодействию различных частей мира,
и поиск решений все более сложных проблем создают ситуациях, которая
может оказать сильное влияние на дальнейшее развитие человеческой
цивилизации.
Статью «Безопасное и простое
Internet-голосование»
(«Secure
and
Easy
Internet
Voting»)
написал Джиапиеро Бероджи (Giampiero
E.G.
Beroggi,
Statistical
Office
of
Canton
Zurich).
Хотя современное общество в большой степени
полагается на информационные и коммуникационные технологии
(Information
and
Communication
Technology,
ICT)
в областях бизнеса, труда и развлечений, оно не очень склонно
использовать ICT
в деятельности, связанной с принятием демократических решений,
например, при голосовании. Между тем, голоса избирателей, потерянные
или неучтенные при подсчете результатов традиционного голосования с
использованием бумажных бюллетеней, могли бы оказать значительное
влияние на политические решения.
Одной из причин задержки реализации более
технологичных методов голосования является почти единодушная
опасливость выборов с использованием технологий Internet,
наблюдаемая в сообществе компьютерной науки. Многие правительства
просто отказываются от электронного голосования как слишком
рискованного предприятия. Другие не полностью понимают серьезных
преимуществ электронного голосования над традиционным голосованием с
использованием бумажных бюллетеней: надежная и безопасная
предварительная оценка результатов выборов, точный подсчет голосов,
возможность проведения голосования как в централизованной, так и в
децентрализованной манере и быстрая доступность результатов.
К счастью, в свете этих преимуществ многие страны
начинают присматриваться к системам электронного голосования, но эта
работа в большинстве случаев находится на стадиях формирования
концепции или тестирования. В отличие от этого, в трех кантонах
Швейцарии – Цюрихе, Женеве и Neuchatel
– системы электронного голосования уже используются. Цюрихская
система электронного голосования,
введенная в действие в декабре 2004 г., отличается модульной
сервис-ориентированной архитектурой, которая позволяет избирателям
отдавать свои голоса с использованием различных электронных
устройств: уже сейчас это можно делать через компьютеры и мобильные
телефоны, запланировано обеспечение этой возможности с
использованием интерактивного телевидения и карманных компьютеров.
Система легко интегрируется в существующие
программные решения без утраты свойств безопасности и приспособлена
и централизованному, и децентрализованному функционированию. И
центральные, и местные власти приняли систему, в особенности оценив
ее интеграцию с традиционным «бумажным» голосованием.
Обеспечение возможности выбора между электронным и бумажным
голосованием означает, что все граждане, независимо от их уровня
подготовки к использованию современной технологии, могут голосовать,
и среди населения отсутствует боязнь электронных устройств. Министр
внутренних дел кантона Цюрих Маркус Ноттер назвал систему «вехой
в истории демократии Швейцарии».
На эксплуатации систем
тратится $400000 в год, что приблизительно составляет затраты в
размере 50 центов на один голос. После завершения в 2006 г. фазы
тестирования системы ее начали использовать три общины кантора
Цюрих. Системой хотели бы пользоваться многие другие граждане, но
Швейцарское правительство разрешило пользоваться системой
электронного голосования только 10% электората. Однако, как только
правительство снимет это ограничение, системой смогут начать
пользоваться все общины кантона Цюрих, которых насчитывается 171.
Это станет возможно благодаря масштабируемой сервис-ориентированной
структуре системы.
Последняя статья тематической подборки написана
Срижит Наир, Бруно Крипсо, Эндрю Таненбаум
и
Рон
Герриц
(,
Bruno Crispo,
Andrew S. Tanenbaum,
Vrije Universiteit,
Amsterdam, Ron
Gerrits,
Inovia).
Название статьи «Превращение
подростков в продавцов» («Turning
Teenagers into Stores»).
Скрещивание компьютеров, Internet,
музыки и тинейджеров приводит к вытеснению музыкальной индустрии.
Более ста лет после изобретения Томасом Эдисоном фонографа в 1877 г.
эта индустрия продавала клиентам синглы и альбомы, написанные на
восковых или пластиковых носителях, в магазинах музыкальных товаров
и универмагах. Появлялись новые носители, пластинки с синглами,
проигрываемые на скорости 78 и 45 оборотов в минуту, долгоиграющие
пластинки со скоростью 33 оборота в минуту, наконец, компакт-диски,
но бизнес-модель оставалась неизменной. Однако после изобретения и
стандартизации инженерами, работавшими в проекте номер 147
европейской программы Eureka,
алгоритма психоакустической компрессии MP3
началась эпоха загружаемой цифровой музыки.
После выпуска институтом
Фраунгофер в 1994 г. первого кодера MP3
многие молодые любители музыки начали кодировать свои ауди-CD
в формате и сохранять их на жестких дисках своих компьютерах. До
изобретения MP3
хранение музыки на жестком диске PC
было непрактичным, поскольку для сохранения одного CD
могло бы потребоваться до 650 мегабайт, а в то время емкость жестких
дисков не превышала 1 гигабайт. Но после появления десятикратного
сжатия с небольшой потерей качества хранение и воспроизведение
музыки на компьютерах стали пользоваться стремительно возрастающей
популярностью.
Через недолгое время друзья
стали обмениваться музыкальными файлами через Internet.
В 1999 г. дебютировала служба Napster,
предложившая поддержку центрального каталога людей и имеющихся у них
песен, так что люди получили возможность прямого копирования песен с
удаленных жестких дисков других, вовсе незнакомых им людей.
Пользователи Napster
расценивали это как замечательное изобретение: одноранговое
совместное использование файлов. К несчастью для них люди из
музыкальной индустрии восприняли эту ситуацию по-другому. Они видели
в ней посягательство на свою интеллектуальную собственность, и
ответили на ее возникновение судебным преследованием Napster,
что привело к прекращению ее функционирования. Napster
вскоре сменили децентрализованные службы, такие как Kazaa
и Grokster,
и они тоже подверглись судебному преследованию со смешанными
результатами. Затем музыкальная индустрия предъявлять иски отдельным
тинэйджерам за нарушение авторских прав, стремясь к максимальной
гласности при внесудебном урегулировании исков на тысячи долларов.
Со временем людям из
музыкальной индустрии стало ясно, что тяжбы с собственными клиентами
(в особенности, детьми) не являются правильной бизнес-моделью. Это
привело к появлению онлайновых музыкальных магазинов, дающих
возможность клиентам законным образом покупать и скачивать песни с
центрального сервера магазина. Первым крупным онлайновым продавцом
музыки стала компания Apple,
основавшая очень успешный магазин iTunes
и выпустившая плеер iPod.
В iTunes
используется полностью централизованная система цифрового управления
правами (digital
rights
management,
DRM)
FairPlay,
которая поддерживает контакты пользователей с сервером Apple
для покупки и скачивания музыки и авторизацию доступа. Когда
компания Microsoft
в ноябре 2006 г. выпустила свой плеер Zune
и открыла онлайновый магазин, она добавила к списку услуг новую
возможность, отсутствующую в iTunes:
ограниченную возможность переписи песен на плеер Zune
друга владельца песни в режиме офлайн без потребности в
предварительном контакте с центральным сервером Zune.
Однако пользователь может переписать песню только три раза, и она
сохранится только три дня. Если другу понравится некоторая песня, он
должен вступить в контакт с сервером Zune
для ее приобретения. В левой части рисунка показана модель iTunes,
а в правой – модель Zune.
В настоящее время музыкальные компании начали
понимать, что цифровая музыка является их другом, а не врагом (точно
так же, как киностудии прекратили преследовать производителей
видеокассетных магнитофонов и начали сдавать фильмы в аренду). Они
также осознают, что многие подростки узнают о песнях, подключив свои
наушники к плееру своего друга. Эти соображения приводят к тому, что
некоторые руководители музыкальной индустрии начинают подумывать о
возможности превращения тинэйджеров в мелких продавцов, легальным
образом перепродающих купленные ими песни. Более
прозаично
это
называется
супердистрибуцией.
Требуется схема, которая превратит желающих
клиентов в полноправных перепродавцов. В Амстердамском Свободном
университете разработана система, которую можно было бы использовать
в качества прототипа. Система рассчитана на следующий сценарий
использования музыки.
Некто Боб посещает поставщика онлайнового контента,
такого как iTunes,
и покупает некоторую песню за 99 центов. Заподозрив, что эта песня
понравится и его друзьям, он покупает право на перепродажу песни
девяти своим друзьям за общую сумму в $8.91, получая скидку в 10% за
покупку 10 единиц товара. Он сразу платит $8.91 по своей кредитной
карте. Затем Боб связывается со своим товарищем Марком и говорит ему
о том, какую замечательную песню он только что скачал. После
прослушивания песни на плеере Боба Марк решает купить копию. Боб
продает Марку копию (по беспроводной связи) за 95 центов, получая 6
центов прибыли.
По дороге домой Боб встречает Эллис и продает ей
копию той же песни. Эллис говорит Бобу, что ее подруге Мэри тоже
могла бы быть интересна эта песня, и поэтому он покупает копию для
себя и право на ее одиночную перепродажу, платя Бобу $1.90. Когда
Эллис встречается с Мэри, она продает ей ту же песню на 97 центов.
На рисунке показаны проведенные транзакции.
Преимущества для потребителей, таких как Боб и
Эллис, очевидны. Действуя в качестве посредника владельца контента,
клиент получает прибыль от каждой продажи песен. Выигрывают и Марк и
Мэри, поскольку получают песню немедленно и дешевле, чем в магазине.
Владелец контента может получить больше потенциальных покупателей,
и, что более важно, при этом формируется сеть потребителей с общими
пристрастиями, которую вряд ли можно было бы построить с помощью
какой-либо маркетинговой кампании. Кроме того, поскольку многие
продажи совершаются без обращения к центральному серверу, требования
к мощности этого сервера и пропускной возможности сети существенно
уменьшаются, что позволяет сократить соответствующие расходы.
Конечно, для всего этого требуется технология,
которая позволила бы исключить бесплатное распространение контента.
В описываемом прототипе такая технология частично реализована.
Вне тематической подборки опубликованы две статьи.
Авторами статьи «Авторизация карточных платежей с
использованием PIN-кодов»
(«Authorizing
Card
Payments
with
PINs»)
являются Вацлав Матиаш, Ян Крховяк, Марек Кумпост и Дан Чрвычек
(Václav (Vashek) Matyáš,
Jan Krhovják,
Marek Kumpost,
Masaryk
University,
Czech
Republic,
Dan
Cvrcek,
Brno
University
of
Technology,
Czech
Republic).
Появление технологии Chip
and
PIN
для авторизации при покупках через пластиковые карты привело к
многочисленным дискуссиям в сообществе компьютерной безопасности.
Являясь реализацией стандарта EMV
(Eurocard,
MasterCard,
VISA),
технология Chip
and
PIN
направлена на то, чтобы заменить взятие оттиска карты или
прокатывание карты с магнитной полосой по читающему устройству при
выполнении транзакций с кредитными или дебетовыми картами. При
использовании обоих методов основным средством обеспечения
безопасности является проверка личной подписи клиента, когда
служащий должен сверить текущую подпись с подписью на обратной
стороне карты. Обе системы показали себя достаточно эффективными.
Однако у злоумышленников остается возможность похитить карту и
подделать подпись.
Технология Chip
and
PIN
предполагает использование смарт-карт, содержащих встроенную
микросхему, а также клавиатур для ввода PIN-кода
или модифицированных устройств чтения. После того, как система
распознает карту как подлинную, клиент вводит четыре цифры PIN-кода,
которые сопоставляются со значением PIN-кода,
хранящимся в карте. Системы была запущена в Великобритании в 2004
г., и с тех пор банки начали выпускать карты, содержащие как
магнитную полосу, так и микросхему.
Для изучения вопроса о
преимуществах новой системы аутентификации авторы провели
эксперимент, в котором оценивалось, не стало ли легче действовать
злоумышленникам, и не стало ли труднее клиентам оспаривать
жульнические транзакции. Результаты эксперимента показывают
обоснованность этих опасений.
Последняя большая статья февральского номера –
«Перспективы высокопроизводительных реконфигурируемых
компьютеров» («The
Promise
of
High-Performance
Reconfigurable
Computing»)
– написана Тареком Эль-Жазави, Эсамом Эль-Араби, Миаокингом
Хуангом, Крисом Гаем, Володимером Киндратенко и Дунканом Бюэллем
(Tarek El-Ghazawi,
Esam El-Araby,
Miaoqing Huang,
George Washington University, Kris
Gaj,
George Mason University, Volodymyr
Kindratenko,
University of Illinois at Urbana-Champaign, Duncan
Buell,
University of South Carolina).
В последние несколько лет поставщики средств
высокопроизводительных вычислений (high-performance
computing,
HPC)
выпустили много систем, содержащих как микропроцессоры, так и
программируемые матрицы (field-programmable
gate
array,
FPGA).
Из них три системы – Cray
XD1,
SRC-6
и SGI
Altix/RASC
– являются параллельными компьютерами, похожими на современные
архитектуры HPC,
в которые добавлены микросхемы FPGA.
Cray
XD1
и SGI
Altix
могут функционировать и как традиционные HPC
без реконфигурируемых микросхем. Кроме того, в нескольких кластерных
системах Beowulf
в каждом из узлов содержаться одна или несколько схем FPGA.
Во всех этих архитектурах FPGA
выступают в качестве сопроцессоров микропроцессоров. Основное
приложение выполняется на микропроцессорах, а FPGA
поддерживают выполнение центральных частей приложения, требующих
большого времени обработки, но допускающих аппаратную реализацию.
Эти части приложений обычно содержат параллельные по данным
перекрывающиеся вычисления, которые можно эффективно реализовать на
основе мелкоструктурных архитектур, например, SIMD-архитектур
(single-instruction,
multiple-data)
или систолических матриц. На рисунке показано, что при выполнении
приложения на микропроцессоре может происходить вызов
соответствующей архитектуры в реконфигурируемом процессоре для
выполнения целевой операции. Для этого реконфигурируемый процессор
может «на лету» сконфигурировать FPGA,
в то время как другие процессоры системы выполняют вычисления.
При разработке приложений
разработчики могут создавать такие аппаратно поддерживаемые части
приложений с использование языков описания аппаратуры, таких как
VHDL
и Verilog.
В некоторых системах для этого допускается использование языков
высокого уровня, таких как Carte
C
и Carte
Fortran
в системах компании SRC
Computers,
Impulse
C
в системах Impulse
Accelerated
Technologies,
Mitrion
C
в системах Mitrionics
и Handel-C
в системах Celoxica.
Имеются также высокоуровневые графические средства разработки
программ, такие как CoreFire
от компании Annapolis
Micro
Systems,
Viva
от Starbridge
Systems,
Xilinx
System
Generator
и Reconfigurable
Computing
Toolbox
от DSPlogic.
Обзор современных высокопроизводительных реконфигурируемых систем
(High-Performance
Reconfigurable
Computing,
HPRC),
средств разработки и приложений содержится в специальном выпуске
журнала Computer
за март 2007 г.
Многие ранние системы HPRC,
такие как SRC-6E
и Starbridge
Hypercomputer
можно рассматривать как подсоединенные процессоры. В этих системах
имелись два узла, один из которых строился на основе
микропроцессоров, а другой – на основе FPGA.
Эти два узла связывались напрямую, без использования какого-либо
масштабируемого механизма соединений. В данной статье эти ранние
системы не обсуждаются. Внимание уделяется масштабируемым
параллельным системам, таким как Cray
XD1,
SRC-6
и SGI
Altix/RASC,
а также реконфигурируемым кластерам Beowulf.
В некоторых из этих архитектур узлы системы
являются однородными, а в других – разнородными. В данном
контексте однородный узел содержит процессорные элементы только
одного типа, например, только микропроцессоры или FPGA.
На основе этого различия авторы группируют современные системы HPRC
в два основных класса: неоднородные системы с однородными узлами
(uniform node nonuniform system, UNNS)
и однородные системы с неоднородными узлами
(nonuniform node uniform system, NNUS).
Примерами UNNS
являются SRC-6
и Altix/RASC.
Основным преимуществом UNNS
является то, что поставщики могут изменять соотношение
микропроцессорных и реконфигурируемых узлов в соответствие с
требованиями приложений заказчиков. Этот подход чрезвычайно
желателен с экономической точки зрения при наличии существенной
разницы в цене микропроцессоров и FPGA,
и он очень подходит для создания специализированных систем.
Недостатком является то, что реконфигурируемый и микропроцессорный
узла взаимодействуют через общую соединительную сеть, и в результате
они конкурируют за ее пропускную способность. Кроме того, проблемой
может стать обеспечение переносимости кода приложений даже на машину
того же типа, но с другим соотношением микропроцессорных и
FPGA-узлов.
В NNUS
используется только один тип узла, и поэтому системный уровень
является однородным. Однако в каждом узле содержатся оба типа
ресурсов, и FPGA
подсоединяются к микропроцессорам внутри узлов напрямую. Примерами
таких систем являются Cray
XD1
и реконфигурируемые кластеры. Основным недостатком NNUS
является фиксированное соотношение микропроцессоров и FPGA.
Однако они соответствуют модели SPMD
(single-program,
multiple-data),
на которую опирается большинство парадигм параллельного
программирования. Кроме того, низкий уровень задержки при
взаимодействии микропроцессора с сопрорцессором FPGA
может обеспечить высокую производительность многих приложений с
интенсивной обработкой данных.