Logo Море(!) аналитической информации!
IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware
Обучение от Mail.Ru Group.
Онлайн-университет
для программистов с
гарантией трудоустройства.
Набор открыт!
2008 г.

Тинэйджеры и музыкальная коммерция

Сергей Кузнецов

Обзор февральского, 2008 г. номера журнала Computer (IEEE Computer Society, V. 41, No 2, February 2008).

Авторская редакция. Также обзор опубликован в журнале "Открытые системы"

Темой февральского номера журнала является «Всеобъемлющий Web» («Pervasive Web»). В тематической подборке пять статей, приглашенный редактор отсутствует, и подборка, на мой взгляд, выглядит довольно случайной. Поэтому я буду рассматривать статьи просто в порядке оглавления журнала.

Первую статью февральского номера написал Дэвид Макартур (David McArthur, GoH Corporation). Она называется «Национальная научная электронная библиотека: формирование инфраструктуры образования» («National Science Digital Library: Shaping Education’s Cyberinfrastructure»).

Летом 2007 г. Национальная научная электронная библиотека (National Science Digital Library, NSDL) обеспечивала доступ к более чем 2.5 миллионам образовательных ресурсов, покрывающим области науки, технологии и инженерии на уровнях от подготовительного до выпускного. К этому времени основной портал www.nsdl.org был доступен в Internet уже около пяти лет, обеспечивая единую точку доступа к десяткам распределенных электронных коллекций и служб, многие из которых были созданы в результате выполнения более чем 200 небольших проектов, финансировавшихся программной NSDL.

После достижения этого уровня зрелости программы Национальный научный фонд США (National Science Foundation, NSF) теперь заново осмысляет статут NSDL как исследовательской программы. С одной стороны, NSDL остается типичной программой NSF, выполняемой в рамках традиционного цикла предоставления грантов: публикация оповещения, получение заявок от групп исследователей и разработчиков и предоставление грантов лучшим из заявителей. С другой стороны, эта программа не вполне обычна, поскольку целью ее проектов является не просто расширение базы знаний исследований и практики научного образования, но также и построение интегрированного ресурса, который будет существовать долгое время и приносить пользу преподавателям и обучающимся всех возрастов.

Но независимо от этого программа NSDL достигла той точки своего развития, после которой она либо должна подвергнуться существенному изменению, либо понемногу пойти на убыль. Многие программы NSF завершаются в течение десятилетия или меньшего промежутка времени, часто после достижения основной поставленной цели и формирования основы для новой исследовательской программы. В качестве библиотеки NSDL становится достаточно зрелой, чтобы исполнять роль операционного центра. Поскольку NSF, прежде всего, является исследовательской организацией, дальнейшее финансирование NSDL противоречило бы общей политике NSF не поддерживать рутинную научную и образовательную деятельность.

Тем не менее, имеются веские аргументы в пользу продолжения финансирования NSDL, но природа этой поддержки должна быть изменена в соответствии новым задачам NSDL. Вообще говоря, политика NSF состоит в том, чтобы «расцветали тысячи цветов», и с этой целью Фонд порождает программы, предоставляющие гранты различным проектам и полагающиеся на конференции и публикации (традиционные и электронные) как средства взаимного влияния исследователей. Это замечательная цель, но именно NSDL дает NSF возможность упрочить связь между исследовательскими проектами. Эта библиотека способна обеспечить стандартизованную техническую инфраструктуру, поддерживающую (возможно, даже требующую) гораздо более высокую степень межпроектных взаимодействий.

Автор представляет себе будущую NSDL как платформу, позволяющую повысить продуктивность разработки образовательных ресурсов и усовершенствовать исследования в области образования, а также как инструмент для создания новых научных знаний об образовании и обучении и управления этими знаниями.

Автором статьи «Wiki: от каждого сообразно его знаниям» («Wikis: ‘From Each According to His Knowledge’») является Дэниэл О’Лэри (Daniel E. O’Leary, University of Southern California).

В последние годы про wiki много писали исследователи, журналисты, блоггеры и поставщики программного обеспечения. Не удивительно, что большая часть этой информации публиковалась на самих wiki-сайтах. При наличии взрывчатого роста числа приложений wiki и споров вокруг этой технологии полезно разобраться с доводами за и против wiki, чтобы лучше понять, что это такое, как используется, в чем состоят преимущества и недостатки, и с какими проблемами сталкиваются разработчики соответствующих программных средств.

Первый инструментарий wiki WikiWikiWeb был реализован Уодом Каннингамом (Ward Cunningham) в 1994 г. для содействия обмену идей между друзьями-программистами Уода на его Web-сайте Программное обеспечение WikiWikiWeb было написано на языке Perl и основывалось на стеке HyperCard, разработанном Каннингамом в конце 1980-х гг. Сегодняшние wiki-приложения пишутся на различных языках, включая Java, Lisp, PHP, Smalltalk, Python и Ruby.

Wiki у гавайцев означает «быстрый», и в соответствии с этим значением названия технологии ее исходная цель состояла в том, чтобы предоставить пользователям возможность быстро размещать контент в Web. Однако сегодня назначение wiki зависит от того, для кого и какого вида приложение разрабатывается. Вообще говоря, программное обеспечение wiki разрабатывается для ускорения и упрощения генерации контента, его совместного обогащения и распространения.

При использовании wiki пользователи могут виртуально соединяться во времени и пространстве, образуя частные сообщества или взаимодействуя публично, для создания, модификации и совместного использования знаний. Обычно wiki позволяют пользователям добавлять новый контент, привязываться к другому родственному контенту, редактировать существующий контент, организовывать и структурировать контент, просматривать контент и получать доступ к его истории.

Большая часть контента, поставляемого посредством wiki, является текстом, но он может также включать файлы изображений, видео и звука. Документы для Web создаются коллективно с применением упрощенного языка разметки, или «викитекста» из Web-браузеров Internet или intranet. Это позволяет создавать wiki-приложения непрограммистам и добавлять к этим приложениям новые возможности без знакомства с их кодом. В wiki используются различные механизмы для отслеживания истории контента, так что пользователи могут видеть, кто и когда его изменял.

В течение многих лет предлагались различные подходы для облегчения управления знаниями, особенно на уровне предприятия. Однако обещания сделать подразумеваемые знания явными во многом остаются невыполненными – многие подразумеваемые знания по-прежнему недоступны. Технология wiki обладает потенциалом для сбора этих знаний из различных источников. Wiki удовлетворяет четыре важнейшие потребности управления знаниями: сбор знаний у тех, кто ими владеет; преобразование знаний в явно доступный формат; связывание тех, кому требуются знания, с теми, кто располагает знаниями; организация связей между знаниями.

При классическом управлении знаниями эксперты по сбору знаний отвечают за их сбор от экспертов прикладных областей. Wiki обеспечивает удобные средства сбора информации за счет устранения посредников и создания возможности непосредственного разделения знаний между людьми. Кроме того, wiki делает общедоступной информацию или источники, доступные ранее только поставщику контента. Таким образом, пользователи непосредственно влияют на структуру базы знаний и контент. Делая доступной информацию об участниках, wiki содействует установлению связей между заинтересованными сторонами. Наконец, за счет использования гипертекста wiki позволяет участниками связывать соответствующие знания.

Следующая статья представлена Рамешем Джейном (Ramesh Jain, University of California, Irvine) и называется « EventWeb: разработка антропоцентрической компьютерной системы» («EventWeb: Developing a Human-Centered Computing System»).

В известном смысле в центре всего компьютинга находится человек. После того как люди успешно разработали машины, повышающие их механические возможности, они сосредоточились на разработке механизмов, увеличивающих их аналитические возможности. Первая аналитическая возможность, которую удалось усилить, касалась простых вычислений. Появились различные типы вычислительных устройств, а в середине прошлого века – электронные компьютеры.

Наращивание аналитических возможностей человека остается основной целью и сегодняшних компьютеров. Область вычислительных машин быстро развивается, опираясь на достижения в направлениях обработки и хранения данных, коммуникаций и т.д. Еще одной движущей силой является появление все более актуальных проблем сенсорных данных (включающих видео- и аудиоданные), которые можно решить с помощью компьютеров.

Текущий интерес к антропоцентрическому компьютингу (Human-Centered Computing, HCC) вызывает новые волнения в компьютерном сообществе. В области HCC объединяются многие мощные и независимые подходы из разных направлений, от человеко-машинных интерфейсов (Human-Computer Interfaces, HCI), машинного зрения, распознавания речи до систем виртуальной реальности. Большинство компьютерных систем позволяет создавать мощные интерфейсы с использованием аудиовизуальных методов. Однако для разработки систем HCC требуются еще качественный контент, тщательно спланированные организация данных и механизмы доступа к ним, а также мощные подходы к внешнему представлению данных.

В конечном счете, пользователей интересует контент, и поэтому так важно обеспечить его качество. Качество контента определяется его достоверностью, глубиной и своевременностью. Проблемы, с которыми сталкиваются исследователи HCC, не ограничиваются интерфейсами. Они состоят в корректной организации разновидных данных, поступающих из различных источников, нахождении наилучшей комбинации мультимедийных источников для передачи сообщения или события, представлении и распространении этих источников с обеспечением их наилучшего восприятия, а также в содействии совершенствованию человеческих знаний и построению более сильных сообществ с использованием этих подходов.

Большая часть подходов, применяемых к компьютерной науке, возникла на основе алфавитно-цифровых данных, которые доминировали в раннем периоде компьютинга. Исследователи пытаются расширить эти подходы применительно к разнообразным динамическим данным. Для построения новых компьютерных приложений в различных областях, от биологии до развлечений, от обеспечения безопасности до поддержки бизнеса, нужно бросить свежий взгляд на применяемые в настоящее время инструментальные средства.

Комбинация технологических достижений, уменьшение числа барьеров, препятствующих взаимодействию различных частей мира, и поиск решений все более сложных проблем создают ситуациях, которая может оказать сильное влияние на дальнейшее развитие человеческой цивилизации.

Статью «Безопасное и простое Internet-голосование» («Secure and Easy Internet Voting») написал Джиапиеро Бероджи (Giampiero E.G. Beroggi, Statistical Office of Canton Zurich).

Хотя современное общество в большой степени полагается на информационные и коммуникационные технологии (Information and Communication Technology, ICT) в областях бизнеса, труда и развлечений, оно не очень склонно использовать ICT в деятельности, связанной с принятием демократических решений, например, при голосовании. Между тем, голоса избирателей, потерянные или неучтенные при подсчете результатов традиционного голосования с использованием бумажных бюллетеней, могли бы оказать значительное влияние на политические решения.

Одной из причин задержки реализации более технологичных методов голосования является почти единодушная опасливость выборов с использованием технологий Internet, наблюдаемая в сообществе компьютерной науки. Многие правительства просто отказываются от электронного голосования как слишком рискованного предприятия. Другие не полностью понимают серьезных преимуществ электронного голосования над традиционным голосованием с использованием бумажных бюллетеней: надежная и безопасная предварительная оценка результатов выборов, точный подсчет голосов, возможность проведения голосования как в централизованной, так и в децентрализованной манере и быстрая доступность результатов.

К счастью, в свете этих преимуществ многие страны начинают присматриваться к системам электронного голосования, но эта работа в большинстве случаев находится на стадиях формирования концепции или тестирования. В отличие от этого, в трех кантонах Швейцарии – Цюрихе, Женеве и Neuchatel – системы электронного голосования уже используются. Цюрихская система электронного голосования, введенная в действие в декабре 2004 г., отличается модульной сервис-ориентированной архитектурой, которая позволяет избирателям отдавать свои голоса с использованием различных электронных устройств: уже сейчас это можно делать через компьютеры и мобильные телефоны, запланировано обеспечение этой возможности с использованием интерактивного телевидения и карманных компьютеров.

Система легко интегрируется в существующие программные решения без утраты свойств безопасности и приспособлена и централизованному, и децентрализованному функционированию. И центральные, и местные власти приняли систему, в особенности оценив ее интеграцию с традиционным «бумажным» голосованием. Обеспечение возможности выбора между электронным и бумажным голосованием означает, что все граждане, независимо от их уровня подготовки к использованию современной технологии, могут голосовать, и среди населения отсутствует боязнь электронных устройств. Министр внутренних дел кантона Цюрих Маркус Ноттер назвал систему «вехой в истории демократии Швейцарии».

На эксплуатации систем тратится $400000 в год, что приблизительно составляет затраты в размере 50 центов на один голос. После завершения в 2006 г. фазы тестирования системы ее начали использовать три общины кантора Цюрих. Системой хотели бы пользоваться многие другие граждане, но Швейцарское правительство разрешило пользоваться системой электронного голосования только 10% электората. Однако, как только правительство снимет это ограничение, системой смогут начать пользоваться все общины кантона Цюрих, которых насчитывается 171. Это станет возможно благодаря масштабируемой сервис-ориентированной структуре системы.

Последняя статья тематической подборки написана Срижит Наир, Бруно Крипсо, Эндрю Таненбаум и Рон Герриц (, Bruno Crispo, Andrew S. Tanenbaum, Vrije Universiteit, Amsterdam, Ron Gerrits, Inovia). Название статьи «Превращение подростков в продавцов» («Turning Teenagers into Stores»).

Скрещивание компьютеров, Internet, музыки и тинейджеров приводит к вытеснению музыкальной индустрии. Более ста лет после изобретения Томасом Эдисоном фонографа в 1877 г. эта индустрия продавала клиентам синглы и альбомы, написанные на восковых или пластиковых носителях, в магазинах музыкальных товаров и универмагах. Появлялись новые носители, пластинки с синглами, проигрываемые на скорости 78 и 45 оборотов в минуту, долгоиграющие пластинки со скоростью 33 оборота в минуту, наконец, компакт-диски, но бизнес-модель оставалась неизменной. Однако после изобретения и стандартизации инженерами, работавшими в проекте номер 147 европейской программы Eureka, алгоритма психоакустической компрессии MP3 началась эпоха загружаемой цифровой музыки.

После выпуска институтом Фраунгофер в 1994 г. первого кодера MP3 многие молодые любители музыки начали кодировать свои ауди-CD в формате и сохранять их на жестких дисках своих компьютерах. До изобретения MP3 хранение музыки на жестком диске PC было непрактичным, поскольку для сохранения одного CD могло бы потребоваться до 650 мегабайт, а в то время емкость жестких дисков не превышала 1 гигабайт. Но после появления десятикратного сжатия с небольшой потерей качества хранение и воспроизведение музыки на компьютерах стали пользоваться стремительно возрастающей популярностью.

Через недолгое время друзья стали обмениваться музыкальными файлами через Internet. В 1999 г. дебютировала служба Napster, предложившая поддержку центрального каталога людей и имеющихся у них песен, так что люди получили возможность прямого копирования песен с удаленных жестких дисков других, вовсе незнакомых им людей. Пользователи Napster расценивали это как замечательное изобретение: одноранговое совместное использование файлов. К несчастью для них люди из музыкальной индустрии восприняли эту ситуацию по-другому. Они видели в ней посягательство на свою интеллектуальную собственность, и ответили на ее возникновение судебным преследованием Napster, что привело к прекращению ее функционирования. Napster вскоре сменили децентрализованные службы, такие как Kazaa и Grokster, и они тоже подверглись судебному преследованию со смешанными результатами. Затем музыкальная индустрия предъявлять иски отдельным тинэйджерам за нарушение авторских прав, стремясь к максимальной гласности при внесудебном урегулировании исков на тысячи долларов.

Со временем людям из музыкальной индустрии стало ясно, что тяжбы с собственными клиентами (в особенности, детьми) не являются правильной бизнес-моделью. Это привело к появлению онлайновых музыкальных магазинов, дающих возможность клиентам законным образом покупать и скачивать песни с центрального сервера магазина. Первым крупным онлайновым продавцом музыки стала компания Apple, основавшая очень успешный магазин iTunes и выпустившая плеер iPod.

В iTunes используется полностью централизованная система цифрового управления правами (digital rights management, DRM) FairPlay, которая поддерживает контакты пользователей с сервером Apple для покупки и скачивания музыки и авторизацию доступа. Когда компания Microsoft в ноябре 2006 г. выпустила свой плеер Zune и открыла онлайновый магазин, она добавила к списку услуг новую возможность, отсутствующую в iTunes: ограниченную возможность переписи песен на плеер Zune друга владельца песни в режиме офлайн без потребности в предварительном контакте с центральным сервером Zune. Однако пользователь может переписать песню только три раза, и она сохранится только три дня. Если другу понравится некоторая песня, он должен вступить в контакт с сервером Zune для ее приобретения. В левой части рисунка показана модель iTunes, а в правой – модель Zune.

В настоящее время музыкальные компании начали понимать, что цифровая музыка является их другом, а не врагом (точно так же, как киностудии прекратили преследовать производителей видеокассетных магнитофонов и начали сдавать фильмы в аренду). Они также осознают, что многие подростки узнают о песнях, подключив свои наушники к плееру своего друга. Эти соображения приводят к тому, что некоторые руководители музыкальной индустрии начинают подумывать о возможности превращения тинэйджеров в мелких продавцов, легальным образом перепродающих купленные ими песни. Более прозаично это называется супердистрибуцией.

Требуется схема, которая превратит желающих клиентов в полноправных перепродавцов. В Амстердамском Свободном университете разработана система, которую можно было бы использовать в качества прототипа. Система рассчитана на следующий сценарий использования музыки.

Некто Боб посещает поставщика онлайнового контента, такого как iTunes, и покупает некоторую песню за 99 центов. Заподозрив, что эта песня понравится и его друзьям, он покупает право на перепродажу песни девяти своим друзьям за общую сумму в $8.91, получая скидку в 10% за покупку 10 единиц товара. Он сразу платит $8.91 по своей кредитной карте. Затем Боб связывается со своим товарищем Марком и говорит ему о том, какую замечательную песню он только что скачал. После прослушивания песни на плеере Боба Марк решает купить копию. Боб продает Марку копию (по беспроводной связи) за 95 центов, получая 6 центов прибыли.

По дороге домой Боб встречает Эллис и продает ей копию той же песни. Эллис говорит Бобу, что ее подруге Мэри тоже могла бы быть интересна эта песня, и поэтому он покупает копию для себя и право на ее одиночную перепродажу, платя Бобу $1.90. Когда Эллис встречается с Мэри, она продает ей ту же песню на 97 центов. На рисунке показаны проведенные транзакции.

Преимущества для потребителей, таких как Боб и Эллис, очевидны. Действуя в качестве посредника владельца контента, клиент получает прибыль от каждой продажи песен. Выигрывают и Марк и Мэри, поскольку получают песню немедленно и дешевле, чем в магазине. Владелец контента может получить больше потенциальных покупателей, и, что более важно, при этом формируется сеть потребителей с общими пристрастиями, которую вряд ли можно было бы построить с помощью какой-либо маркетинговой кампании. Кроме того, поскольку многие продажи совершаются без обращения к центральному серверу, требования к мощности этого сервера и пропускной возможности сети существенно уменьшаются, что позволяет сократить соответствующие расходы.

Конечно, для всего этого требуется технология, которая позволила бы исключить бесплатное распространение контента. В описываемом прототипе такая технология частично реализована.

Вне тематической подборки опубликованы две статьи. Авторами статьи «Авторизация карточных платежей с использованием PIN-кодов» («Authorizing Card Payments with PINs») являются Вацлав Матиаш, Ян Крховяк, Марек Кумпост и Дан Чрвычек (Václav (Vashek) Matyáš, Jan Krhovják, Marek Kumpost, Masaryk University, Czech Republic, Dan Cvrcek, Brno University of Technology, Czech Republic).

Появление технологии Chip and PIN для авторизации при покупках через пластиковые карты привело к многочисленным дискуссиям в сообществе компьютерной безопасности. Являясь реализацией стандарта EMV (Eurocard, MasterCard, VISA), технология Chip and PIN направлена на то, чтобы заменить взятие оттиска карты или прокатывание карты с магнитной полосой по читающему устройству при выполнении транзакций с кредитными или дебетовыми картами. При использовании обоих методов основным средством обеспечения безопасности является проверка личной подписи клиента, когда служащий должен сверить текущую подпись с подписью на обратной стороне карты. Обе системы показали себя достаточно эффективными. Однако у злоумышленников остается возможность похитить карту и подделать подпись.

Технология Chip and PIN предполагает использование смарт-карт, содержащих встроенную микросхему, а также клавиатур для ввода PIN-кода или модифицированных устройств чтения. После того, как система распознает карту как подлинную, клиент вводит четыре цифры PIN-кода, которые сопоставляются со значением PIN-кода, хранящимся в карте. Системы была запущена в Великобритании в 2004 г., и с тех пор банки начали выпускать карты, содержащие как магнитную полосу, так и микросхему.

Для изучения вопроса о преимуществах новой системы аутентификации авторы провели эксперимент, в котором оценивалось, не стало ли легче действовать злоумышленникам, и не стало ли труднее клиентам оспаривать жульнические транзакции. Результаты эксперимента показывают обоснованность этих опасений.

Последняя большая статья февральского номера – «Перспективы высокопроизводительных реконфигурируемых компьютеров» («The Promise of High-Performance Reconfigurable Computing») – написана Тареком Эль-Жазави, Эсамом Эль-Араби, Миаокингом Хуангом, Крисом Гаем, Володимером Киндратенко и Дунканом Бюэллем (Tarek El-Ghazawi, Esam El-Araby, Miaoqing Huang, George Washington University, Kris Gaj, George Mason University, Volodymyr Kindratenko, University of Illinois at Urbana-Champaign, Duncan Buell, University of South Carolina).

В последние несколько лет поставщики средств высокопроизводительных вычислений (high-performance computing, HPC) выпустили много систем, содержащих как микропроцессоры, так и программируемые матрицы (field-programmable gate array, FPGA). Из них три системы – Cray XD1, SRC-6 и SGI Altix/RASC – являются параллельными компьютерами, похожими на современные архитектуры HPC, в которые добавлены микросхемы FPGA. Cray XD1 и SGI Altix могут функционировать и как традиционные HPC без реконфигурируемых микросхем. Кроме того, в нескольких кластерных системах Beowulf в каждом из узлов содержаться одна или несколько схем FPGA.

Во всех этих архитектурах FPGA выступают в качестве сопроцессоров микропроцессоров. Основное приложение выполняется на микропроцессорах, а FPGA поддерживают выполнение центральных частей приложения, требующих большого времени обработки, но допускающих аппаратную реализацию. Эти части приложений обычно содержат параллельные по данным перекрывающиеся вычисления, которые можно эффективно реализовать на основе мелкоструктурных архитектур, например, SIMD-архитектур (single-instruction, multiple-data) или систолических матриц. На рисунке показано, что при выполнении приложения на микропроцессоре может происходить вызов соответствующей архитектуры в реконфигурируемом процессоре для выполнения целевой операции. Для этого реконфигурируемый процессор может «на лету» сконфигурировать FPGA, в то время как другие процессоры системы выполняют вычисления.

При разработке приложений разработчики могут создавать такие аппаратно поддерживаемые части приложений с использование языков описания аппаратуры, таких как VHDL и Verilog. В некоторых системах для этого допускается использование языков высокого уровня, таких как Carte C и Carte Fortran в системах компании SRC Computers, Impulse C в системах Impulse Accelerated Technologies, Mitrion C в системах Mitrionics и Handel-C в системах Celoxica. Имеются также высокоуровневые графические средства разработки программ, такие как CoreFire от компании Annapolis Micro Systems, Viva от Starbridge Systems, Xilinx System Generator и Reconfigurable Computing Toolbox от DSPlogic. Обзор современных высокопроизводительных реконфигурируемых систем (High-Performance Reconfigurable Computing, HPRC), средств разработки и приложений содержится в специальном выпуске журнала Computer за март 2007 г.

Многие ранние системы HPRC, такие как SRC-6E и Starbridge Hypercomputer можно рассматривать как подсоединенные процессоры. В этих системах имелись два узла, один из которых строился на основе микропроцессоров, а другой – на основе FPGA. Эти два узла связывались напрямую, без использования какого-либо масштабируемого механизма соединений. В данной статье эти ранние системы не обсуждаются. Внимание уделяется масштабируемым параллельным системам, таким как Cray XD1, SRC-6 и SGI Altix/RASC, а также реконфигурируемым кластерам Beowulf.

В некоторых из этих архитектур узлы системы являются однородными, а в других – разнородными. В данном контексте однородный узел содержит процессорные элементы только одного типа, например, только микропроцессоры или FPGA. На основе этого различия авторы группируют современные системы HPRC в два основных класса: неоднородные системы с однородными узлами (uniform node nonuniform system, UNNS) и однородные системы с неоднородными узлами (nonuniform node uniform system, NNUS).

Примерами UNNS являются SRC-6 и Altix/RASC. Основным преимуществом UNNS является то, что поставщики могут изменять соотношение микропроцессорных и реконфигурируемых узлов в соответствие с требованиями приложений заказчиков. Этот подход чрезвычайно желателен с экономической точки зрения при наличии существенной разницы в цене микропроцессоров и FPGA, и он очень подходит для создания специализированных систем. Недостатком является то, что реконфигурируемый и микропроцессорный узла взаимодействуют через общую соединительную сеть, и в результате они конкурируют за ее пропускную способность. Кроме того, проблемой может стать обеспечение переносимости кода приложений даже на машину того же типа, но с другим соотношением микропроцессорных и FPGA-узлов.

В NNUS используется только один тип узла, и поэтому системный уровень является однородным. Однако в каждом узле содержатся оба типа ресурсов, и FPGA подсоединяются к микропроцессорам внутри узлов напрямую. Примерами таких систем являются Cray XD1 и реконфигурируемые кластеры. Основным недостатком NNUS является фиксированное соотношение микропроцессоров и FPGA. Однако они соответствуют модели SPMD (single-program, multiple-data), на которую опирается большинство парадигм параллельного программирования. Кроме того, низкий уровень задержки при взаимодействии микропроцессора с сопрорцессором FPGA может обеспечить высокую производительность многих приложений с интенсивной обработкой данных.

Новости мира IT:

Архив новостей

Последние комментарии:

Релиз ядра Linux 4.14  (6)
Пятница 17.11, 16:12
Apple запустила Pay Cash (2)
Четверг 09.11, 21:15
Loading

IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware

Информация для рекламодателей PR-акции, размещение рекламы — adv@citforum.ru,
тел. +7 985 1945361
Пресс-релизы — pr@citforum.ru
Обратная связь
Информация для авторов
Rambler's Top100 TopList liveinternet.ru: показано число просмотров за 24 часа, посетителей за 24 часа и за сегодня This Web server launched on February 24, 1997
Copyright © 1997-2000 CIT, © 2001-2015 CIT Forum
Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...