Logo Море(!) аналитической информации!
IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware
Скидка до 20% на услуги дата-центра. Аренда серверной стойки. Colocation от 1U!

Миграция в облако #SotelCloud. Виртуальный сервер в облаке. Выбрать конфигурацию на сайте!

Виртуальная АТС для вашего бизнеса. Приветственные бонусы для новых клиентов!

Виртуальные VPS серверы в РФ и ЕС

Dedicated серверы в РФ и ЕС

По промокоду CITFORUM скидка 30% на заказ VPS\VDS

VPS/VDS серверы. 30 локаций на выбор

Серверы VPS/VDS с большим диском

Хорошие условия для реселлеров

4VPS.SU - VPS в 17-ти странах

2Gbit/s безлимит

Современное железо!

2004 г.

Всегда ли стоит рассчитывать на худшее?

Сергей Кузнецов

Обзор мартовского, 2004 г. номера журнала Computer (IEEE Computer Society, Vol. 37, No. 3, March 2004)

Авторская редакция.
Cокращенный вариант обзора опубликован в журнале "Открытые системы", #04/2004

Темой номера является "Проектирование в расчете не на наихудший вариант" ("Better than Worst-Case Design"). Смысл темы поясняется во вводной заметке главного архитектора микропроцессоров Pentium II, III и IV, а теперь независимого консультанта Боба Колвелла (Bob Colwell). Заметка называется "Нам может потребоваться новый блок принятия решений" ("We May Need a New Box"). В последние 35 лет при проектировании микропроцессоров успешно использовался подход, основанный на учете наихудших случаев поведения микросхем. Основной числовой характеристикой поведения микросхемы является задержка на распространение сигнала. Производители гарантировали этот показатель только в среднем. Для конкретных микросхем значения показателя могли несколько различаться, но на уровне микропроцессора результаты проектирования в расчете на наихудший вариант поведения микросхем в целом приводили к успешным результатам. Однако в настоящее время проектировщики микропроцессоров вынуждены либо использовать новую технологию, ограничения которой не полностью известны, либо применять старую технологию при решении новых проблем, лежащих за пределами традиционной применимости старой технологии. В обоих случаях при принятии проектных решений приходится отходить от расчета на наихудший вариант.

Первая статья тематической подборки называется "Надежное и эффективное проектирование систем на кристалле" ("Reliable and Efficient System-on-Chip Design"). Автор статьи - Нареш Шэнбхэг (Naresh R. Shanbhag, University of Illinois at Urbana-Champaign). Шумы электропитания (броски и падение напряжения), утечка тока, шум разводки влияют на фазу и амплитуду сигналов, а изменения характеристик процессов приводят к неопределенности и порождают несоответствие между путями сигналов. И шумы, и изменения характеристик процессов влияют на надежность системы, порождая логические ошибки, которые могут привести к сбою системы. С целью повышения производительности микроэлектронная промышленность ориентируется на использование миллимикронной технологии. К сожалению, проектные методы повышения эффективности энергопотребления и увеличения производительности лишь усугубляют проблему надежности. Хотя исследователи разрабатывают сложные системы управления питанием и дорогостоящие конструктивные схемы, шумовые эффекты и возрастающий уровень изменения характеристик процессов порождают серьезные вопросы о возможности применения миллимикронной технологии для создания надежных и эффективных компьютерных систем. Для решения этой проблемы в 2003 г. были созданы два межуниверситетских центра - Gigascale Silicon Research Center и Center for Circuit and System Solutions. Исследования опираются на теоретико-коммуникационную парадигму для построения надежных и эффективных систем на кристалле. Интегрированные микросистемы представляются как миниатюрные коммуникационные сети, функционирующие при наличии шума. Выделяются два направления исследований: информационно-теоретические методы определения нижних границ энергопотребления при наличии шума; схемотехнические и алгоритмические методы шумоподавления для достижения этих границ.

Августус Ухт (Augustus K. Uht, University of Rhode Island) является автором статьи "Выход за пределы спецификаций наихудших вариантов с использованием TEAtime" ("Going Beyond Worst-Case Specs with TEAtime"). При проектировании компьютерной системы в расчете на худший вариант обеспечивается система, которая может устойчиво работать в широком диапазоне условий. Ориентация на худший случай, например, на предельно допустимую температуру внешней среды приводит к занижению тактовой частоты системы. Вместе с тем, некоторые из допустимых условий реально возникают крайне редко, и в оставшееся время система могла бы вполне устойчиво работать на большей частоте. Предлагаемое решение TEAtime (TEA - от timing-error-avoidance) заключается в том, что в систему встраивается дополнительный компонент, который определяет наличие в системе ошибки, связанной со слишком высокой тактовой частотой, и снижает в этом случае тактовую частоту. Имеется и способ установления ситуаций, в которых тактовую частоту можно повысить. Реализован аппаратный прототип системы, основанный на идее TEAtime.

Статью "Развитие типичной темы технологии полупроводников с использованием Razor" ("Making Typical Silicon Matter with Razor") написали Тодд Остин, Дэвид Блау, Тревор Медж и Кристиан Флаутнер (Todd Austin, David Blaauw, Trevor Mudge, University of Michigan, Krisztian Flautner, ARM Ltd.). Авторы начинают статью со старой поговорки "Если вы никогда не терпите неудач, значит, вы недостаточно хорошо стараетесь". В данном случае имеется в виду проектирование микропроцессоров в расчете на наихудший вариант. По мнению авторов, система должна быть оптимизирована в расчете не на наихудший, а на типичный случай. Наихудшие случаи возникают редко и могут обрабатываться специальным образом, возможно, с дополнительными накладными расходами. Описываемая технология Razor позволяет создавать конвейерные микропроцессоры с низким уровнем энергопотребления, достаточным для обеспечения устойчивой работы в типичных случаях. В аппаратуру включаются дополнительные компоненты, распознающие ошибки и производящие в этом случае за счет дополнительного потребления энергии восстановление корректного состояния конвейера. При прогоне на созданном прототипе тестовых наборов SPEC2000 было продемонстрировано сокращение расходов на электропитание на 64%, в то время, как падение производительности по причине восстановления после ошибок составило менее 3%.

Наконец, последняя статья тематической подборки называется "Повышение скорости обработки за счет использования аппроксимирующих схем" ("Speeding Up Processing with Approximation Circuits"). Ее написал Ши-Лиен Лу (Shih-Lien Lu, Intel). Современные суперскалярные процессоры являются синхронными. Для каждого устройства, включаемого в конвейер, известна верхняя оценка его времени задержки, и только после истечения этого времени результаты отправляются на следующее устройство конвейера. Обычно устройство завершает вычисления раньше истечения максимального времени задержки, но для гарантирования корректности результата система должна ждать все это время. Идея автора состоит в том, чтобы сделать устройства с наибольшим временем задержки аппроксимирующими. На большинстве входных данных такие устройства будут выдавать корректные результаты за существенно меньше время. Кроме того, устройство будет само распознавать случаи, когда приближенные результаты не являются корректными, и информировать систему о необходимости восстановления корректного состояния конвейера. Описываются возможные подходы к построению аппроксимирующих сумматоров, умножителей и других критических логических устройств. Автор полагает, что в будущем следует ожидать перехода к асинхронным конвейерам, когда каждое устройство сообщает о завершении своей работы немедленно после получения корректных результатов. Но для этого необходимо решить проблему синхронизации асинхронно выполняемых частей конвейера.

Вне тематической подборки опубликованы еще две статьи. Дуг Бюргер и Джеймс Гудман (Doug Burger, University of Texas at Austin, James R. Goodman, University of Auckland) представили статью "Архитектуры с миллиардами транзисторов: снова о том, что есть, и о том, что было" ("Billion-Transistor Architectures: There and Back Again"). В 1997 г. Бюргер и Гудман были приглашенными редакторами специального выпуска журнал Computer, посвященного мультипроцессорным архитектурам с миллиардами транзисторов (BTA - Billion-Transistor Architectures) (Computer, V. 30, No 9, September 1997). Теперь они сочли полезным вернуться к статьям того номера и посмотреть, насколько оправдались ожидания авторов представленных в нем статей. В этом обзоре мы не можем касаться деталей этих статей, но заметим, что, по мнению Бюргера и Гудмана, ни одна из предлагавшихся в статьях идей не стала доминирующей. В средней части статьи Бюргер и Гудман отмечают две тенденции, которые были недооценены в 1997 г. Первая касается исключительно быстрого роста тактовой частоты процессоров, вторая - вопросов статического и динамического потребления энергии. Наконец, в заключительной части статьи авторы обсуждают некоторые новые направления исследований в области BTA. Как водится, эти направления оказываются очень близкими к тому, чем в настоящее время занимаются сами авторы, - разные аспекты параллелизма.

Наконец, последняя статья сентябрьского номера написана Питером Маурером (Peter M. Maurer, Baylor University) и называется "Метаморфное программирование: нетрадиционная высокая производительность" ("Metamorphic Programming: Unconventional High Performance"). Статья не дает возможности полностью понять суть предлагаемого подхода, поскольку вразумительное изложение идей отсутствует. Понятно, что "метаморфное" программирование по Мауреру является развитием подхода полиморфного программирования, где полиморфизм понимается в духе Си++. Возможность связывать с виртуальным методом класса разные реализации, и разрешение ссылок на тела функций во время выполнения программы обобщается на возможности динамического переопределения тела функции, динамического изменения типа элемента данных и т.д. В примерах, представленных на Си++ желаемая автором функциональность достигается активным использованием указателей на функции. Можно согласиться с автором, что ему действительно удалось нарушить правила хорошего программирования, но трудно поверить, что таким образом ему удалось добиться повышения быстродействия алгоритмов в несколько раз. Каких-либо разъяснений этого эффекта автор не приводит. Мне кажется, что редакция журнала опубликовала эту статью, главным образом, для того, чтобы увеличить поток откликов читателей.

Бесплатный конструктор сайтов и Landing Page

Хостинг с DDoS защитой от 2.5$ + Бесплатный SSL и Домен

SSD VPS в Нидерландах под различные задачи от 2.6$

✅ Дешевый VPS-хостинг на AMD EPYC: 1vCore, 3GB DDR4, 15GB NVMe всего за €3,50!

🔥 Anti-DDoS защита 12 Тбит/с!

VPS в 21 локации

От 104 рублей в месяц

Безлимитный трафик. Защита от ДДоС.

🔥 VPS до 5.7 ГГц под любые задачи с AntiDDoS в 7 локациях

💸 Гифткод CITFORUM (250р на баланс) и попробуйте уже сейчас!

🛒 Скидка 15% на первый платеж (в течение 24ч)

Новости мира IT:

Архив новостей

IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware

Информация для рекламодателей PR-акции, размещение рекламы — adv@citforum.ru,
тел. +7 495 7861149
Пресс-релизы — pr@citforum.ru
Обратная связь
Информация для авторов
Rambler's Top100 TopList liveinternet.ru: показано число просмотров за 24 часа, посетителей за 24 часа и за сегодня This Web server launched on February 24, 1997
Copyright © 1997-2000 CIT, © 2001-2019 CIT Forum
Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...