В этот раз темой номера является управление данными. Это очень широкая область. В тематической подборке четыре статьи, которые, в действительности, посвящены совсем разным направлениям в области управления данными. Для подготовки тематической части номера приглашенные редакторы не привлекались.
Первая статья тематической подборки называется «Брокер интеграции данных для систем здравоохранения» («A Data Integration Broker for Healthcare Systems»). Авторы статьи Дэвид Бадген, Майкл Ригби, Перл Бреретон и Марк Тернер (David Budgen, Durham University, Michael Rigby, Pearl Brereton, Mark Turner, Keele University).
Между информацией и технологией существует важная связь. С одной стороны, правительственные организации, компании и частные лица вверяют компьютерным системам беспрецедентные объемы индивидуальной информации. С другой стороны, сети расширяют возможности взаимодействия с возрастающей скоростью и пропускной способностью. Этот одновременный рост потребностей и возможностей создает благоприятную обстановку для сбора и интеграции информации из различных автономных источников. Однако при создании любого механизма сбора и хранения персональной информации, поступающей из нескольких источников, должны приниматься во внимание не только технические проблемы, но и права граждан и организаций, предоставляющих информацию.
Для достижения этой цели интеграция данных должна выходить за пределы возможностей статических корпоративных систем, моделируемых на основе текущего уровня исследований и разработок, и опираться на динамическое решение, основанное на сервисах. В сервис-ориентированной модели пользователи выбирают желаемые ими функции, что приводит к подбору соответствующих сервисов в то самое время, когда они требуются. Для систем здравоохранения это означает, что территориально распределенные и автономные организации, такие как больницы и социальные службы, смогут предоставлять свои функции в ответ на запрос пользователя, а программные сервисы помогут пользователю идентифицировать функции и сервисы, релевантные его запросу.
В здравоохранении информация является основным ресурсом, и динамическая природа сервис-ориентированной модели привлекательна для этой области, которая в большой степени зависит от данных и находится в постоянном изменении. В медико-санитарных разработках появляются все более совершенные диагностические и терапевтические методы, и требуется все более точные данные о прошлом и настоящем состоянии здоровья отдельных граждан. Данные могут быть чрезвычайно разнообразными, включая индивидуальные истории болезни, данные об оказании медицинской помощи и информацию об альтернативных практических методах. Проблема усугубляется отсутствием опыта у пользователей. По мере того как развитие технологии опережает уровень знаний пользователей, профессионалы, получившие в основном клиническую подготовку, начинают отказываться от использования распределенных систем накопления и представления данных, поскольку недостаточно хорошо умеют с ними работать.
Потребность работать с незнакомыми распределенными компонентами и осуществлять навигацию по громадным электронным файлам порождает новые риски того, что специалисты, нуждающиеся в информации, не смогут получить доступ к истории болезни пациента или неправильно ее поймут. Наличие таких рисков подрывает ту концепцию, что информационная технология в медицине должна способствовать повышению качества здравоохранения.
Побуждаемые возрастающими рисками в области здравоохранения и потенциальной возможностью избежать этих рисков на основе модели сервисов, авторы инициировали исследовательский проект с целью изучения того, можно ли преодолеть недостатки корпоративных систем с применением сервис-ориентированной архитектуры. Например, оказалось очень перспективным использовать для доставки данных сервис информационного брокера. Использование такого подхода обеспечивает возможность интеграции данных из автономных источников, поддерживая в то же время любые ограничения доступа к информации или ее использования, накладываемые организациями или правовыми и этическими принципами.
В результате своего исследования авторы пришли к парадигме «данные как услуга» и идее брокера доставки услуг. На основе этой парадигмы построен демонстрационный прототип интеграционного брокера неоднородных информационных ресурсов (Integration Broker for Heterogeneous Information Sources, IBHIS). IBHIS использовался для сбора информации в соответствии с шестью сценариями использования, разработанными совместно с оперативным персоналом Государственной службы здравоохранения Великобритании. Эта информация черпалась из трех университетских источников, основанных на использовании различной технологии баз данных.
Следующая статья представлена Питером Эйкен, Дэвидом Аллен, Бертом Паркером и Анжелой Маттиа (Peter Aiken, Virginia Commonwealth University, M. David Allen, Data Blueprint, Burt Parker, independent consultant, Angela Mattia, J. Sergeant Reynolds Community College) и называется «Оценка зрелости практики управления данными: самооценка сообщества» («Measuring Data Management Practice Maturity: A Community's Self-Assessment»).
По мере возрастания объемов потоков данных внутри организаций и между ними все более явной становится проблема, проистекающая из плохой организации практических процессов управления данными. Исследования показывают широкую распространенность этой проблемы.
Например, по сведениям компании PricewaterhouseCoopers в 2004 г. только в трети организаций имелся высокий уровень доверия к собственным данным, и только 18% организаций доверяло данным, полученным от других организаций. Кроме того, только у 40% организаций имелась утвержденная советом директоров документированная стратегия управления данными. В исследовательском сообществе существует мнение, что недостаточный уровень подготовки в области организации управления данными приводит к тому, что нормой являются неправильно спроектированные базы данных.
В соответствии с данными Джона Захмана, организации обычно расходуют от 20 до 40% своего IT-бюджета на эволюционирование своих данных путем миграции (изменение местоположения данных), преобразования (изменения формы или структуры данных) или очистки (изменение или повторный ввод данных для последующего использования).
Приблизительно у двух третей менеджеров, отвечающих за управление данными, имеется формальная подготовка в области управления данными; немного более чем в двух третях организаций используются методы управления метаданными или планируется их использование; примерно в половине организаций для управления метаданными используются CASE-средства и технологии репозиториев.
Комбинируя эти факты со своими собственными наблюдениями, авторы приходят к выводу о том, что большинство организаций может выиграть от применения процессов управления данными в масштабе организации. Неспособность управления данными как активом всей организации приводит к потерям соответствующей доли рынка, прибыли, стратегического преимущества и т.д. Притом, что опыт организаций мирового уровня показывает возможность достижения преимуществ за счет эффективного управления данными, должно представлять большой интерес инвестирование в данные как в единственный ресурс организации, который не может исчерпаться.
В исследовательской работе авторов преследовалось шесть целей, сгруппированных ими в две категории: цели описания сообщества и цели самосовершенствования. Цели первой категории объединяет желание лучше понять сообщество управления данными и его практический опыт: ассортимент методов, используемых в сообществе; распространение методов и процессов управления данными, в особенности, различные стадии зрелости управления данными в организациях; текущее состояние практики управления данными.
Цели категории самосовершенствования направлены на то, чтобы помочь сообществу в целом улучшить свои процессы управления данными за счет улучшенного понимания характеристик используемых в настоящее время методов управления данными; определения уровня технической репутации сообщества управления данными по сравнению, например, с сообществом разработчиков программного обеспечения; получения информации, полезной для разработки стратегии совершенствования используемых методов.
Отмечается что эти цели почти идентичны целям CMMI (Capability Maturity Model Integration): «CMMI создавалась для того, чтобы помочь разработчикам выбрать стратегии совершенствования процессов путем определения уровня зрелости существующих процессов и наиболее важных аспектов повышения качества программного обеспечения и улучшения процессов его разработки». Аналогично, цели авторов статьи состояли в том, чтобы помочь совершенствованию практики управления данными путем предоставления шкалы для измерения уровня зрелости применяемых методов и процессов управления данными. Результаты произведенной оценки могут помочь менеджерам данных понять и реализовать стратегии совершенствования процессов.
Авторами статьи «Сохраняющие конфиденциальность системы интеллектуального анализа данных» («Privacy-Preserving Data Mining Systems») являются Нан Жанг и Вей Жао (Nan Zhang, University of Texas at Arlington, Wei Zhao, Rensselaer Polytechnic Institute).
Методы интеллектуального анализа данных позволяют успешно извлекать знания из данных для поддержки разнообразных прикладных областей - маркетинг, предсказание погоды, медицинская диагностика, национальная безопасность и т.д., - но нерешенной проблемой остается анализ некоторых данных без нарушения конфиденциальности владельцев этих данных. Например, постоянной проблемой в приложениях здравоохранения является анализ конфиденциальных данных пациентов. Возрастающая потребность поддержки конфиденциальности привела к принятию Закона о преемственности страхования и отчетности в области здравоохранения (US Health Insurance Portability and Accountability Act, HIPAA) в США и Директивы о конфиденциальности в Европейском Союзе (European Union Privacy Directive), предписывающих защиту конфиденциальности в системах управления данными и анализа данных.
По мере распространения систем интеллектуального анализа данных возрастает потребность в поддержке конфиденциальности. Примером новых приложений, угрожающих конфиденциальности данных, являются системы оперативного сбора данных. Уже сегодня компании совместно используют модели интеллектуального анализа данных для получения более полных данных об общих клиентах и их покупательских предпочтениях.
Компьютерное сообщество должно отреагировать на проблему поддержки конфиденциальности при интеллектуальном анализе данных до того, как эти методы станут общераспространенными, и опасность нарушения конфиденциальности выйдет из-под контроля. Камнем преткновения является то, как можно обеспечить защиту конфиденциальности, сохранив полезность результатов интеллектуального анализа данных.
Этой проблеме посвящается множество исследований, но практические системы анализа данных, поддерживающие конфиденциальность, находятся на стадии исследования и прототипирования. Многие методы анализа данных с поддержкой конфиденциальности концентрируются на алгоритмических решениях и базовых математических средствах (http://www.cs.purdue.edu/homes/clifton/DistDM/kddexp.pdf, http://www.sigmod.org/record/issues/0403/B1.bertion-sigmod-record2.pdf), а не аспектах организации систем.
Целью авторов является исследование проблем поддержки конфиденциальности для выработки системного представления требований к архитектуре и принципов разработки, а также возможных решений, которые могут способствовать построению практических систем интеллектуального анализа данных, поддерживающих конфиденциальность.
Последняя статья тематической подборки называется «Согласованность данных для совместного кэширования в мобильных средах» («Data Consistency for Cooperative Caching in Mobile Environments»). Ее авторы Джианнонг Као, Янг Жанг, Гуохонг Као и Ли Ксай (Jiannong Cao, Hong Kong Polytechnic University, Yang Zhang, Guohong Cao, Pennsylvania State University, Li Xie, Nanjing University).
Развитие беспроводных коммуникаций и мобильных технологий стимулируется возрастающей потребностью пользователей в повсеместном доступе к информации и сервисам на основе Internet. Однако из-за ограниченной емкости батарей пользователи для экономии энергии часто вынуждаются отключать мобильные устройства от сети. Кроме того, пропускная способность беспроводных линий ниже, чем у проводных линий, и беспроводные каналы являются менее устойчивыми, что часто вызывает перегрузку сети и потерю пакетов. Эти проблемы делают беспроводные коммуникации ненадежными и вызывают потребность в эффективных механизмах доступа к информации.
Совместное кэширование способствует повышению эффективности системы, поскольку позволяет нескольким мобильным пользователям сети совместно использовать и согласовывать кэшированные данные. За счет совместного кэширования часто запрашиваемой информации мобильным устройствам не всегда приходится посылать запросы к источнику данных. Кроме сокращения времени ожидания результатов запросов, этот подход позволяет уменьшить коммуникационные накладные расходы мобильных хостов и энергопотребление. Однако при наличии ненадежных коммуникаций и мобильности пользователей трудно поддерживать согласованность кэшей.
Мобильные беспроводные среды можно нестрого классифицировать на сети, основанные на инфраструктуре, и временные (ad hoc) сети. В первом случае сообщения, посылаемые или принимаемые мобильным хостом, ретранслируются фиксированным сетевым устройством, таким как мобильная станция поддержки (mobile support station, MSS). MSS похожа на сервер в традиционной клиент-серверной распределенной системе в том отношении, что на ней сосредотачиваются все данные источников. Другие мобильные хосты могут извлекать данные из MSS и самостоятельно кэшировать их копии.
В отличие от этого, во временных сетях в MSS не сохраняются данные, и эти станции используются всего лишь как точки доступа к Internet. Во временных сетях все элементы данных, которые можно запрашивать, распределены между мобильными хостами. Поэтому стратегии согласования кэшей, применяемые в односкачковых (single-hop) беспроводных мобильных сетях, оказываются непригодными в многоскачковых (multihop) временных мобильных сетях.
В последние годы исследователи предложили множество стратегий для поддержки согласованности кэшей. Однако у каждой стратегии имеются собственные целевые установки и сценарии применения. Отсутствие единообразных и структурированных методов затрудняет сравнение эффективности этих стратегий. Для решения этой проблемы авторы разработали трехмерную модель, в которой фиксируются основные свойства схем согласования кэшей, и обеспечивается основа для оценки как существующих, так и новых стратегий.
На основе этой модели предложена гибридная, обобщенная стратегия согласования кэшей на основе одноранговых узлов ретрансляции (relay-peer-based cache consistency,RPCC). Поскольку в RPCC используются одноранговые узлы ретрансляции между хостами-источниками данных и хостами кэширования для ретрансляции обновленной информации, эта стратегия позволяет разделить процесс инвалидации кэшей на две асинхронных процедуры. Кроме того, RPCC удовлетворяет различным требованиям со стороны приложений путем обеспечения гибкого и удобного способа установки уровня согласованности и расстояния между хостами-источниками данных и одноранговыми узлами ретрансляции.
Три статьи апрельского номера опубликованы вне тематической подборки. Дирк Рилль (Dirk Riehle, SAP Research) представил статью «Экономическое обоснование программного обеспечения с открытыми кодами: перспективы акционеров» («The Economic Motivation of Open Source Software: Stakeholder Perspectives»).
Появление программного обеспечения с открытыми кодами приносит нечто большее, чем удешевление программного обеспечения для пользователей. Оно также производит существенные изменения в экономическом взаимодействии игроков в экосистеме программного обеспечения. Для многих людей open source воплощает конкретный подход к разработке программного обеспечения, даже некоторый стиль жизни. Но open source - это также и надежная бизнес-стратегия. Рон Гольдман (Ron Goldman) и Ричард Габриэль (Richard Gabriel) полагают, что компаниям следует использовать программное обеспечение с открытыми кодами для взращивания своих сообществ пользователей и создания экосистемы вокруг своих продуктов и услуг. Программное обеспечение с открытыми кодами обычно бывает бесплатным, и его открытость допускает адаптацию к конкретным нуждам пользователей. Большинство лицензий категории open source позволяет пользователям далее распространять программное обеспечение, допуская его изменения и взимание платы с получателей, если изменения исходного кода остаются публично доступными (www.opensource.org).
Имеются две разновидности программного обеспечения с открытым кодом. Открытые коды сообщества (community open source) - это программное обеспечение, разрабатываемое сообществом. Таким программным обеспечением не владеет какая-либо одна корпорация; широкое сообщество добровольцев определяет, какие дополнения и изменения принимаются в исходную базу кода, и где производится управление проектом. Решения о программном обеспечении принимают не компании, а индивидуальные разработчики (комитеры, committer), как при разработке Web-сервера Apache.
Коммерческие открытые коды (commercial open source) - это программное обеспечение, которым владеет и которое разрабатывает некоторая коммерческая компания. Компания поддерживает свои авторские права и определяет, что принимается в базу кода программного обеспечения, и что следует реализовать далее, как в случае компании MySQL и ее СУБД MySQL.
Предыдущие работы в области экономики открытых кодов сообщества фокусировались, главным образом, на экономике рабочей силы (labor economics), т.е. на часто поразительно огромном объеме труда, вкладываемого добровольцами в развитие программного обеспечения с открытыми кодами. Эрик Реймонд (Eric Raymond) замечает, что разработчики участвуют в проектах программного обеспечения с открытыми кодами для собственного удовольствия, которое им приносит повышение репутации среди коллег. К аналогичным заключениям приходят Эрнан Харуви (Ernan Haruvy) и его коллеги.
Тем временем, Джошуа Лернер (Joshua Lerner) и Жан Тироль (Jean Tirole) утверждают, что разработчики участвуют в проектах свободного программного обеспечения для подтверждения уровня своих технических способностей и повышения перспектив получения работы у будущих нанимателей. А Карим Лахмани (Karim R. Lakhani) и Роберт Вольф (Robert G. Wolf) говорят, что истинным мотивом для участия разработчиков в проектах программного обеспечения с открытыми кодами является то, что они получают удовольствие от своей работы, хотя участники опроса также сообщали и о важности финансовых стимулов.
Хотя эти исследования частично разъясняют побудительные причины добровольной работы, они не обеспечивают ответа на вопрос, почему сегодня компании нанимают людей, выполняющих работу в проектах свободного программного обеспечения в рабочее время. В данной статье этот вопрос исследуется с позиций системного интегратора, независимого поставщика программного обеспечения и служащего.
Крупные системные интеграторы оказываются в наибольшем выигрыше от программного обеспечения с открытыми кодами, поскольку они увеличивают прибыль за счет прямого сокращения расходов и возможности получения большего числа заказов вследствие более гибкой ценовой политики. Каждый доллар, сэкономленный из-за отсутствия потребности платить за лицензию софтверной компании, может расходоваться на развитие услуг заказчикам.
Независимые поставщики программного обеспечения обычно обеспечивают лишь несколько программных продуктов, а иногда специализируются на одном продукте. Для понимания стратегии независимых софтверных компаний требуется сравнить расходы и ценообразование для программного обеспечения с открытыми кодами и закрытого программного обеспечения, и во многих случаях это сравнение говорит в пользу open source.
Ориентация компаний на программное обеспечение и услуги на основе открытых кодов усложняет жизнь служащих. Служащие могут накопить меньше знаний, специфичных для компании, просто потому, что этих знаний объективно меньше существует. Служащих проще заменить людьми со стороны. В то же время, повседневная работа служащего позволяет ему овладеть не привязанными к конкретной компании знаниями о некотором проекте open source, которым могут начать заниматься и другие наниматели. Поэтому такой служащий может найти новую работу быстрее, чем прежде.
Статью «Использование и расширение архитектур систем команд 20-го века» («Embracing and Extending 20th-Century Instruction Set Architectures») написали Джо Гебис и Дэвид Паттерсон (Joe Gebis, David Patterson, University of California, Berkeley).
Недавнее расширение архитектуры 80x86 с 32-битовой на 64-разрядную адресацию означает, что эта заслуженная архитектура, появившаяся в 1978 г., останется в ходу еще несколько десятилетий. По мнению авторов, исследователям следует заняться совершенствованием старых архитектур для их лучшего соответствия требованиям IT 21-го века.
Для иллюстрации такого подхода предлагается пример добавления новой функциональной возможности с применением небольшого набора расширений. Архитектуры 80x86 и PowerPC расширяется с целью поддержки полной векторной функциональности, главным образом, за счет развития мультимедийных расширений этих архитектур. Предлагаемые расширения обеспечивают улучшенную модель для компиляторов и более понятную модель для программистов. Векторные операции могут также помочь справиться с узкими местами памяти, питания и производительности для приложений параллельной обработки данных, например, научных и мультимедийных приложений.
В одном из исследований было проведено сравнение эффективности четырех научных приложений при использовании четырех 64-разрядных систем (Power 4, Itanium 2, NEC и Cray). Векторные системы NEC и Cray обеспечили наивысшую общую и пиковую производительность при самой низкой тактовой частоте. Суперскалярная система Power 4 и система с командными словами сверхбольшой длины (very long instruction word, VLIW) на трех из четырех программ смогли обеспечить общую производительность, составляющую от 5 до 10% от их пиковой производительности. Аналогичные результаты были получены в другом исследовании, в котором сравнивалась производительность и энергопотребление VLIW- и векторных систем на промышленном эталонном тестовом наборе EEMBC, имитирующем встроенные мультимедийные приложения.
Можно подумать, что пропаганда таких изменений является пустой затеей, поскольку ни одна компания не станет подвергать риску свое дорогостоящее программное обеспечение. Однако, хотя обратная совместимость является священной, следует отметить, что за время существования архитектур 80x86 и PowerPC в их систему команд в среднем добавлялось более чем по одной команде в месяц.
Завершает апрельский номер статья «Развитие поддержки отладки для сложных систем на кристалле» («Boosting Debugging Support for Complex Systems on Chip»), авторами которой являются Альбрехт Майер, Гарри Зиберт и Клаус Макдональд-Майер (Albrecht Mayer, Technical University of Munich, Harry Siebert, University of Applied Sciences, Munich, Klaus D. McDonald-Maier, University of Essex, UK).
В архитектуре «система на кристалле» (system-on-chip, SoC) развитая интеграционная технология используется для создания новых интересных продуктов. В настоящее время SoC повсеместно применяется в широком диапазоне продуктовых секторов, далеко не только при производстве портативных устройств с низким потреблением электроэнергии. Например, в автомобильной промышленности SoC позволяют уменьшить выбросы двигателя и повысить уровень безопасности за счет поддержки управляющих систем, действующих в режиме жесткого реального времени. Во многих лидирующих на рынке автомобилях используется до 100 SoC или микроконтроллеров.
Однако в усложненных разработках, признанных удовлетворить развивающиеся запросы потребителей, возникают проблемы, с которыми не могут справиться разработчики, и которые иногда приводят к снижению надежности систем. По данным исследований, 77% процентов случаев отказа электронных компонентов автомобилей связано с ошибками в программном обеспечении. Обнаружение и исправление этих ошибок до того, как с их проявлением столкнутся потребители, позволяют поддержать репутацию производителей и сохранить доверие потребителей к приложениям обеспечения жизненной безопасности.
Для сложных систем, таких как система управления двигателем и коробкой передач автомобиля, для поддержки качественного программного обеспечения и надежных продуктов разработчики должны понимать и анализировать поведение во всех возможных сценариях. При наличии правильных инструментальных средств они могут преодолеть проблемы, обеспечивая своевременное появление надежных продуктов в рамках бюджетов разработки. В действительности, разработчики теперь считают эффективные средства разработки решающим фактором выбора платформы SoC.
Другим стимулом к созданию усовершенствованных инструментальных средств является возрастающая стоимость разработки, поскольку решение задач верификации и разработки, встающих после производства кристалла, занимает примерно половину всего времени создания системы. По данным Национального института стандартов и технологий США более тщательное тестирование и более эффективная отладка могут снизить на одну треть расходы в 60 миллиардов долларов, вызываемые ошибками в программном обеспечении SoC.
В прошлом разработчики отлаживали встроенные системы путем подключения к внешним интерфейсам печатной платы логических анализаторов и осциллографов. Однако по мере возрастания уровня интеграции и появления SoC традиционные интерфейсы, такие как системная шина, переместились внутрь кристалла, и возможность подключения внешних инструментов исчезла. Для обеспечения возможности отладки требуется обеспечить разработчикам какой-либо доступ к внутренним интерфейсам SoC.
Доступ к внутренностям SoC можно получить путем использования высокоуровневых программных моделей (обычно C-моделей), позволяющих производить совместную разработку системы, включая и аппаратуру, и программное обеспечение. В этом случае в памяти инструментального компьютера хранится все состояние моделируемой системы, что обеспечивает ее неограниченную видимость. Однако модели не всегда ведут себя так, как реальные системы. В реальном мире могут происходить события, не предусмотренные внутри модельной системы. Кроме того, значительную часть работы занимает моделирование будущей среды SoC. Тем не менее, на начальной стадии разработки, когда аппаратуры еще нет, без C-моделей обойтись почти невозможно.
Альтернативой C-моделированию является быстрое прототипирование с использованием методов эмулирования аппаратуры. Когда разработчикам становится доступен кристалл, они могут использовать для эмуляции аппаратуры внутрисхемный эмулятор (in-circuit emulator, ICE). ICE ведут себя подобно производственным SoC, но обеспечивают дополнительные ресурсы, которые позволяют разработчикам контролировать внутреннее поведение системы. Классический ICE строится на основе специальных эмулирующих компонентов с дополнительными перемычками, позволяющими обеспечить видимость внутренних перемычек, таких как системная шина (bond-out chip, кристалл с дополнительными контактными площадками).
Для обеспечения дополнительных перемычек требуется разработка специальной монтажной платы. Важно и то, что эти устройства также ведут себя не совсем так, как производственная SoC, в результате чего отладка может стать недостоверной. Кроме того, они работают на более высоких внутренних частотах, чем те, которые поддерживаются в обычных SoC.
В качестве альтернативы громоздким специализированным ICE, инфраструктура разработки может быть интегрирована в производственные SoC, делая возможной их самоэмуляцию. В настоящее время в большинстве процессорных ядер имеются схемы, позволяющие управлять ими с применением внешних отладочных средств. Разработчики могут остановить процессорное ядро при достижении заданного адреса программы и произвести «постсмертную» отладку. В некоторых процессорных ядрах имеется возможность отладочных остановов при доступе к данным по заданным адресам.
Технология отладки на основе ICE широко используется, поскольку поведение ICE достаточно точно соответствует поведению целевой SoC. Однако «постсмертная» отладка позволяет разработчикам проанализировать состояние системы только после ее останова. Многие поставщики SoC борются с этим ограничением путем обеспечения доступа к памяти во время работы системы, но более важно предоставить возможность трассировки в реальном времени.
Кроме того, при работе механических систем требуется постоянное управление, что делает «постсмертную» отладку просто невозможной. Дисковое устройство или мотор автомобиля могут быть неисправимо повреждены, если при неожиданной остановке процессора будет отключена управляющая электроника. Для многих механических систем также требуется калибровка, например, настройка параметров контура регулирования во время работы системы, для чего требуется обеспечить некоторый доступ к внутренней памяти системы.
Работая совместно с ведущими автомобильными фирмами, компания Infineon Technologies разработала технологию package-sized ICE (PSI), позволяющую интегрировать калибровочную память и поддержку многоядерной отладки в производственные SoC.