Logo Море(!) аналитической информации!
IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware
Скидка до 20% на услуги дата-центра. Аренда серверной стойки. Colocation от 1U!

Миграция в облако #SotelCloud. Виртуальный сервер в облаке. Выбрать конфигурацию на сайте!

Виртуальная АТС для вашего бизнеса. Приветственные бонусы для новых клиентов!

Виртуальные VPS серверы в РФ и ЕС

Dedicated серверы в РФ и ЕС

По промокоду CITFORUM скидка 30% на заказ VPS\VDS

VPS/VDS серверы. 30 локаций на выбор

Серверы VPS/VDS с большим диском

Хорошие условия для реселлеров

4VPS.SU - VPS в 17-ти странах

2Gbit/s безлимит

Современное железо!

Как нам обустроить TCP для 10-гигабитного Ethernet

Сергей Кузнецов

Обзор ноябрьского 2004 г. номера журнала Computer (IEEE Computer Society, V. 37, No 11, ноябрь, 2004).

Авторская редакция.
Также обзор опубликован в журнале "Открытые системы"

Темой ноябрьского номера журнала являются архитектурные и операционные аспекты современных центров данных. Приглашенные редакторы тематической части номера - Кришна Кант и Прасант Мохапатра (Krishna Kant, Intel, Prasant Mohapatra, University of California, Davis). Их вводная заметка так и называется - "Центры данных в Internet" ("Internet Data Centers"). Традиционно исследования, посвященные сетевым центрам данных, концентрируются вокруг изолированного набора проблем, включающих балансировку и распределение загрузки, организацию Web-серверов, баз данных и серверов приложений. Причинами такого положения дел являются закрытость архитектуры и функционирования коммерческих центров данных, использование собственных сетевых средств и протоколов и потребность в минимизации потенциальных нарушений функционирования в результате применения ненадежной технологии. Однако в настоящее время проводится ряд разработок, которые вынуждают обратить особое внимание на архитектурные и операционные аспекты современных центров данных. Авторы классифицируют возникающие проблемы в пять основных категорий. Первая категория относится к сетевой среде центров данных. В настоящее время в центрах данных используется Ethernet для обеспечения сетевого трафика и волоконно-оптические каналы для организации среды хранения данных. В кластерных организациях серверов баз данных и приложений для обеспечения быстрых межпроцессных взаимодействий применяются Myrinet, InfiniBand или QsNet. С появлением десятигигабитной архитектуры Ethernet и аппаратной реализации основных протоколов становится возможно использовать Ethernet для обеспечения всех видов трафика центра данных. В этом подходе наиболее привлекательным является снижение стоимости, громадный накопленный опыт использования протоколов Ethernet и упрощение сетевой инфраструктуры. Однако для перехода к единой сетевой среде требуется решение ряда проблем: эффективная высокоскоростная реализация основных уровневых протоколов (например, iSCSI, TCP, RDMA и SSL); совершенствование качества обслуживания; усложненные механизмы обеспечения высокой доступности; развитые средства безопасности. Для решения этих проблем требуются исследования в области сетевых протоколов всех уровней. Вторая категория проблем связана с возможностью перехода от использования симметричных мультипроцессорных аппаратных платформ (SMP) центров данных к кластерным платформам. К преимуществам кластерных решения относятся возможность инкрементной модернизации, повышенный уровень гибкости, потенциально повышенная отказоустойчивость. Переход к кластерным платформам затрудняется сложностью портирования унаследованных приложений, разработаннных и настроенных в расчете на SMP. Кроме того, для истинной реализации потенциала кластерной архитектуры центров данных необходимо решить проблемы автоматизации расчленения приложений, обеспечения служб эффективного совместного использования и репликации данных, служб мониторинга и настройки производительности и служб мониторинга сбоев и восстановления. Третья категория включает проблемы эффективного использования ресурсов. Обычно центры данных функционируют на очень низком среднем уровне загрузки ресурсов. Отчасти это необходимо для обеспечения резервных мощностей на случай взрывного трафика, однако является и результатом умышленного изолирования приложений для обеспечения более высокого уровня доступности, упрощения диагностирования, поддержки и модернизации. Если бы можно было виртуализировать центр данным с сохранением всех характеристик реального центра, это позволило бы существенно сократить требуемое число серверов с соответствующим снижением стоимости аппаратуры, потребляемой энергии, сетевой инфраструктуры и т.д. Развитие концепция виртуализации приводит к понятию "виртуального кластера", динамически создаваемого из реальных или виртуальных компонентов: машин, устройств, каналов, коммутаторов и маршрутизаторов. Среди проблем организации виртуальных кластеров авторы выделяют организацию обеспечения сервиса, особенности соглашений об уровне обслуживания, обеспечение безопасности. К четвертой категории отнесены проблемы управления инфраструктурой. По мере возрастания размеров и мощности центра данных проблемы управления инфраструктурой становятся критичными. Управление запасами аппаратных компонентов усложняется настолько, что требуется автоматизация. Для поддержки операций резервного копирования, модификаций аппаратуры и программного обеспечения, обновления средств защиты от вирусов и т.д. в разнородной программно-аппаратной среде центра данных могут потребоваться новые технологии, алгоритмы и методы управления. Отдельной серьезной проблемой является управление потребляемой мощностью питания и выделяемой тепловой мощностью. Наконец, к последней, пятой категории проблем авторы относят проблемы снижения стоимости функционирования. По мере того, как центры данных обеспечивают больший трафик, более сложные услуги и более развитую функциональность, все более существенной частью полной стоимостью владения (Total Cost Ownership, TCO) становится стоимость функционирования и управления (Operation & Management, O&M). В современных центрах данных O&M составляет около 80% от TCO. Это обстоятельство привело к направлению самонастраивающихся (autonomic) компьютерных систем, лидером в котором является IBM. По отношению к центрам данных требуются самомониторинг/самоконфигурирование, самооптимизация, самовосстановление и самозащита. Для решения этого класса проблем требуются междисциплинарные исследования, совместно проводимые специалистами разных исследовательских организаций.

После столь долгого пересказа короткой редакторской заметки (мне кажется, что она того заслуживает по причине своего фундаментального, постановочного характера) перейдем к основным статьям тематической подборки. Статья "SoftUDC: программного поддерживаемый центр данных для рентабельного компьютинга" ("SoftUDC: A Software-Based Data Center for Utility Computing") представлена девятью авторами из компании Hewlett-Packard. Первый в списке авторов Махеш Каллахалла (Mahesh Kallahalla). Типичная корпоративная IT-среда включает многочисленные независимые и распределенные серверы, сети и устройства хранения данных. Для повышения эффективности потребители все чаще желают иметь единое средство управления этими разнородными системами. Подход рентабельного компьютинга облегчает достижение этой цели, агрегируя все такие системы в единый пул ресурсов с централизованным управлением. Для соответствия ожиданиям пользователей среда рентабельного компьютинга должна соответствовать нескольким ключевым требованиям: (a) единообразное управление, т.е. обеспечение администраторов IT единым пунктом управления инфраструктурой; наличие центральной консоли упрощает администрирование и позволяет автоматизировать многие задачи; (b) независимость от физической конфигурации, т.е. предоставление администратору возможности развертывания приложений и изменения конфигураций систем без потребности физической переделки инфраструктуры; (c) совместное использование ресурсов несколькими приложениями, причем предоставляемые им виртуальные ресурсы могут превышать возможности физических ресурсов; (d) изолирование ресурсов, т.е. обеспечение полного административного контроля и создание для иллюзии полного владения ресурсами. В разработанном авторами рентабельном центре данных эти требования удовлетворяются благодаря виртуализации серверных и сетевых ресурсов, а также ресурсов хранения данных. В основе SoftUDC лежит монитор виртуальных машин (Virtual Machine Monitor, VMM), выполняемый на каждом сервере. VMM поддерживает выполнение нескольких виртуальных машин, обеспечивая каждую виртуальную машину виртуальными сетевыми ресурсами и ресурсами хранения данных, и связывает несколько виртуальных машин, выполняемых на разных серверах, в изолированную виртуальную ферму. Управляющая система SoftUDC действует на все VMM, обеспечивая единую консоль с которой администратор может развертывать службы и модифицировать виртуальные фермы без потребности реконфигурирования физической инфраструктуры. Автоматизируются многие административные задачи, включая развертывание новых приложений и динамическую балансировку загрузки. К каждому VMM добавляется сторож (gatekeeper), который служит посредником для всего ввода-вывода и сетевого трафика, генерируемых виртуальными машинами. Этот компонент обеспечивает управление доступом и обеспечивает коммуникации и безопасный ввод-вывод. В разработанном прототипе для поддержки виртуальных машин используется система Xen (P. Barham et al. "Xen and the Art of Virtualization", Proc. 19th ACM Symp. Operating Systems Principles, 2003).

Следующая статья называется "Нагрузка TCP для серверов центров данных" ("TCP Onloading for Data Center Servers"). У статьи снова много (восемь) авторов (все представляют компанию Intel), и я опять укажу только первого в списке: Грег Регнаер (Greg Regnier). Исследования авторов статьи показали, что при обработке прикладных данных на основе протоколов стека TCP/IP (при использовании Gigabit Ethernet) при полной загрузке процессора удается получить пропускную способность около 750 Mbps при приеме данных и 1 Gbps при передаче. Это делает проблематичным эффективную поддержку TCP/IP для ожидаемой в ближайшем будущем десятигигабитной технологии Ethernet. В настоящее время обсуждается и начинает внедряться подход к разгрузке серверов от обработки пакетов TCP/IP и передаче этой работы на специализированные периферийные процессоры. Аргументом в пользу этого подхода является повышение пропускной способности сети сервера с одновременным снижением загрузки центрального процессора. Как утверждают авторы статьи, отрицательные факторы подхода связаны с масштабируемостью, гибкостью, расширяемостью и стоимостью. Специализированные устройства не подчиняются закону Мура, который ориентирован на процессоры общего назначения, и всегда будут обладать ограниченной производительностью. Авторы предлагают альтернативное решение проблемы, при котором обслуживание TCP/IP возлагается на один из процессорных элементов (core) сотового мультипроцессора (Cellular MultiProcessor, CMP). Описываются результаты двух исследовательских проектов, проводившихся в Intel Labs. В проекте ETA (Embedded Transport Acceleration) был разработан прототип механизма обработки пакетов (Packet Processing Engine, PPE). В проекте MARS (Memory-Aware Reference Stack) исследовались механизмы эффективного доступа к памяти и копирования данных, призванные повысить эффективность реализации TCP/IP.

Статья "Компьютинг, ориентированный на восстановление: создание многозвенной функциональной надежности" ("Recovery-Oriented Computing: Building Multitier Dependability") написана Джоржем Кандэ, Ароном Брауном, Армандо Фоксом и Дэвидом Паттерсоном (George Candea, Armando Fox, Standford University, Aaron B. Brown, IBM's T.J. Watson Research Center, David Patterson, University of California, Berkeley). Описываются некоторые результаты проекта ROC (Recovery-Oriented Computing), совместно выполняемого исследователями Стэндфордского университета и университета Беркли (http://roc.cs.berkekey.edu или http://roc.standford.edu). В проекте исследуются методы быстрого восстановления систем после сбоев, нарушающих жизнеспособность системы. Подход мотивируется тем, что доступность системы обычно оценивается как MTTF/(MTTF+MTTR) (MTTF - Mean Time To Failure, среднее время до отказа; MTTR - Mean Time To Recovery, среднее время до восстановления). За последние десятилетия удалось существенно повысить MTTF, и для приближения к 100% доступности нужно уменьшать MTTR. Описываются два прототипа, оба ориентированные на среду Web. В первом прототипе, основанном на сервере приложений JBoss, авторы реализовали механизм восстановления на основе микро-перезагрузке (microreboot). Имеется в виду, что перезагружается не вся система целиком, а только те ее части, с которыми, предположительно, произошел сбой. Отмечается, что это очень быстрый способ восстановления, хорошо применимый к компонентному программному обеспечению. Во втором прототипе реализован механизм восстановления работоспособного состояния системы на основе глобальных откатов и повторного выполнения операций. В качестве основы прототипа использовался сервер электронной почты, который заключался в оболочку, накапливающие данные для восстановления и производящее восстановление после сбоев. В последнем разделе статьи описывается разработанный авторами эталонный тестовый набор для оценки функциональной надежности программных систем.

У последней статьи тематической подборки - "Управление мощностью и энергией для серверных систем" ("Power and Energy Management for Server Systems") - два автора: Рикардо Бьянчини и Рэм Раджамони (Ricardo Bianchini, Rutgers University, Ram Rajamony, IBM Austin Research Lab). Серверная архитектура крупных центров данных включает кластеры из сотен, а иногда тысяч серверов. Для таких центров данных ключевой проблемой является энергопотребление. Для систем с высоким пиковым потреблением энергии требуются сложные и дорогостоящие системы охлаждения, которые, в свою очередь, потребляют энергию. Стоимость оборудования, обеспечивающего питание и охлаждение, вместе со стоимостью электроэнергии составляет до 63% полной стоимости владения физической инфраструктуры IT. В статье обсуждаются особенности управления энергией для серверов, демонстрируется слабая применимость методов, которые пригодны в не серверных конфигурациях (в частности, динамическое масштабирование напряжения и автоматическое переключение аппаратуры в пассивное/активное состояние). Затем приводится обзор текущего состояния дел в области управления энергопотребления для серверов. Очень кратко описываются результаты авторов. В Остинской лаборатории IBM исследуются вопросы эффективного управления энергопитания в условиях бюджетирования общего потребления энергии. В университете Ратжерс разрабатывается серверный кластер, в котором можно настраивать конфигурацию и распределять запросы с целью оптимизации мощности, энергии, пропускной способности, латентности и т.д. Оптимизационную функцию задает менеджер системы. В заключение статьи приводится перечень нерешенных проблем.

В журнале содержатся две больших статьи, не относящихся к тематике центров данных. Пол Розенблюм (Paul S. Rosenbloom, University of South California) опубликовал статью "Новая структура для компьютерной науки и инженерии" ("A New Framework for Computer Science and Engineering"). Традиционное разделение компьютерных исследований на науку и инженерию успешно приводит к образованию групп по интересам, но в тоже время способствует изоляции областей науки и происходящих из них систем. Для более эффективной организации компьютерной науки и инженерии требуется междисциплинарная структура, сочетающая академические и системно-ориентированные аспекты компьютинга. В этой структуре компьютерные наука и инженерия объединяются, а затем заново разделяются на компоненты анализа и синтеза. Разделение основывается на той концепции, что наука посвящена анализу и пониманию, а инженерия - воображению и построению. В докомпьютерную эру имелись три основные научные области: физические науки (P), науки о жизни (L) и общественные науки (S). С появлением компьютеров образовалась четвертая область - компьютерные науки (C). Однако в действительности новая область существует не изолированно, а в связи с другими областями. Таким образом, можно говорить о бинарной компьютерной науке, состоящей из ветвей P+C, L+C, S+C и C+C. В университете Южной Калифорнии обучение компьютерной науке теперь разбивается на четыре направления, которые в совокупности почти покрывают области бинарной компьютерной науки. Направление вычислений (Computation) посвящается вычислительному моделированию и новым вычислительным моделям, в особенности, нейронным и генетическим моделям. Направление взаимодействий (Interaction) включает согласованное исследование распределенной информационной технологии. Направление самоуправления (Autonomy) ориентировано на технологию встроенных интеллектуальных агентов. Наконец, направление погружения (Immersion) направлено на изучение взаимодействий между людьми, вычислениями и миром. В обучении компьютерной инженерии применяется тот же междисциплинарный подход, в большей степени системно-ориентированный.

Последняя рассматриваемая нами статья написана Майком О'Нейлом (Mike O'Neal, Louisiana Tech University) и называется "Реструктуризация компьютерных программ для противодействия проблемам занятости" ("Restructuring Computing Programs to Meet Employment Challenges"). В 2002 г. только 2.2% первокурсников планировали специализироваться в области компьютерных наук, в то время как в 2000 г. такое желание высказывали 3.7% поступивших в университеты США. Причины кроятся в том, что число предлагаемых рабочих мест для дипломированных выпускников университетов сократилось в 2002-2003 гг. на 6%, а предлагаемая заработная плата - на 4.4% (до $47,419 в год). Автор не претендует на общность предлагаемого им решения проблемы, а лишь описывает опыт своего небольшого провинциального технического университета. В этом университете, во-первых, были объединены факультеты компьютерных наук и компьютерной инженерии. Во-вторых, в учебных программах был сделан акцент на предметы, способствующие работе в режиме аутсорсинга. Наконец, в исследовательских проектах университета стали преобладать междисциплинарные направления, для которых проще получить финансирование. Основная мораль статьи состоит в том, что при наступлении неблагоприятных изменений нужно не отчаиваться, и приспосабливаться.

Бесплатный конструктор сайтов и Landing Page

Хостинг с DDoS защитой от 2.5$ + Бесплатный SSL и Домен

SSD VPS в Нидерландах под различные задачи от 2.6$

✅ Дешевый VPS-хостинг на AMD EPYC: 1vCore, 3GB DDR4, 15GB NVMe всего за €3,50!

🔥 Anti-DDoS защита 12 Тбит/с!

VPS в России, Европе и США

Бесплатная поддержка и администрирование

Оплата российскими и международными картами

🔥 VPS до 5.7 ГГц под любые задачи с AntiDDoS в 7 локациях

💸 Гифткод CITFORUM (250р на баланс) и попробуйте уже сейчас!

🛒 Скидка 15% на первый платеж (в течение 24ч)

Новости мира IT:

Архив новостей

IT-консалтинг Software Engineering Программирование СУБД Безопасность Internet Сети Операционные системы Hardware

Информация для рекламодателей PR-акции, размещение рекламы — adv@citforum.ru,
тел. +7 495 7861149
Пресс-релизы — pr@citforum.ru
Обратная связь
Информация для авторов
Rambler's Top100 TopList This Web server launched on February 24, 1997
Copyright © 1997-2000 CIT, © 2001-2019 CIT Forum
Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...