автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.11, диссертация на тему:Создание программно-аппаратного комплекса управления вычислительными ресурсами в корпоративных сетях с открытой структурой на основе логики взаимодействия списков

кандидата технических наук
Дюгуров, Денис Владимирович
город
Москва
год
2011
специальность ВАК РФ
05.13.11
цена
450 рублей
Диссертация по информатике, вычислительной технике и управлению на тему «Создание программно-аппаратного комплекса управления вычислительными ресурсами в корпоративных сетях с открытой структурой на основе логики взаимодействия списков»

Автореферат диссертации по теме "Создание программно-аппаратного комплекса управления вычислительными ресурсами в корпоративных сетях с открытой структурой на основе логики взаимодействия списков"

005011015

Дюгуров Денис Владимирович

СОЗДАНИЕ ПРОГРАММНО-АППАРАТНОГО КОМПЛЕКСА

УПРАВЛЕНИЯ ВЫЧИСЛИТЕЛЬНЫМИ РЕСУРСАМИ В КОРПОРАТИВНЫХ СЕТЯХ С ОТКРЫТОЙ СТРУКТУРОЙ НА ОСНОВЕ ЛОГИКИ ВЗАИМОДЕЙСТВИЯ СПИСКОВ

Специальность 05.13.11 - Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей

АВТОРЕФЕРАТ

диссертации на соискание ученой степени кандидата технических наук

- 1 НДР

Москва 2012

005011015

Работа выполнена в Федеральном государственном бюджетном обра зовательном учреждении высшего профессионального образования «Мое ковский государственный университет приборостроения и информатики».

Научный руководитель: доктор технических наук, профессор

Голубятников Игорь Владимирович

Официальные оппоненты: доктор технических наук, профессор

Филимонов Николай Борисович,

кандидат физико-математических наук Андреев Виктор Павлович

Ведущая организация: ФГУ ГНИИ ИТТ «Информика»

Защита диссертации состоится «29» февраля 2012 года, в 14-00 часов на заседании совета по защите докторских и кандидатских диссертацш Д 212.119.02 при Федеральном государственном бюджетном образователь ном учреждении высшего профессионального образования «Московский го сударственный университет приборостроения и информатики» по адресу: г Москва, ул. Стромынка, д. 20.

С диссертацией можно ознакомиться в библиотеке Федерального госу дарственного бюджетного образовательного учреждения высшего профес сионального образования «Московский государственный университет при боростроения и информатики».

Отзывы по автореферату в двух экземплярах, заверенные печатью просьба направлять по адресу: 107996, г. Москва, ул. Стромынка, д. 20 ФГБОУ ВПО «МГУПИ».

Автореферат разослан «26» января 2012 г.

Ученый секретарь диссертационного совета кандидат технических наук, профессор

Общая характеристика работы

Актуальность темы диссертации.

Создание и рациональное использование общих вычислительных ресурсов является одной из важнейших задач информатизации в целом. Способы объединения вычислительных узлов с целью создания общих ресурсов можно разделить на два класса: к первому относятся системы, в которых в качестве канала передачи информации используется единое адресное пространство (кластеры), ко второму относятся распределенные системы, где в качестве канала передачи информации используется внешний интерфейс (локальные сети). В большинстве случаев системы первого класса являются замкнутыми, а системы второго класса - открытыми. Вместе с тем системы второго класса более дешевые и универсальные, а потому используются большинством предприятий и организаций.

Проблема управления общими ресурсами в локальной сети приобретает особую актуальность, если имеющийся в распоряжении вычислительный инструмент необходимо использовать для решения задач нескольких типов, требующих различного уровня аппаратного и программного обеспечения и разных временных затрат в условиях лимитированного рабочего времени.

Подходы к организации общих ресурсов в локальных сетях рассмотрены в трудах многих ученых. В частности, Кессельман К., Тики С. и Фостер Я. предлагают использовать процессорное время сетевых узлов, соединенных через стандартные интерфейсы, для решения хорошо распараллеливающихся задач. Ограничение узким классом решаемых задач и необходимость разработки специального для каждой задачи программного обеспечения не позволяют применять этот метод повсеместно.

В работах Блэка Ю., Витгмана В., Джордана Л., Патрика М. и Силверио В. для управления общими ресурсами предложен прообраз современной службы каталогов. В настоящее время развитие службы каталогов идет по пути внедрения доменов с базовой внутренней иерархией. Ряд ученых (Макин Дж. и Маклин Й.) предлагают использовать разветвленную доменную иерархию с целью управления правами пользователей. Такой подход можно считать перспективным, однако он не позволяет управлять вычислительными процессами как таковыми.

Диссертация представляет собой развитие идеи усложнения иерархии доменной инфраструктуры в виде использования специальных контейнеров, соответствующих сетевым сегментам, для управления учетными записями сетевых узлов. При этом выполнение вычислительных процессов в сетевых сегментах регулируется групповыми политиками, создаваемыми управляющим сценарием в автоматическом режиме в соответствии с набором заданных параметров.

Цель диссертационной работы - разработать программно-аппаратный комплек управления вычислительными ресурсами в корпоративных сетях с открытой структурой позволяющий эффективно использовать свободные вычислительные ресурсы сетевы сегментов и отдельных узлов.

Для достижения намеченной цели в диссертации поставлены следующие задачи:

1. Провести анализ существующих способов организации корпоративных сетей распределенных систем обработки информации, не использующих объединен ное адресное пространство узлов.

2. Создать математическую модель управления вычислительными ресурсами в рас пределенной системе.

3. Разработать структуру корпоративной сети, позволяющую централизованн управлять вычислительными ресурсами сегментов и отдельных узлов.

4. Разработать и программно реализовать алгоритм выделения в корпоративно" сети вычислительных ресурсов, удовлетворяющих заданным параметрам.

Объект исследования - методы построения корпоративных вычислительных се тей с открытой структурой, способы и алгоритмы управления вычислительными ресурса ми в таких сетях.

Методы исследования базируются на теоретических основах системотехники принципах высокоуровнего программирования и организации реляционных баз данных, ма тематическом моделировании, теории исследования операций и математической логике. Также в работе используются методы оптимизации.

Научная новизна работы заключается в следующем.

1. Разработана математическая модель управления вычислительными ресурсами, отличающаяся от классических моделей дискретной оптимизации наличием дополнительных критериев отбора ресурсов, базирующихся на списках свойств вычислительных задач.

2. Создана методика построения открытых корпоративных вычислительных сетей с расширенной, по сравнению с автоматически создаваемой, иерархией структурных подразделений.

3. Разработаны и программно реализованы алгоритмы выделения свободных вычислительных ресурсов на основе взаимодействия свойств сегментов вычислительного инструмента и характеристик требований.

4. Создана программная инфраструктура управления запуском и сбором результатов вычислительных процессов в распределенной системе.

Практическая ценность работы заключается в том, что разработанная методика управления вычислительными ресурсами на основе созданной инфраструктуры вычислительной сети и программного модуля управления может быть внедрена в эксплуатацию в большинстве организаций, осуществляющих ресурсоемкие расчеты, или использоваться в таких организациях в качестве методической базы для модернизации уже существующих корпоративных сетей.

Математическая модель и разработанные на ее основе алгоритмы управления свободными вычислительными ресурсами могут быть обобщены и использованы в производственных отраслях, напрямую не связанных с компьютерными вычислениями.

С помощью разработанного комплекса появляется возможность управлять запуском вычислительных процессов на свободных сетевых узлах без использования дополнительного постоянно функционирующего программного обеспечения.

Апробация и внедрение результатов исследования.

Основные результаты работы были доложены и одобрены на:

• 14-й Всероссийской научно-методической конференции «Телематика 2007» (Санкт-Петербург);

• 35-й итоговой студенческой научной конференции (Ижевск, Удмуртский государственный университет, 2007);

• 6-й международной научно-методической конференции «Новые образовательные технологии в ВУЗе» (Екатеринбург, УГГУ-УПИ, 2008);

• 15-й Всероссийской научно-методической конференции «Телематика 2008» (Санкт-Петербург);

• международной конференции «Перспективы развития телекоммуникационных систем и информационные технологии» (Санкт-Петербург, СПбГПУ, 2008);

• Всероссийской научно-практической конференции «Информационные технологии в профессиональной деятельности и научной работе» (Йошкар-Ола, МарГТУ, 2009);

• международной конференции «Системы проектирования, технологической подготовки производства и управления этапами жизненного цикла промышленного продукта (САБ/САМ/РОМ - 2009)» (Москва, ИПУ РАН);

• 2-й международной конференции «Трехмерная визуализация научной, технической и социальной реальности. Технологии высокополигонального моделирования» (Ижевск, УдГУ, 2010).

Разработанный в рамках диссертационной работы программно-аппаратный комплекс

внедрен в эксплуатацию на факультете информационных технологий и вычислительной тех ники УдГУ и в производственной лаборатории НИИ «Высоких технологий» в г.Ижевске.

Получено свидетельство о государственной регистрации программы для ЭВ! №2010613012 от 06.05.2010.

Публикации.

По материалам диссертации опубликовано 12 печатных работ, из них 2 в научны рецензируемых изданиях, рекомендуемых ВАК, 1 в центральной печати, 8 в материал: международных и всероссийских конференций, 1 печатное учебно-методическое пособие.

В Центре образовательных ресурсов Microsoft опубликованы 2 электронных учеб но-методических пособия.

Структура и объем работы.

Диссертация состоит из введения, четырех глав, заключения, библиографическог списка и снабжена четырьмя приложениями.

Основная часть диссертации содержит - 100 страниц машинописного текста, вклю чая 18 рисунков и 3 таблицы.

Содержание работы.

Во введении обоснована актуальность темы диссертации, сформулированы цель, за дачи исследования, определены научная и практическая значимость работы, приведена крат кая характеристика основных разделов диссертации. Также определена область исследован! на основе свойств основных моделей управления вычислительными ресурсами в открыть распределенных системах: «Клиент-Сервер» и «GRID».

В главе 1 проведен сравнительный анализ методов построения корпоративных се тей, предлагаемых ведущими мировыми разработчиками серверных программных продук tob: Windows Server 2003 Enterprise Edition, Red Hat Enterprise Linux 5 Server и Sun Solaris.

Сравнение проведено по следующим факторам:

• реализация системы разрешения имён;

• системы автоматического назначения адресов;

• методы аутентификации и идентификации пользователей;

• методы хранения объектов участников сетевой безопасности;

• групповое управление участниками сетевой безопасности;

• управление общими объектами;

• методы восстановления ОС после сбоя.

Итоги сравнения приведены в таблице 1.

Критерий Windows Server 2003 Enterprise Edition Red Hat Enterprise Linux 5 Server Sun Solaris 10

Мин. та сто в ая частота процессора 300 МГц 500 МГц 300 МГц

Мин. объем оперативной памяти 256 МБ 256 МБ 128 МБ

Централизованная система управления участниками безопасности Активный каталог набор типизированных шифрованных файлов набор типизированных шифрованных файлов

Аутентификация Kerbero^-NTLM+LDAP LDAP NSS

ОЫБ-сервер встроенный встроенный Встроенный

БНСР-сервер встроенный встроенный Встроенный

>ЛгеЬ-сервер встроенный доп. модуль доп. Модуль

Сервер печати встроенный доп. модуль доп. Модуль

Сервер приложений встроенный доп. модуль доп. Модуль

Инструмент создания резервных копий встроенный нет Нет

Групповое управление объектами да, на основе LDAP да, на основе LDAP да, на основе абстрактной БД

Использование управляющих сценариев да, с интеграцией в Активный каталог да, на старте системы да, на старте системы

Настраиваемый интерфейс да, на основе политик нет, соответствует набору установленных модулей нет, соответствует набору установленных модулей

Доступ к объектам файловой системы драйвер NTFS системный драйвер системный драйвер

В результате было установлено, что протоколы разрешения имен, назначения адресов

и методы архивирования во всех рассматриваемых системах реализованы почти идентично. Для аутентификации все системы, так или иначе, используют части протокола LDAP.

В управлении общими объектами между изучаемыми системами были выявлены существенные отличия, так в Windows Server на базовом уровне существует возможность управлять сетевыми элементами через Активный каталог с помощью групповых политик, в остальных рассматриваемых системах управление сводится к настройке привилегий пользователей и авторизованных приложений.

В соответствии с поставленной задачей необходимо создать локальную сеть с возможностью управлять запуском вычислительных процессов на сетевых узлах в автоматическом режиме. Проведенное сравнительное исследование показало, что это возможно на платформе Windows Server при использовании доменной иерархии специального вида В качестве базовой платформы для построения такой сети был выбран Активный каталог под управлением Windows Server 2003 Enterprise Edition. Основным фактором, обусловившим данный выбор, стала возможность управления групповой принадлежностью сетевых узлов на основе организационных подразделений с интеграцией в Активный каталог управляющих сценариев.

Глава 2 посвящена разработке принципов организации сети с точки зрения централизованного управления сетевыми узлами. В диссертации предложено организовать

вычислительную сеть на основе базовых доменов.

Определение. Домен будем называть базовым, если:

• все необходимые элементы управления находятся внутри домена и функцио нируют независимо от внешних элементов сети;

• в доменной иерархии учетные записи пользователей отделены от учетных за писей компьютеров без использования стандартных контейнеров.

Внутренняя структура каждого из доменов состоит из одинаковых базовых элемен тов. При необходимости в каждом из доменов размещаются сервера со специфическим! ролями. Схема базового домена представлена на рисунке 1.

Бьтчнслательные * :'..Í[>;

Рис. 1. Струетура базового домена.

Каждый из доменов содержит два контроллера домена (DC) с базой данных Актив ного каталога (AD), один сервер разрешения имен (DNS), один DHCP-сервер, один Web сервер, один подчиненный сервер сертификатов (SCA).

Для управления запуском вычислительных процессов на сетевых узлах управляю щему сценарию необходим доступ к трем элементам:

• учетным записям сетевых узлов и их группам;

• базе данных адресов сетевых узлов;

• таблице маршрутизации.

Предлагаемая структура базового домена позволяет организовать доступ к указанным элементам по схеме, приведенной на рисунке 2.

Управляющий сценарий

Узлы и группы

Активный каталог-контроллер домена

Адреса

База адресов -DNS сервер

Маршруты

Коммутатор

Рис. 2. Взаимодействие элементов управления в базовом домене.

Также во второй главе даны рекомендации по построению иерархии доменных подразделений. Схема такой иерархии представлена на рисунке 3.

• domain.local

• Segl

о desktops о users о groups

я

■ SegH

о desktops о users о groups

■ Administrators

" Routers

■ Users

■ Computers

■ Domain Controllers

• Builtln

Рис. 3. Подразделения в базовом домене.

Элементы, отмеченные на рисунке 3 жирным шрифтом, создаются системой автоматически при внедрении роли контроллера домена. Прочие элементы необходимо организовать вручную в соответствии с определением базового домена. В данном случае в контейнерах desktops находятся элементы управления сетевыми узлами. В контейнерах Segl,..., SegN находятся элементы управления сетевыми сегментами. Наличие такой структуры делает возможным применение схемы управления запуском вычислительных процессов и сбора результатов с сетевых узлов, представленной на рисунке 4.

Управляющий сценарий

у

Групповые политик

Сетевые сегменты

Групповые политики

Запуск процессов

Сервер приложений

Сбор результате:

Узлы сегмента

Рис. 4. Управление вычислительными процессами с помощью управляющего сценария.

В главе приводятся технические рекомендации по формированию политик аудита и архивирования, по соотношению серверных ролей, по настройке систем разрешения имен и назначения адресов, по управлению механизмами доступа к общим объектам в базовом домене. Также в главе разрабатывается способ формирования службы системных администраторов на основе принципа наименьших привилегий.

В заключительной части главы базовый домен рассматривается как часть открытой системы. Для соединения базовых доменов друг с другом в единую сеть предлагается программная маршрутизация, так как этот механизм позволяет обеспечить автономность базового домена в соответствии с данным ранее определением от коммутационных устройств и прочих внешних элементов сети.

Глава 3 диссертации посвящена разработке математической модели управления вычислительными ресурсами в сетевых сегментах базового домена.

В главе описаны следующие структуры:

• Вычислительная задача У2 - это пара У2 = (N1/, ТРО), где N1} - начальные данные (файл), ТРО - требуемое для выполнения задачи программное обеспечение.

• Список требований 5Г-это множество вычислительных задач.

• Сетевой сегмент - это тройка = (К, РО, Н), где К - множество сетевых узлов, подключенных к одному коммутационному устройству, РО - список установленного на узлах сегмента программного обеспечения, Я - характеристика мощности сетевых узлов сегмента.

• Список вычислительных ресурсов - это тройка = (КУ, £ А), состоящая из множества квантов времени работы вычислительной сети КУ, множества сетевых

к

сегментов 5 =и&е£,. и бинарных отношений АсБхКУ, где к - количество

сетевых сегментов. Элемент а е Л - вычислительный ресурс. Список вычислительных ресурсов имеет табличную структуру, в которой строками

являются сетевые сегменты, а столбцами - кванты времени работы сегментов.

Если вычислительный ресурс используется для выполнения какой-либо вычислительной задачи У2 е 5Г, то будем считать, что он находится в состоянии занят, иначе - в состоянии свободен. В таком случае А ~ А1Ф-,А1, где Д - множество свободных вычислительных ресурсов, а -и4х - множество занятых вычислительных ресурсов.

Принимая во внимание введенные определения, процесс выделения сетевых вычислительных ресурсов для решения вычислительных задач представим в виде отображения

/:ЗГ->Л, по правилу: \ZVZbST }{\'2) = В, гдеВ = Д :((7Р012лР0^)лШ:)л.Е,г =1.

В приведенном отображении йК - список дополнительных критериев выполнения вычислительной задачи на выбранном ресурсе, принимающий значение 1, если список не определен пользователем до начала выделения ресурсов, иначе определяемый системой в зависимости от заданных характеристик задачи и возможностей сетевого сегмента; ^Z,7 -индикатор завершения задачи, принимающий значение 0 в случае, если рассматриваемая вычислительная задача еще не выполнена, и значение 1 в противном случае.

В рамках диссертационного исследования разработан программный управляющий сценарий, схема которого приведена на рисунке 5.

Администратор

Модуль управления списками

\

База данных задач \ / База данных ресурсов . /

Поиск свободных ресурсов Проверка критериев

Список выделенных ресурсов

Модуль управления процессами

Сбор результатов

Сетевые сегменты

Запуск задач

Активный каталог

Рис. 5. Схема работы программного модуля по поиску и выделению свободных вычислительных ресурсов.

Блок-схема работы алгоритма поиска и выделения свободного вычислительного ресурса в созданной вычислительной сети приведена на рисунке 6.

Данный алгоритм позволяет получить предложенное в математической модели отображение /а его программная реализация обеспечивает эффективное управление ресурсами сетевых сегментов в соответствии со списком, поставленных вычислительных задач.

Рис. 6. Блок-схема работы алгоритма по выделению свободных ресурсов. В главе 4 диссертации приведены результаты работы программно-аппаратного комплекса, созданного на основе предложенной в предыдущей главе математической модели и разработанного алгоритма выделения свободных вычислительных ресурсов.

Для реализации программного обеспечения используются лицензионные программные продукты Microsoft Windows Server 2003 R2, Microsoft SQL Server 2005, Microsoft VisualStudio 2008, Borland Delphi 7.

Созданный комплекс применяется в качестве инструментального средства для решения различных ресурсоемких задач. Производственные площадки, на базе которых производились расчеты, функционируют в рамках утвержденного производственного календаря. Таким образом, используется разбиение непрерывного рабочего времени сетевых сегментов комплекса на временные отрезки, часть которых уже занята вычислительными процессами в соответствии с утвержденным графиком.

В диссертационной работе рассматривалась практическая ситуация, в которой при учете заданных характеристик свободных сетевых сегментов, необходимо обеспечить выполнение специального класса вычислительных процессов - рендеринг трехмерных статичных и динамических сцен с ультравысоким (до 700 Mpix при 10 млн. полигонов) разрешением. При решении указанной задачи сетевые сегменты разбиваются на классы эквивалентности в зависимости от двух критериев: производительности сетевых узлов и списка ПО, установленного на узлах сегмента.

В данном случае список требований ST состоит из двух элементов: ST = (<Практика студентов>,<Задача рендеринга>). Списки свойств каждой вычислительной задачи известны и заданы пользователем. Квант времени равен двум академическим часам. Дополнительный критерий DK, определяющий на каждом проходе алгоритма возможность выделения свободного ресурса для запуска расчетной задачи, представляет собой строку с соответствующим номером в таблице 2.

Таблица 2. Критерии отбора свободных сетевых ресурсов.

>9 прохода Критерий отбора свободных ресурсов

1 Один свободный квант времени на слабых компьютерах при занятых соседних квантах времени.

2 Два подряд свободных кванта времени на слабых компьютерах при занятых соседних квантах времени.

3 Один свободный квант времени на компьютерах средней мощности при занятых соседних квантах времени.

4 Два подряд свободных кванта времени на компьютерах средней мощности при занятых соседних квантах времени.

5 Три подряд свободных кванта времени на слабых компьютерах при занятых соседних квантах времени.

6 Один свободный квант времени на мощных компьютерах при занятых соседних квантах свободного времени.

7 Три подряд свободных ванта времени на компьютерах средней мощности при занятых соседних квантах.

8 Два подряд свободных кванта времени на мощных компьютерах при занятых соседних квантах времени.

9 Любой оставшийся свободным квант времени.

В данном случае алгоритм поиска и выделения свободных ресурсов представим

следующей последовательностью шагов.

Шаг 0. Выбрать вычислительную задачу из списка требований.

Шаг 1. Просматривать все кванты времени работы сетевых сегментов. При нахождении свободного ресурса перейти к шагу 2.

Шаг 2. Вычислить результат конъюнкции установленного в сегменте программного обеспечения и требуемого программного обеспечения для вычислительно задачи. Если результат «истина» перейти к шагу 3, иначе - перейти к шагу 5.

Шаг 3. Проверить дополнительный критерий отбора ресурса с номером из списка, соответствующего номеру прохода выполнения алгоритма. Если критерий выполняется, то отметить ресурс для запуска рассматриваемой вычислительной задачи. Перейти к шагу 4.

Шаг 4. Если вычислительная задача не решена и проверены не все дополнительные критерии, то повторять шаги с 1 по 3. Если задача не решена и проверены все дополнительные критерии - то сообщить об ошибке и перейти к шагу 6. Если задача решена - перейти к шагу 5.

Шаг 5. Если выделены ресурсы для всех задач - то перейти к шагу 6, иначе перейти к шагу 0.

Шаг 6. Закончить работу.

Результаты работы алгоритма приведены на рисунке 7. Красные ячейки в производственном графике - временные кванты, выделенные для рендеринга, синие и зеленые ячейки - для организации практики студентов.

В дальнейшем управляющий программный модуль формирует для сетевых узлов и сегментов с выбранными для задач рендеринга квантами времени групповые политики по запуску соответствующих вычислительных задач по схеме, приведенной на рисунке 8.

В ходе проведенного исследования были получены результаты сравнения общих показателей при решении задач рендеринга до и после применения разработанного программно-аппаратного комплекса, которые приведены в таблице 3.

При расчетах показателей критериев 2 и 3 (таблица 3) учитывалось, что в вычислениях участвуют 18 узлов из одного класса эквивалентности до внедрения комплекса и 45 узлов из разных классов эквивалентности после внедрения комплекса в эксплуатацию.

Рис. 7. Результат работы алгоритма по выделению свободных общих ресурсов.

В ыч исл игольные модули

Сетевой сегмент 1

Сетевой сегмент 2

Сетевой сегмент К

-о. -а

Результаты 1,2К

Рис. 8. Схема работы управляющего сценария по запуску вычислений на свободных ресурсах.

№ п/п Без использования комплекса С использованием комплекса

1 Количество узлов, участвующих в расчетах Ограничено количеством интерфейсов коммутационного устройства Не ограничено

2 Количество человек, контролирующих процесс расчета не менее 3 1

3 Время рендеринга базовой статической сцены при разрешении 12 МР1х, содержащей 10 млн. полигонов «17 часов 6,5 - 7 часов

Графики на рисунках 9 и 10 показывают уменьшение времени, затраченное на рен-

деринг статичных и динамических сцен соответственно.

статичных сцен. динамических сцен.

По оси абсцисс на рисунках 7 и 8 отложено количество полигонов в сцене в миллионах

штук, а по оси ординат - время в часах; аббревиатуры «БК» и «СК» означают «без использования программно-аппаратного комплекса» и «с использованием программно-аппаратного комплекса» соответственно. Таким образом, с помощью разработанной вычислительной сети специального вида и программного управляющего модуля удалось существенно сократить время расчетов при решении задач рендеринга.

Также одним из важных практических результатов использования разработанного1 программного комплекса является возможность отказаться от использования на сетевых узлах антивирусного обеспечения, высвободив тем самым часть необходимого процессорного времени. Эта возможность достигается за счет использования групповых политик'

I

для запрещения запуска любого программного обеспечения из областей файловой систе-( мы, куда возможна запись данных. Таким образом, вредоносное ПО не может:

• запуститься из тех областей файловой системы, в которые, возможно, осущест-

1

вило запись тел вирусов;

• записать тела вирусов в те области файловой системы, откуда возможен запуск процессов.

В заключении формулируются основные полученные результаты и выводы диссертационной работы.

В приложении приводятся тексты программ и акты о внедрении разработанного программно-аппаратного комплекса в эксплуатацию. Приложение А представляет собой адаптированный вариант управляющего модуля, реализующего алгоритм поиска свободных вычислительных ресурсов в созданной сети. Приложение Б содержит код программы, позволяющей запускать вычислительные процессы на сетевых узлах при наличии физического соединения. Акты внедрения результатов диссертационной работы в ФГБОУ ВПО «УдГУ» и НИИ «Высоких технологий» приведены в приложениях В и Г соответственно.

Основные результаты работы.

1. Проведен анализ имеющихся способов организации корпоративных сетей и распределенных систем обработки информации, не использующих объединенное адресное пространство узлов.

2. Создана математическая модель управления свободными вычислительными ресурсами в открытых корпоративных сетях специального вида.

3. Разработан алгоритм поиска свободных вычислительных ресурсов в вычислительных сетях специального вида на основе взаимодействия характеристик сегментов вычислительного инструмента и списков потребностей.

4. Создана методика построения открытой корпоративной вычислительной сети на основе базовых доменов.

5. Разработан способ управления свободными вычислительными ресурсами в корпоративных сетях специального вида с помощью разработанного программного комплекса.

6. Внедрен в эксплуатацию программно-аппаратный комплекс управления вычислительными ресурсами на основе предложенной корпоративной сети и алгоритма выделения ресурсов.

Публикации по теме диссертации.

Работы, опубликованные в научных рецензируемых изданиях, рекомендуемых ВАК.

1. ДюгуровД.В. Принципы построения университетской сети с открытой инфраструктурой // Научно-технические ведомости СПбГПУ 2008. № 6 (69). - С. 64 - 68.

2. Дюгуров Д.В. Подход к эффективному использованию общих вычислительных ресурсов //Промышленные АСУ и контроллеры, 2011. № 11. - С. 33 -36.

Работы, опубликованные в центральной печати.

3. Дюгуров Д.В. Сети с открытой инфраструктурой: концепция проекта на базе факультета ИТиВТ Удмуртского государственного университета // Дистанционное и виртуальное обучение, 2008. № 5. - С. 32 - 36.

Работы, опубликованные по результатам участия в конференциях.

4. Дюгуров Д.В. Внедрение вычислительной сети с открытой инфраструктурой в образовательный процесс // Тр. 14-й Всероссийской научно-методической конференции «Телематика 2007». - СПб, 2007. - С. 297 - 298.

5. Дюгуров Д.В. Управление факультетом и модернизация учебного процесса с помощью вычислительной сети с открытой инфраструктурой // Тр. 35-й итоговой студ. научной конференции / Удмуртский гос. университет. - Ижевск, УдГУ, 2008.-С. 39-40.

6. Дюгуров Д.В. Сети с открытой инфраструктурой: безопасный инструмент обучения и производства// Сборник докладов 6-й международной научно-методической конференции «НОТВ». - Екатеринбург, УГТУ-УПИ, 2008. - С. 27 - 32.

7. Дюгуров Д.В. К вопросу о безопасности сетей с открытой инфраструктурой // Тр. 15-й Всероссийской научно-методической конференции «Телематика 2008». - СПб, 2008. - С. 310.

8. Дюгуров Д.В. Сети с открытой инфраструктурой: концепция проекта на базе факультета ИТиВТ Удмуртского государственного университета // Тр. международной конференции «Перспективы развития телекоммуникационных систем и информационные технологии». - СПб, Политехнический университет, 2008. -С. 446 -457.

9. Дюгуров Д.В. Открытые сети против «черного ящика» // Тр. Всероссийской научно-практической конференции «Информационные технологии в профессиональной деятельности и научной работе». - Йошкар-Ола, МарГТУ, 2009. - С. 66 - 70.

10. Дюгуров Д.В. Корпоративная сеть с открытой инфраструктурой - базовый элемент управления и обучения // Тр. международной конференции «Системы проектирования, технологической подготовки производства и управления эта пами жизненного цикла промышленного продукта (CAD/CAM/PDM - 2009)». М., ИПУ РАН, 2009. - С. 75 - 76.

11. Войтович Я.В., Дюгуров Д.В. Об одном алгоритме приведения квадратных мат риц произвольных размерностей над полем действительных чисел к диаго

нальному виду с распределением вычислений // Тр. 2-й международной конференции «Трехмерная визуализация научной, технической и социальной реальности. Технологии высокополигонального моделирования». - Ижевск, Уд-ГУ, 2010. Т. 1.-С. 88-91.

Методические работы.

12. ДюгуровД.В. Системное администрирование. Ижевск, УдГУ, 2008. - 174 с.

13. Дюгуров Д.В. Системное администрирование + Топология сети. https://www.facultyresourcecenter.com/curricuIum/pfV.aspx?ID=8229&cl=en-us&c2=0&Login= // Центр образовательных ресурсов Microsoft, 2009.

14. Дюгуров ДВ. Сетевая безопасность на основе серверных продуктов Microsoft https://www.facultyresourcecenter.com/cumculum/pfv.aspx?ID=8226&cl=en-us&c2=0&Logm= // Центр образовательных ресурсов Microsoft, 2009.

Авторские свидетельства, патенты, информационные карты и алгоритмы

15. Свидетельство о государственной регистрации программы для ЭВМ №2010613012 от 06.05.2010.

Текст работы Дюгуров, Денис Владимирович, диссертация по теме Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей

61 12-5/1739

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ

На правах рукописи

ДЮГУРОВ ДЕНИС ВЛАДИМИРОВИЧ

СОЗДАНИЕ ПРОГРАММНО-АППАРАТНОГО КОМПЛЕКСА УПРАВЛЕНИЯ

ВЫЧИСЛИТЕЛЬНЫМИ РЕСУРСАМИ В КОРПОРАТИВНЫХ СЕТЯХ С ОТКРЫТОЙ СТРУКТУРОЙ НА ОСНОВЕ ЛОГИКИ ВЗАИМОДЕЙСТВИЯ СПИСКОВ

Специальность 05.13.11 - Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей

ДИССЕРТАЦИЯ на соискание ученой степени кандидата технических наук

Научный руководитель

д.т.н. профессор Голубятников И.В.

Москва 2011 г.

Содержание

Введение 4

Глава 1 Сравнение сетевых платформ 10

1.1 Система разрешения имен 10

1.2 Система автоматического назначения адресов 11

1.3 Методы аутентификации/идентификации пользователей 12

1.3.1 Microsoft Windows Server 2003 12

1.3.2 Unix системы - Linux Red Hat Enterprise и Sun Solaris 13

1.4 Методы хранения объектов 16

1.4.1 Windows Server 2003 16

1.4.2 Linux Red Hat Enterprise и Sun Solaris 19

1.5 Групповое управление объектами 20

1.5.1 Windows Server 2003 20

1.5.2 Linux Red Hat Enterprise и Sun Solaris 23

1.6 Управление общими сетевыми ресурсами 24

1.6.1 Windows Server 2003 24

1.6.2 Linux Red Hat Enterprise и Sun Solaris 26

1.7 Восстановление системы после сбоев 29

1.7.1 Windows Server 2003 29

1.7.2 Linux Red Hat Enterprise 32

1.8 Отказоустойчивость 34

1.8.1 Windows Server 2003 34

1.8.2 Linux Red Hat Enterprise 40

1.9 Итоги сравнения 43

Глава 2 Элементы проектируемой вычислительной сети 46

2.1 Структура базового домена 46

2.2 Подразделения в Активном каталоге 49

2.3 Обслуживание службы каталогов 52

2.4 Использование дискового пространства 56

2.5 Элементы политики паролей 57

2.6 Элементы стратегии резервного копирования 59

2.7 Система корпоративной сети 60

2.8 Принципы административного вмешательства 75

Глава 3 Разработка математической модели управления вычислительными ре- 73 сурсами в распределенной системе

3.1 Характеристика предметной области 7 8

3.2 разработка математической модели и алгоритма управления 79

3.3 Одна интерпретация математической модели

Библиографический список Приложение А Приложение Б Приложение В Приложение Г

82 88 88

Глава 4 Применение созданной вычислительной сети специального вида и алгоритма выделения свободных сетевых ресурсов при решении практических задач

4.1 Характеристика созданного программно-аппаратного комплекса

4.2 Область внедрения разработанного комплекса 89

4.3 Результаты внедрения разработанного программно-аппаратного 92 комплекса в эксплуатацию

Заключение

100 103 106 120 126 128

Введение

Актуальность темы диссертации.

Создание и рациональное использование общих вычислительных ресурсов является одной из важнейших задач информатизации в целом. Способы объединения вычислительных узлов с целью создания общих ресурсов можно разделить на два класса: к первому относятся системы, в которых в качестве канала передачи информации используется единое адресное пространство (кластеры), ко второму относятся распределенные системы, где в качестве канала передачи информации используется внешний интерфейс (локальные сети). В большинстве случаев системы первого класса являются замкнутыми, а системы второго класса - открытыми. Вместе с тем системы второго класса более дешевые и универсальные, а потому используются большинством предприятий и организаций.

Проблема управления общими ресурсами в локальной сети приобретает особую актуальность, если имеющийся в распоряжении вычислительный инструмент необходимо использовать для решения задач нескольких типов, требующих различного уровня аппаратного и программного обеспечения и разных временных затрат в условиях лимитированного рабочего времени.

Подходы к организации общих ресурсов в локальных сетях рассмотрены в трудах многих ученых. В частности, Кессельман К., Тики С. и Фостер Я. предлагают использовать процессорное время сетевых узлов, соединенных через стандартные интерфейсы, для решения хорошо распараллеливающихся задач [2]. Ограничение узким классом решаемых задач и необходимость разработки специального для каждой задачи программного обеспечения не позволяют применять этот метод повсеместно.

В работах Блэка Ю., Виттмана В., Джордана Л., Патрика М. и Силверио В. для управления общими ресурсами предложен прообраз современной службы каталогов [6, 4]. В настоящее время развитие службы каталогов идет по пути внедрения доменов с преднастроенной внутренней иерархией. Ряд ученых (Макин Дж. и Маклин Й.) предлагают использовать разветвленную доменную иерархию с целью управления правами пользователей [25]. Такой

4

подход можно считать перспективным, однако он не позволяет управлять вычислительными процессами как таковыми.

Указанные подходы определяют две существующие модели управления общими вычислительными ресурсами в открытых распределенных системах: GRID и «Клиент-Сервер».

Для эффективной работы модели GRID необходимы следующие элементы:

• наличие на каждом сетевом узле специального программного обеспечения, которое обеспечивает механизм обмена запросами.

• программное обеспечение должно быть постоянно активным, т.е. само использует часть ресурсов сетевого узла.

• администратор сетевого узла должен санкционировать процесс распределенных вычислений.

Таким образом, в GRID-сетях процесс запуска вычислительных задач на конкретном сетевом узле определяется не управляющим структурным элементом сети, а администратором конкретного узла [26]. Данное ограничение делают в нашем случае нецелесообразным использование такой модели управления.

Диссертация представляет собой развитие идеи усложнения иерархии доменной инфраструктуры в виде использования специальных контейнеров, соответствующих сетевым сегментам, для управления учетными записями сетевых узлов. При этом выполнение вычислительных процессов в сетевых сегментах регулируется групповыми политиками, создаваемыми управляющим сценарием в автоматическом режиме в соответствии со списком заданных параметров.

Цель диссертационной работы - разработать программно-аппаратный комплекс управления вычислительными ресурсами в корпоративных сетях с открытой структурой, позволяющий эффективно использовать свободные вычислительные ресурсы сетевых сегментов и отдельных узлов.

Для достижения намеченной цели в диссертации поставлены следую-

5

щие задачи:

1. Провести анализ существующих способов организации корпоративных сетей и распределенных систем обработки информации, не использующих объединенное адресное пространство узлов.

2. Создать математическую модель управления вычислительными ресурсами в распределенной системе.

3. Разработать структуру корпоративной сети, позволяющую централизованно управлять вычислительными ресурсами сегментов и отдельных узлов.

4. Разработать и программно реализовать алгоритм выделения в корпоративной сети вычислительных ресурсов, удовлетворяющих заданным параметрам.

Объект исследования - методы построения корпоративных вычислительных сетей с открытой структурой, способы и алгоритмы управления вычислительными ресурсами в таких сетях.

Методы исследования базируются на теоретических основах системотехники, принципах высокоуровневого программирования и организации реляционных баз данных, математическом моделировании, теории исследования операций и математической логике. Также в работе используются методы оптимизации.

Научная новизна работы заключается в следующем.

1. Разработана математическая модель управления вычислительными ресурсами, отличающаяся от классических моделей дискретной оптимизации наличием дополнительных критериев отбора ресурсов, базирующихся на списках свойств вычислительных задач.

2. Создана методика построения открытых корпоративных вычислительных сетей с расширенной, по сравнению с автоматически создаваемой, иерархией структурных подразделений.

3. Разработаны и программно реализованы алгоритмы выделения свободных вычислительных ресурсов на основе взаимодействия

6

свойств сегментов вычислительного инструмента и характеристик требований.

4. Создана программная инфраструктура управления запуском и сбором результатов вычислительных процессов в распределенной системе.

Практическая ценность работы заключается в том, что разработанная методика управления вычислительными ресурсами на основе созданной инфраструктуры вычислительной сети и программного модуля управления может быть внедрена в эксплуатацию в большинстве организаций, осуществляющих ресурсоемкие расчеты, или использоваться в таких организациях в качестве методической базы для модернизации уже существующих корпоративных сетей.

Математическая модель и разработанные на ее основе алгоритмы управления свободными вычислительными ресурсами могут быть обобщены и использованы в производственных отраслях, напрямую не связанных с компьютерными вычислениями.

С помощью разработанного комплекса появляется возможность управлять запуском вычислительных процессов на свободных сетевых узлах без использования дополнительного постоянно функционирующего программного обеспечения.

Апробация и внедрение результатов исследования.

Основные результаты работы были доложены и одобрены на:

• 14-й Всероссийской научно-методической конференции «Телематика 2007» (Санкт-Петербург);

• 35-й итоговой студенческой научной конференции (Ижевск, Удмуртский государственный университет, 2007);

• 6-й международной научно-методической конференции «Новые образовательные технологии в ВУЗе» (Екатеринбург, УГТУ-УПИ, 2008);

• 15-й Всероссийской научно-методической конференции «Телематика 2008» (Санкт-Петербург);

• международной конференции «Перспективы развития телекоммуникационных систем и информационные технологии» (Санкт-Петербург, СПбГПУ, 2008);

• Всероссийской научно-практической конференции «Информационные технологии в профессиональной деятельности и научной работе» (Йошкар-Ола, МарГТУ, 2009);

• международной конференции «Системы проектирования, технологической подготовки производства и управления этапами жизненного цикла промышленного продукта (CAD/CAM/PDM - 2009)» (Москва, ИПУ РАН);

• 2-й международной конференции «Трехмерная визуализация научной, технической и социальной реальности. Технологии высокополигонального моделирования» (Ижевск, УдГУ, 2010).

Разработанный в рамках диссертационной работы программно-аппаратный комплекс внедрен в эксплуатацию на факультете информационных технологий и вычислительной техники УдГУ и в производственной лаборатории НИИ «Высоких технологий» в г.Ижевске.

Получено свидетельство о государственной регистрации программы

для ЭВМ №2010613012 от 06.05.2010.

Структура работы.

Диссертация состоит из введения, четырех глав, заключения, библиографического списка и снабжена четырьмя приложениями.

Первая глава диссертации посвящена сравнению серверных платформ. В этой главе обосновывается выбор Активного каталога в реализации Microsoft Windows Server 2003 в качестве основной операционной системы.

Вторая глава диссертации посвящена разработке структуры базового домена и способам управления сегментами вычислительной сети.

Третья глава работы посвящена описанию предлагаемой математической модели управления свободными вычислительными ресурсами в созданной сети специального вида, разработке алгоритма поиска и выделения сво-

бодных ресурсов для решения вычислительных задач.

В четвертой главе диссертации описана программная реализация созданного алгоритма управления вычислительными ресурсами, а также приведены результаты внедрения разработанного программно-аппаратного комплекса в эксплуатацию.

В заключении формулируются основные полученные результаты и выводы диссертационной работы.

В приложении приводятся тексты программ и акты о внедрении разработанного программно-аппаратного комплекса в эксплуатацию. Приложение А представляет собой адаптированный вариант управляющего модуля, реализующего алгоритм поиска свободных вычислительных ресурсов в созданной сети. Приложение Б содержит код программы, позволяющей запускать вычислительные процессы на сетевых узлах при наличии физического соединения. Акты внедрения результатов диссертационной работы в ФГБОУ ВПО «УдГУ» и НИИ «Высоких технологий» приведены в приложениях В и Г соответственно.

Глава 1. Сравнение серверных платформ

Для сравнения были выбраны следующие серверные операционные системы: MS Windows Server 2003 Enterprise, Sun Solaris 10, Red Hat Enterprise Linux 5 Server. Сравнение указанных операционных систем (ОС) проводилось по следующим критериям:

1) реализация системы разрешения имён;

2) системы автоматического назначения адресов;

3) методы аутентификации и идентификации пользователей;

4) методы хранения объектов участников;

5) групповое управление участниками;

6) управление общими объектами;

7) методы восстановления ОС после сбоя.

Перейдем собственно к сравнению операционных систем.

1.1 Система разрешения имен

В качестве серверов DNS разные операционные системы используют схожие технологии, разница существует лишь в реализациях протоколов. Так Unix (здесь, а также далее под Unix системами подразумевается также и ОС Solaris, если о ней не сказано отдельно) системы используют пакет под названием BIND (Berkeley Internet Name Domain, до этого: Berkeley Internet Name Daemon) - это открытая и наиболее распространённая реализация DNS-сервера, обеспечивающая выполнение преобразования DNS-имени в ip-адрес и наоборот. BIND поддерживается организацией Internet Systems Consortium. В Unix этот сервер является стандартом, но имеются и альтернативы: PowerDNS, MyDNS - DNS-сервер, использующий MySQL.

Microsoft DNS Server входит в состав Серверных версий Windows, т.е. Microsoft пошли по своему пути, но отличий в принципах работы данных серверов обнаружить не удалось. Во всех случаях сервер DNS - это структурированная база данных, строки записей в которой разделены на поля с ip-адресом, значащим именем и типом каждой из записей. Перебирая данные записи, определяется возможное сопоставление имени и адреса.

1.2 Система автоматического назначения адресов

DHCP (Dynamic Host Configuration Protocol — протокол динамической конфигурации узла) - это сетевой протокол, позволяющий компьютерам автоматически получать ip-адрес и другие параметры, необходимые для работы в сети TCP/IP. Для этого компьютер обращается к специальному серверу, называемому сервером DHCP. Сетевой администратор может задать диапазон адресов, распределяемых среди компьютеров. Это позволяет избежать ручной настройки адресации, что уменьшает количество ошибок. Протокол DHCP используется в большинстве крупных сетей TCP/IP.

Корпорация Microsoft впервые включила сервер DHCP в поставку серверной версии Windows NT 3.5, выпущенной в 1994 году. Начиная с Windows 2000 Server, реализация DHCP-сервера от Microsoft позволяет динамически обновлять записи DNS, что используется в Active Directory.

Internet Systems Consortium выпустил первую версию ISC DHCP Server (для Unix-подобных систем) 6 декабря 1997 года. Sun добавила DHCP-сервер

в Solaris 8 в июле 2001 года.

Существует единый стандарт RFC 2131 - стандарт DHCP. Таким образом, в этом вопросе значимых различий между исследуемыми ОС нет. Во всех рассмотренных случаях взаимодействие сетевого узла и DHCP-сервера происходит по следующему алгоритму: используя специальный локатор сетевой службы DHCP сетевой узел через заданный порт обращается к DHCP-серверу, сервер выделяет для сетевого узла первый свободный адрес из наперед заданного диапазона (для определения того, свободен ли адрес используется механизм, подобный широковещанию - на все адреса из списка посылается запрос на встречный ответ, адрес, с которого ответ не пришел за заданное время, считается свободным) и передает его сетевому узлу с комплексом текущий настроек TCP/IP, таких как адрес шлюза, адреса DNS-серверов и т.д. В случае неодноранговых сетей, имеющих подсети, выбор подходящего диапазона адресов для сетевого узла определяется так называемым DHCP-ретранслятором, который устанавливается на ближайшем к сетевому узлу

шлюзе и настраивается на соответствующий диапазон. Несмотря на то, что большинство современных сетевых концентраторов самостоятельно поддерживают ретрансляцию DHCP, во всех рассмотренных операционных системах есть специальные службы, программно реализующие данную функцию. 1.3 Методы аутентификации/идентификации пользователей

Прежде чем сравнивать системы, остановимся непосредственно на понятиях аутентификация/идентификация.

Под идентификацией будем понимать проверку того, что участник безопасности (учетная запись пользователя, компьютера, службы) является

зарегистрированным в системе.

Под аутентификацией будем понимать проверку подлинности данного участника безопасности, т.е. подтверждение того, что такой участник действительно является тем, за кого себя выдает.

1.3.1 Windows Server 2003

Для обеспечения безопасности сетевого соединения в целом требуется

обеспечить безопасность двух важнейших процессов:

• процесса аутентификации при установке соединения;

• проце�