автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.11, диссертация на тему:Методы управления ресурсами в проблемно-ориентированных распределенных вычислительных средах

кандидата физико-математических наук
Шамакина, Анастасия Валерьевна
город
Челябинск
год
2014
специальность ВАК РФ
05.13.11
Автореферат по информатике, вычислительной технике и управлению на тему «Методы управления ресурсами в проблемно-ориентированных распределенных вычислительных средах»

Автореферат диссертации по теме "Методы управления ресурсами в проблемно-ориентированных распределенных вычислительных средах"

На правах рукописи

ШАМАКИНА Анастасия Валерьевна

МЕТОДЫ УПРАВЛЕНИЯ РЕСУРСАМИ В ПРОБЛЕМНО-ОРИЕНТИРОВАННЫХ РАСПРЕДЕЛЕННЫХ ВЫЧИСЛИТЕЛЬНЫХ СРЕДАХ

05.13.11 - математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей

Автореферат диссертации на соискание ученой степени кандидата физико-математических наук

005556782 11 дек гон

Челябинск - 2014

005556762

Работа выполнена на кафедре системного программирования ФГБОУ ВПО «Южно-Уральский государственный университет» (национальный исследовательский университет)

Научный руководитель: СОКОЛИНСКИЙ Леонид Борисович

доктор физ.-мат. наук, профессор, проректор по информатизации, ФГБОУ ВПО «ЮжноУральский государственный университет» (национальный исследовательский университет)

Официальные оппоненты: ВОЕВОДИН Владимир Валентинович

доктор физ.-мат. наук, член-корреспондент РАН, заместитель директора НИВЦ, ФГБОУ ВПО «Московский государственный университет имени М.В. Ломоносова»

СОЗЫКИН Андрей Владимирович кандидат техн. наук,

заведующий сектором суперкомпьютерных технологий, ФГБУН Институт математики и механики имени Н.Н. Красовского УрО РАН

Ведущая организация: ФГАОУ ВПО Санкт-Петербургский национальный

исследовательский университет информационных технологий, механики и оптики

Защита состоится 24 декабря 2014 г. в 14:00 часов на заседании диссертационного совета Д 212.298.18 при ФГБОУ ВПО «Южно-Уральский государственный университет» (национальный исследовательский университет) по адресу: 454080, г. Челябинск, пр. Ленина, 76, ауд. 1001.

С диссертацией можно ознакомиться в библиотеке Южно-Уральского государственного университета и на сайте:

http://susu.ac.ru/ru/dissertation/d-21229818/shamakina-anastasiya-valerevna.

Автореферат разослан " _2014 г.

Ученый секретарь /V, <- _

диссертационного совета М.Л. Цымблер

Общая характеристика работы

Актуальность темы. Развитие технологий распределенных вычислений в конце 1990-х годов позволило объединить географически-распределенные по всему миру гетерогенные ресурсы. Появились технические возможности для решения масштабных задач в области науки, техники и коммерции на территориально-распределенных ресурсах, принадлежащих разным владельцам. Исследования данной тематики привело к возникновению концепции грид вычислений, и затем к новой концепции облачных вычислений. Для раскрытия всех потенциальных возможностей использования распределенных вычислительных ресурсов принципиально важно наличие результативных и эффективных алгоритмов планирования, используемых менеджерами ресурсов.

В настоящее время перспективным является направление, связанное с применением распределенных вычислительных технологий для решения ресурсоемких научных задач в разных предметных областях: медицине, инженерном проектировании, нанотехнологиях, прогнозировании климата и др. Вычислительное задание в подобных предметных областях во многих случаях имеет потоковую структуру и может быть описано с помощью модели потока работ, в соответствии с которой задание представляется в виде ориентированного ациклического графа, узлами которого являются взаимосвязанные вычислительные задачи, а дуги соответствуют потокам данных, передаваемых между отдельными задачами. При этом набор задач, из которых строятся задания, является конечным и предопределенным. Проблемно-ориентированная специфика потоков работ в подобных сложных приложениях выражается в том, что в подавляющем большинстве случаев, еще до выполнения задания, для каждой задачи могут быть получены оценки таких качественных характеристик, как время выполнения задачи на одном процессорном ядре, пределы масштабируемости и объем генерируемых данных. Использование подобных знаний о специфике задач в конкретной проблемно-ориентированной области может существенно улучшить эффективность методов управления вычислительными ресурсами.

В соответствие с этим актуальной является задача разработки методов и алгоритмов управления ресурсами в проблемно-ориентированных распределенных вычислительных средах, учитывающих специфику предметной области, масштабируемость отдельных задач в задании и использующих возможность параллельного выполнения независимых задач.

Цель и задачи исследования. Цель данной работы состояла в разработке методов и алгоритмов распределения ресурсов и планирования заданий, учитывающих специфику проблемно-ориентированных распределенных вычислительных сред, а также в разработке на их основе брокера ресурсов, который может быть использован в распределенных вычислительных системах. Для достижения этой цели необходимо было решить следующие задачи:

1. Разработать формальные методы представления проблемно-ориентированных распределенных вычислительных сред.

2. Разработать проблемно-ориентированный алгоритм планирования ресурсов для заданий, представляемых в виде потока работ.

3. Разработать архитектуру и принципы структурной организации брокера ресурсов для проблемно-ориентированных распределенных вычислительных сред.

4. Реализовать брокер ресурсов и провести вычислительные эксперименты для исследования эффективности предложенных подходов.

Методы исследования. В исследованиях, проводимых в диссертационной работе, использован математический аппарат, в основе которого лежит теория множеств и теория графов. Для представления заданий использована модель потока работ. При разработке брокера ресурсов применялись методы объектно-ориентированного проектирования и язык UML.

Научная новизна работы заключается в следующем:

1. Разработана оригинальная математическая модель проблемно-ориентированной распределенной вычислительной среды.

2. Предложен новый алгоритм планирования ресурсов, учитывающий специфику проблемно-ориентированной распределенной вычислительной среды.

3. Разработан брокер ресурсов, ориентированный на работу в проблемно-ориентированных распределенных вычислительных средах.

Теоретическая ценность работы состоит в том, что в ней дано формальное описание методов и алгоритмов управления ресурсами в проблемно-ориентированных распределенных вычислительных средах, включающее в себя математические модели распределенной вычислительной системы и заданий с потоковой структурой.

Практическая ценность работы заключается в том, что на базе предложенных методов и алгоритмов разработан брокер ресурсов, позволяющий организовать эффективное использование ресурсов в проблемно-ориентированных распределенных вычислительных средах.

Апробация работы. Основные положения диссертационной работы, разработанные модели, методы, алгоритмы и результаты вычислительных экспериментов докладывались автором на следующих международных и всероссийских научных конференциях:

на Международной научной конференции ISC'2014 (22-26 июня 2014 г., Лейпциг, Германия);

на Международной научной конференции ISC'2013 (16-20 июня 2013 г., Лейпциг, Германия);

- на Международной научной конференции «Параллельные вычислительные технологии 2014» (1-3 апреля 2014 г., Ростов-на-Дону);

на Международной научной конференции «Параллельные вычислительные технологии 2010» (29 марта - 2 апреля 2010 г., Уфа);

на Всероссийской научной конференции «Научный сервис в сети Интернет 2009: масштабируемость, параллельность, эффективность» (21-26 сентября 2009 г., Новороссийск);

на Всероссийской научной конференции «Научный сервис в сети Интернет 2008: решение больших задач» (22-27 сентября 2008 г., Новороссийск).

Публикации. По теме диссертации опубликовано 15 печатных работ. Работы [1-5] опубликованы в журналах, включенных ВАК в перечень журналов, в которых должны быть опубликованы основные результаты диссертаций на соискание ученой степени доктора и кандидата наук. Работа [6] проиндексирована в библиографической базе данных Scopus. В статье [1] A.B. Шамакиной принадлежи- раздел 4, (стр. 100-102). В статье [3] A.B. Шамакиной принадлежит раздел «Расширение состава прикладных сервисов НРС-NASIS», (стр. 83). В статье [4] A.B. Шамакиной принадлежит раздел 3, (стр. 72-74). В работе [10] A.B. Шамакиной принадлежит раздел 3, (стр. 73). В работе [12] A.B. Шамакиной принадлежит раздел 2, (стр. 439). В работе [9] Л.Б. Соколинскому принадлежит постановка задачи, A.B. Шамакиной принадлежат все полученные результаты.

В рамках выполнения диссертационной работы получено 8 свидетельств Роспатента об официальной регистрации программ для ЭВМ и баз данных.

Структура н объем работы. Диссертация состоит из введения, четырех глав, заключения и библиографии. Объем диссертации составляет 106 страниц, объем библиографии — 107 наименований.

Содержание работы

Во введении приводится обоснование актуальности темы, формулируются цели работы, ее новизна и практическая значимость; приводится обзор работ по тематике исследования и кратко излагается содержание диссертации.

В первой главе, «Технологии распределенных вычислений», дается описание методов управления ресурсами в проблемно-ориентированных распределенных вычислительных средах. Рассматриваются современные подходы к планированию ресурсов. Дается общая классификация алгоритмов планирования. На рис. 1 представлена классификация алгоритмов планирования, основанная на наличии/отсутствии связей между задачами.

Рис. 1. Классификация алгоритмов планирования ресурсами.

Главная стратегия планирования независимых задач заключается в назначении независимых задач на ресурсы в зависимости от «к загрузки с целью обеспечения высокой пропускной способности вычислительной системы. Примерами статических алгоритмов с оценкой производительности являются: алгоритм минимального времени выполнения (МЕТ — Minimum Execution Time), алгоритм минимального времени завершения (МСТ — Minimum Completion Time), эвристики Min-Min и Max-Min, Suffrage и XSuffrage. Данные алгоритмы обычно используются для планирования заданий, которые состоят из множества независимых задач с большими модулями и интенсивными вычислениями.

В случае планирования задач, имеющих зависимости, задание обычно представляется в виде ориентированного ациклического графа, в котором каждая вершина представляет собой задачу, ориентированное ребро обозначает порядок приоритета между двумя вершинами. В некоторых случаях к вершинам и ребрам могут быть добавлены веса, показывающие вычислительную стоимость и коммуникационную стоимость соответственно. Важнейшей проблемой при планировании заданий с потоковой структурой является

нахождение компромисса между использованием максимального параллелизма задач в задании и минимизации коммуникационных задержек. Для решения данной проблемы были предложены три вида эвристических алгоритмов: эвристики списка; алгоритмы, базирующиеся на дублировании; алгоритмы кластеризации.

Планирование списком — это класс эвристик планирования, в котором задачам присваиваются приоритеты, задачи помещаются в список, упорядоченный по мере уменьшения величины приоритета. Решение о выборе задачи из списка для ее выполнения осуществляется на основе приоритета. Классическими примерами эвристик списка являются HEFT (Heterogeneous Eariiest-Finish-Time) и FCP (Fast Critical Path).

Алгоритмы, базирующиеся на дублировании, отличаются стратегиями выбора задач для дублирования. Первоначально, алгоритмы этой группы применялись для неограниченного числа идентичных процессоров, таких как многопроцессорные системы с распределенной памятью. Также они имеют более высокую сложность, чем алгоритмы, обсуждавшиеся выше. Алгоритмы, основанные на дублировании, в распределенных вычислительных средах имеют дело только с независимыми заданиями.

Основная идея алгоритмов кластеризации заключается в объединении взаимосвязанных задач в маркированные группы для дальнейшего их отображения на одну группу ресурсов. Примерами алгоритмов кластеризации являются алгоритмы KB/L, алгоритм Сар-кара и алгоритм DSC.

Во второй главе, «Планирование в проблемно-ориентированных средах», описывается новый проблемно-ориентированный алгоритм планирования ресурсов POS для заданий с потоковой структурой, ориентированный на распределенные вычислительные среды, формируемые на базе вычислительных кластеров с многоядерными ускорителями.

Граф задания определяется как размеченный взвешенный ориентированный ациклический граф С = (V,E,init, fin,6,у), где 7 — множество вершин, соответствующих задачам, Е — множество дуг, соответствующих потокам данных. Вес 5(e) дуги е определяет объем данных, который необходимо передать по дуге е от задачи, ассоциированной с вершиной init{e), к задаче, ассоциированной с вершиной finie). Метка

y(v) = (mv,t17) (1)

определяет максимальное количество процессорных ядер mv, на которых задача v имеет ускорение, близкое к линейному, и время £„ выполнения задачи v на одном ядре. Данная модель предполагает, что вычислительная стоимость xiVJv) задачи v на jv процессорных ядрах определяется следующей формулой:

= titTl^J^'' (2)

(.ty/пц,, еслиmv<jv. Вычислительный узел Р — это упорядоченное множество процессорных ядер {с0<..., Q-i}-Вычислительная система — это упорядоченное множество вычислительных узлов Ч* — №>< -. ífc-i}- Кластеризацией называется однозначное отображение а>: V -» ф множества вершин V графа задания G на множество вычислительных узлов ф. Пусть задана вычислительная система ф - {Р0,..., Pk_t}, состоящая из к узлов. Кластер Wt — это подмножество всех вершин, отображаемых на вычислительный узел P¡ Е ф:

Wt = {v е V I ш(у) = Р( 6 ф} . (3)

Пусть задан граф задания G - (V, Е, init, fin, S, у), для которого определена функция кластеризации ü)(v). Будем называть такой граф кластеризованным и обозначать как G — (V,E, init, fin, 6,у,ш). Определим функцию а\ Е -» вычисляющую коммуникационную стоимость (время) передачи данных по дуге е е Е, следующим образом: ГО, если ai (initie)) = w(/in(e));

~ 1<У(е), если w(init(e)) Ф co(fin(e)).

Пусть задан кластеризованный граф G = (V,E,init, fin, S,y,ùi). Расписание — это отображение f : V -> Жг0 х M, которое произвольной вершине v 6 V сопоставляет двойку чисел

fOO = (Т „;*), (5)

где г„ определяет время запуска задачи v, jv — количество процессорных ядер, выделяемых задаче v. Обозначим через s„ время останова задачи v. Имеем

=*v+x(v,jv), (6)

где х — функция временной сложности, определенная с помощью формулы (2). Расписание называется корректным, если оно удовлетворяет следующим условиям:

V е е Е (jftnM > тinitie) + x(init(e), jinme

V v е V (jp ^ тщ) ; (8)

Viel

Vi e[0,...,A —1]

(9)

Ярусно-параллелъной формой (ЯПФ) называется разбиение множества вершин V ориентированного ациклического графа С = (V,E,init, fin) на перенумерованные подмножества {ярусы) Lt (i = 1, ...,г), удовлетворяющие следующим свойствам:

i=I

V/ Ф j е {1.....г}(£.,п^. = 0); (Ю)

V(v„v2)e£'(V/5i ;е{ 1.....r}(v, eLlAv1eLJ =>i<j)).

Пусть в распланированном графе G~ (V, Е, init, fin, 5, у, м, <f) задан путь у = (е1,е2,...,еп). Стоимостью пути и(у) называется величина

где х — функция, определяемая формулой (2), значением которой является вычислительная стоимость вершины; а — функция, определяемая формулой (4), значением которой является коммуникационная стоимость дуги; jv и г„ определяется по формуле (5); определяется по формуле (6).

Пусть Y — множество всех путей в распланированном графе G — (V,E, init, fin, 8, у, со, О- Путь у е Y называется критическим, если

и(у) = maxufy) . (12)

' у£Г w

Разработанный в диссертационной работе новый алгоритм POS (Problem-Oriented Scheduling) планирования ресурсов для распределенных проблемно-ориентированных сред представляется в виде трехуровневой структуры процедур. Процедура первого уровня является головной. Шаг процедуры первого уровня может представлять собой вызов процедуры второго уровня. Такой шаг выделяется полужирным шрифтом. Аналогичный подход может быть применен в описании шагов процедур второго уровня. Пусть задана вычислительная система в виде упорядоченного множества вычислительных узлов: <Р = {Р0,Пусть имеется граф задания G = (V,Е,init,fin,8,у). Пусть выполняются следующие условия:

И* ДО; (И)

УуеГ(у/'бф(/и1,<|/,|)), (14)

где — порог линейной масштабируемости, задаваемый функцией разметки у. Зададим для графа С разбиение в каноническую ЯПФ с ярусами ^ (I — 1,..., г). Пронумеруем вершины V — {г*!,..., Vграфа С таким образом, чтобы выполнялось следующее свойство:

V/,./ е{1,...,<?}{(у,луу е/гла<б)=>;< у), (15)

то есть на нижних ярусах располагаются вершины с большими номерами. Головная процедура:

Шаг 1. Построить начальную конфигурацию С0;

Шаг 2.1 ■■= 0;

ШагЗ. Построить конфигурацию С(+

Шаг 4. Если остались нерассмотренные дуги, I — I + 1 и перейти на шаг 3; Шаг 5. Уплотнить конфигурацию Шаг 6. Стоп.

Процедура построения начальной конфигурации Со: Шаг 1.1. Зададим функцию начальной кластеризации ш0 следующим образом:

= (16) Шаг 1.2. Зададим начальное расписание £0(у) = (гу,у„) : определим время запуска т„ итерационно по уровням ЯПФ:

Ууе^Дг^О);

:=max(A(v',v'))

v eZ, ;

Здесь

(17)

Му-у) = ГеСШ,{"'У)*Е'' (18)

[s,, + a((v', v')), если (v', v*) e E\ где Sj вычисляется по формуле (6). Определим количество ядер /„, выделяемых вершине v, следующим образом:

VveK(j„ = mv). (19)

Шаг 1.3. С0 := (V,E,init,fin,S,y,ù)0,Ç0); Шаг 1.4. Конец процедуры.

Утверждение. Расписание (0, построенное в приведенной процедуре, является корректным.

Определим субкритический путь, как путь, Имеющий максимальную стоимость среди всех путей, содержащих хотя бы одну нерассмотренную дугу.

Процедура построения конфигурации Gi+i: Шаг 3.1. Найти в субкритический путь у, = (е,,...,е„) (если таких путей несколько,

выбрать любой из них); Шаг 3.2. Найти первую от начала пути нерассмотренную дугу е; (1 < j < п) в у, и пометить ее как рассмотренную; Шаг 3.3. Если i = 0, то пометить вершину init(e() как зафиксированную;

Шаг 3.4. Если вершины init(e]) и зафиксированы, то перейти на шаг 3.14;

Шаг 3.5. Если вершина fin(et) не зафиксирована, то v" := /ш(еДу':=/ш7(еу); Шаг 3.6. Если вершина init(eу) не зафиксирована, то v":=m//(ey),v':= fin(e^) \ Шаг 3.7. Построить функцию кластеризации , отличающуюся от функции о,

только в одном значении. £y1+,(v") := 0,(v'); Шаг 3.8. Построить расписание ; Шаг 3.9. Gi+1:= <V,E,init,fin,S,y,wi+uZi+1)

Шаг ЗЛО. Нанта критический путь у1 в G, (если таких путей несколько выбрать любой из них);

Шаг 3.11. Найти критический путь ум в GM (если таких путей несколько выбрать

любой из них); Шаг 3.12. Если u{yIH)<u(yJ, то перейти на шаг 3.16; Шаг 3.13. Gi+1-.= Gi

Шаг 3.14. Если в у, остались нерассмотренные дуги, перейти на шаг 3.2; Шаг 3.15. Если в G; остались нерассмотренные дуги, перейти на шаг 3.1. Шаг 3.16. Конец процедуры.

Введем следующие обозначения: Т(х) — номер яруса, которому принадлежит вершинах; = {v | v g F,&> (v) = at{x)} —кластер, которому принадлежит вершина х.

Процедура построения расписания ¿¡¡ и~-Шаг3.8.1. ^^„ni,,,,;

Шаг 3.8.2. Если R = 0 или < Р J то перейти на шаг 3.8.7;

veR

Шаг3.8.3. Для h = q,...,T(fm{ej)) +1 выполнить LM :=/,,,; Шаг 3.8.4. Ьр^ун := {v"} Шаг 3.8.5. ^(v-, := L,.^ \ {v"}; Шаг3.8.6. q:=q +1;

Шаг 3.8.7. Построить новое расписание путем вычисления времени запуска т„ всех

вершин v е V с помощью формулы (17); Шаг 3.8.8. Пометить вершину v" как зафиксированную; Шаг 3.8.9. Конец процедуры.

В третьей главе, «Реализация брокера ресурсов для проблемно-ориентированных сред», описывается процесс проектирования и реализации программной системы DiVTB Broker, представляющей собой брокер ресурсов для проблемно-ориентированных распределенных вычислительных сред. На рис. 2 приведены варианты использования брокера ресурсов. DiVTB Server представляет собой программный компонент, взаимодействующий с брокером ресурсов. DiVTB Broker отвечает за исполнение заданий и их мониторинг в системе DiVTB. Брокер ресурсов допускает вызов с помощью веб-методов и может быть использован веб-сервисами. DiVTB Collector представляет собой вспомогательный программный компонент, взаимодействующий с брокером ресурсов. Он осуществляет сбор информации о вычислительных ресурсах в распределенной вычислительной среде.

^lubiyrte*»

^^ Л____«tatwte* ... .y^" ^ ^

BMjKJWib ресурсы Галюмп резервирование

«Include» J^

—V_______У::::::;.......__

Ооободть ресурсы Сито реэермрмнмс

•intiud«»

~C_J) 1.......

Получите статус Обновмть стяпктигу по заданию

_f

4 - _ Получить стаж ресурсов Mihwii ии>орми|»о о рсорш

DIVIS Colector

Рис. 2. Диаграмма вариантов использования DiVTB Broker.

о DIVr» Broker

[ ДЬи^аддиныхстагасписи -1.._8м<иадж«р

-дПлмиромцмк потоке prtOT,

- : Кие денных ресурсов

L..1_________i_

н Мтаджер ресурса»

а МУТИ CoBectoc

Рис. 3. Архитектура брокера ресурсов DiVTB Broker.

Согласно представленной на рис. 2 диаграмме вариантов использования была разработана архитектура DiVTB Broker, изображенная на рис. 3. DiVTB Broker состоит из следующих компонентов. Мастер принимает запросы от DiVTB Server и создает экземпляр планировщика потока задач, представляющий собой WS-pecypc в терминах UNICORE. Экземпляр планировщика потока задач осуществляет обработку одного запроса, формирует список требуемых для исполнения задания ресурсов и производит их резервирование. Менеджер ресурсов управляет базой данных ресурсов, содержащей информацию о целевых системах и резервировании ресурсов. Менеджер статистики управляет базой данных статистики, содержащей информацию о статистике выполнения задач. Коллектор работает независимо от DiVTB Broker и осуществляет сбор информации для базы данных ресурсов. Для всех основных функций строятся диаграммы последовательности UML, с помощью которых описываются принципы работы брокера ресурсов DiVTB Broker. DiVTB Broker был реализован на языке Java. Брокер ресурсов представляет собой сервис для платформы UNICORE. Исходные тексты брокера ресурсов свободно доступны в сети Интернет по адресу: https:№itbucket.org/shamakina/pos.

В четвертой главе, «Вычислительные эксперименты», приводятся результаты вычислительных экспериментов по исследованию алгоритма POS, разработанного в диссертационной работе. Используются следующие два класса заданий. Класс МКО (многокритериальная оптимизация) представляет вычислительные задания по многокритериальной оптимизации, составляющие большой процент загрузки современных суперкомпьютерных и распределенных вычислительных систем. Класс СЗ (случайные задания) представляет случайные задания с различным числом вершин и дуг. В классе СЗ выделены следующие три группы заданий (здесь Т — среднее время выполнения задачи на одном ядре, А — средний вес дуги).

1. Ml — сбалансированные графы заданий, у которых Т/А е (0.8,1.2).

2. М2 — крупнозернистые графы заданий, у которых Г/Де (3,10).

3. М 3—мелкозернистые графы заданий, у которых Г/Де (0.1,0.3). Эффективность алгоритма TOS исследовалась в сравнении с двумя известными алгоритмами планирования: DSC и Min-Min. В экспериментах варьировались высота I и ширина w графа. Результаты'представлены в табл. 1-3. Для сравнения алгоритма POS с алгоритмами

DSC и Min-Min вычислялась относительная эффективность Tdsc -

среднее время выполнения задания для алгоритма DSC, Т — время выполнения задания алгоритмом DSC или Min-Min соответственно. Во всех случаях алгоритм POS, разработанный в диссертационной работе, демонстрирует существенное ускорение времени выполнения задания по сравнению с алгоритмами DSC и Min-Min. При этом алгоритм POS существенно превосходит DSC по плотности получаемого расписания и показывает результаты, сравнимые по этому показателю с алгоритмом Min-Min.

Табл. 1. Сравнение алгоритмов TOS, DSC и Min-Min для группы Ml.

№ п/п 1 w W\ \Е\ Количество задействованных вычислительных узлов Относительная эффективность

POS DSC MinMin POS/DSC POS/MinMin

1 5 10-20 51 126 7 21 4 73,57% 88,72%

2 10 10-20 117 296 4 36 4 72,76% 89,51%

3 10 20-30 211 505 16 68 6 73,45% 88,04%

4 20 5-10 137 252 2 46 2 90,18% 94,36%

Соеднее значение 77,49% 90,16%

Табл. 2. Сравнение алгоритмов TOS, DSC и Min-Min для группы М2.

№ п/п 1 w W\ Количество задействованных вычислительных узлов Относительная эффективность

TOS DSC MinMin POS/DSC POS/MinMin

1 5 10-20 49 113 3 25 4 85,00% 82,35%

2 10 10-20 130 390 12 42 4 79,14% 60,16%

3 10 20-30 206 464 17 73 6 75,32% 71,14%

4 20 5-10 141 290 13 41 2 79,14% 32,17%

Среднее значение 79,65% 61,46%

№ п/п 1 w 14 \Е\ Количество задействованных вычислительных узлов Относительная эффективность

POS DSC MinMin POS/DSC POS/MinMin

1 5 10-20 59 190 4 21 4 77,80% 92,40%

2 10 10-20 123 378 3 34 4 79,55% 97,64%

3 10 20-30 201 453 9 61 6 51,36% 90,72%

4 20 5-10 133 287 2 29 2 68,04% 87,31%

Среднее значение 69,19% 92,02%

В заключении суммируются основные результаты диссертационной работы, выносимые на защиту, приводятся данные о публикациях и апробациях автора по теме диссертации, и рассматриваются направления дальнейших исследований в данной области.

Основные результаты диссертационной работы

На защиту выносятся следующие новые научные результаты.

1. Разработаны формальные методы представления проблемно-ориентированных распределенных вычислительных сред.

2. Разработан проблемно-ориентированный алгоритм планирования ресурсов POS для заданий с потоковой структурой.

3. Разработан брокер ресурсов DiVTB для проблемно-ориентированных распределенных вычислительных сред, реализующий алгоритм планирования POS.

4. Проведены вычислительные эксперименты, подтверждающие эффективность предложенных подходов.

Публикации по теме диссертации

Статьи в журналах из перечня ВАК

1. Радченко ГЛ., Соколинский Л.Б., Шамакина A.B. Модели и методы профилирования и оценки времени выполнения потоков работ в суперкомпьютерных системах // Вычислительные методы и программирование: Новые вычислительные технологии. 2013. Т. 14, Вып. 4. С. 96-103.

2. Шамакина A.B. CAEBeans Broker: брокер ресурсов системы CAEBeans // Вестник ЮУрГУ. Серия «Математическое моделирование и программирование». 2010. № 16(192). С. 107-115.

3. Бухановский A.B., Марьин C.B., Князьков К.В., Сиднее A.A., Жабин C H., Баглий А.П., Штейнберг Р.Б., Шамакина A.B., Воеводин Вад.В., Головченко E.H., Фалалеев Р.Т., Духанов A.B., Тарасов A.A., Шамардин Л.В., Моисеенко АЛ. Результаты реализации проекта «Мобильность молодых ученых» в 2010 году: развитие функциональных элементов технологии IPSE и расширение состава прикладных сервисов // Известия высших учебных заведений. Приборостроение. 2011. Т. 54, Ки 10. С. 80-86.

4. Московский A.A., Перминов М.П., Соколинский Л.Б., Черепенников В.В., Шамакина A.B. Исследование производительности суперкомпьютеров семейства «СКИФ Аврора» на

индустриальных задачах // Вестник ЮУрГУ. Серия «Математическое моделирование программирование». 2010. № 35(211). С. 66-78.

5. Шамакина A.B. Организация брокера ресурсов в системе CAEBeans // Вестник Южно Уральского государственного университета. Серия «Математическое моделирование программирование». 2008. № 27(127). Вып. 2. С. 110-116.

Статья, индексированная в SCOPUS

6. Shamakina A. Brokering Service for Supporting Problem-Oriented Grid Environments // UNICORE Summit 2012 Proceedings, Forschungszentrum Jülich, 2012. P. 67-75.

Статьи в изданиях, индексируемых в РИНЦ

7. Шамакина A.B. Обзор технологий распределенных вычислений // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2014. Т. 3, № 3. С. 51-85.

8. Шамакина A.B. Брокер ресурсов для поддержки проблемно-ориентированных сред // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2012. №46(305). Вып. 1. С. 88-98.

9. Шамакина A.B., Соколинский Л.Б. Формальная модель задания в распределенных вычислительных средах // Параллельные вычислительные технологии (ПаВТ'2014): труды международной научной конференции (1-3 апреля 2014 г., г. Ростов-на-Дону). Челябинск: Издательский центр ЮУрГУ, 2014. С. 343-354.

10. Московский A.A., Перминов М.П., Соколинский Л.Б., Черепенников В.В., Шамакина A.B. Опыт использования суперкомпьютера "СКИФ Аврора" для решения научно-технических задач // Параллельные вычислительные технологии (ПаВТ2010): Труды международной научной конференции (Уфа, 29 марта - 2 апреля 2010 г.). Челябинск: Издательский центр ЮУрГУ, 2010. С. 258-267.

11. Шамакина A.B. CAEBeans Broker: брокер ресурсов системы CAEBeans // Параллельные вычислительные технологии (ПаВТ'2010): Труды международной научной конференции (Уфа, 29 марта - 2 апреля 2010 г.). Челябинск: Издательский центр ЮУрГУ, 2010. С. 643-650.

Другие публикации

12. Шамакина A.B. Алгоритм планирования ресурсов POS для распределенных проблемно-ориентированных сред // Научный сервис в сети Интернет: многообразие суперкомпьютерных миров: Труды Международной суперкомпьютерной конференции (22-27 сентября 2014 г., Новороссийск). М.: Изд-во МГУ, 2014. С 124-136.

13. Шамакина A.B. Протокол взаимодействия с брокером ресурсов в системе CAEBeans // Научный сервис в сети Интернет: масштабируемость, параллельность, эффективность: Труды Всероссийской научной конференции (21-26 сентября 2009 г., Новорос сийск). М.: Изд-во МГУ, 2009. С. 400-402.

14. Шамакина A.B. Организация брокера ресурсов в системе CAEBEANS // Научный сер вис в сети Интернет: решение больших задач: Труды Всероссийской научной конференции (22-27 сентября 2008 г., Новороссийск). М.: Изд-во МГУ, 2008. С. 326-327.

Свидетельства о регистрации программ и баз данных

15. Шамакина A.B. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «RaVIS Broker» № 2011610338 от 11.01.2011, правообладатели: ИПС им. А.К. Айламазяна РАН, ГОУ ВПО «ЮУрГУ».

16. Юрков В.В., Дорохов В.А., Радченко Г.И., Насибулина P.C., Шамакина A.B. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «CAEBeans Toolbox: программная среда для разработки проблемно-ориентированных оболочек для грид» № 2008614485 от 03.10.2008, правообладатель: ГОУ ВПО «ЮУрГУ».

17. Юрков В.В., Дорохов В.А., Радченко Г.И., Насибулина P.C., Шамакина A.B. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «CAEBeans Sphere: программное средство для поддержки распределенных вычислительных сред на базе платформы Microsofl.NET» № 2008614486 от 03.10.2008, правообладатель: ГОУ ВПО «ЮУрГУ».

18. Радченко Г.И., Насибулина P.C., Шамакина A.B., Юрков В. В., Федянин О.Н., Дорохов В. А. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «Пакет проблемно-ориентированных оболочек CAEBeans для решения типовых инженерных задач» № 2008611898 от 04.05.2008, правообладатель: ГОУ ВПО «ЮУрГУ».

19. Радченко Г.И., Шамакина A.B., Худякова Е.С., Репина К.В., Захаров Е.А. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиогра-фический ресурс «Проблемно-ориентированные грид-сервисы в распределенных вычислительных средах» № 2013620973 от 22.08.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).

20. Радченко Г.И., Шамакина A.B., Худякова ЕС., РепинаК.В. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиографический ресурс «Распределенная обработка данных и облачные вычислительные среды»

№ 2013621019 от 27.08.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).

21. Соколинский Л.Б., Радченко Г.И., Шамакина A.B. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиографический ресурс «Грид-технологии» № 2013620033 от 09.01.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).

22. Соколинский Л.Б., Радченко Г.И., Шамакина A.B. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиографический ресурс «Суперкомпьютерные технологии» Кз 2013620032 от 09.01.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).

Работа выполнялась при финансовой поддержке Минобрнауки РФ в рамках ФЦП «Исследования и разработки по приоритетным направлениям развития научно-технологического комплекса России на 2014-2020 годы» (гос. контракт № 14.574.21.0035). 14

Подписано в печать «23» октября 2014 г. Формат 60x84 1/16. Бумага офсетная. Печать офсетная. Усл. печ. л. 1,0. Уч.-изд. л. 1,2. Тираж 100 экз.

Типография «Фотохудожник» 454111, г. Челябинск, ул. Свободы, 155/1

\

--15-