автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.11, диссертация на тему:Методы управления ресурсами в проблемно-ориентированных распределенных вычислительных средах
Автореферат диссертации по теме "Методы управления ресурсами в проблемно-ориентированных распределенных вычислительных средах"
На правах рукописи
ШАМАКИНА Анастасия Валерьевна
МЕТОДЫ УПРАВЛЕНИЯ РЕСУРСАМИ В ПРОБЛЕМНО-ОРИЕНТИРОВАННЫХ РАСПРЕДЕЛЕННЫХ ВЫЧИСЛИТЕЛЬНЫХ СРЕДАХ
05.13.11 - математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей
Автореферат диссертации на соискание ученой степени кандидата физико-математических наук
005556782 11 дек гон
Челябинск - 2014
005556762
Работа выполнена на кафедре системного программирования ФГБОУ ВПО «Южно-Уральский государственный университет» (национальный исследовательский университет)
Научный руководитель: СОКОЛИНСКИЙ Леонид Борисович
доктор физ.-мат. наук, профессор, проректор по информатизации, ФГБОУ ВПО «ЮжноУральский государственный университет» (национальный исследовательский университет)
Официальные оппоненты: ВОЕВОДИН Владимир Валентинович
доктор физ.-мат. наук, член-корреспондент РАН, заместитель директора НИВЦ, ФГБОУ ВПО «Московский государственный университет имени М.В. Ломоносова»
СОЗЫКИН Андрей Владимирович кандидат техн. наук,
заведующий сектором суперкомпьютерных технологий, ФГБУН Институт математики и механики имени Н.Н. Красовского УрО РАН
Ведущая организация: ФГАОУ ВПО Санкт-Петербургский национальный
исследовательский университет информационных технологий, механики и оптики
Защита состоится 24 декабря 2014 г. в 14:00 часов на заседании диссертационного совета Д 212.298.18 при ФГБОУ ВПО «Южно-Уральский государственный университет» (национальный исследовательский университет) по адресу: 454080, г. Челябинск, пр. Ленина, 76, ауд. 1001.
С диссертацией можно ознакомиться в библиотеке Южно-Уральского государственного университета и на сайте:
http://susu.ac.ru/ru/dissertation/d-21229818/shamakina-anastasiya-valerevna.
Автореферат разослан " _2014 г.
Ученый секретарь /V, <- _
диссертационного совета М.Л. Цымблер
Общая характеристика работы
Актуальность темы. Развитие технологий распределенных вычислений в конце 1990-х годов позволило объединить географически-распределенные по всему миру гетерогенные ресурсы. Появились технические возможности для решения масштабных задач в области науки, техники и коммерции на территориально-распределенных ресурсах, принадлежащих разным владельцам. Исследования данной тематики привело к возникновению концепции грид вычислений, и затем к новой концепции облачных вычислений. Для раскрытия всех потенциальных возможностей использования распределенных вычислительных ресурсов принципиально важно наличие результативных и эффективных алгоритмов планирования, используемых менеджерами ресурсов.
В настоящее время перспективным является направление, связанное с применением распределенных вычислительных технологий для решения ресурсоемких научных задач в разных предметных областях: медицине, инженерном проектировании, нанотехнологиях, прогнозировании климата и др. Вычислительное задание в подобных предметных областях во многих случаях имеет потоковую структуру и может быть описано с помощью модели потока работ, в соответствии с которой задание представляется в виде ориентированного ациклического графа, узлами которого являются взаимосвязанные вычислительные задачи, а дуги соответствуют потокам данных, передаваемых между отдельными задачами. При этом набор задач, из которых строятся задания, является конечным и предопределенным. Проблемно-ориентированная специфика потоков работ в подобных сложных приложениях выражается в том, что в подавляющем большинстве случаев, еще до выполнения задания, для каждой задачи могут быть получены оценки таких качественных характеристик, как время выполнения задачи на одном процессорном ядре, пределы масштабируемости и объем генерируемых данных. Использование подобных знаний о специфике задач в конкретной проблемно-ориентированной области может существенно улучшить эффективность методов управления вычислительными ресурсами.
В соответствие с этим актуальной является задача разработки методов и алгоритмов управления ресурсами в проблемно-ориентированных распределенных вычислительных средах, учитывающих специфику предметной области, масштабируемость отдельных задач в задании и использующих возможность параллельного выполнения независимых задач.
Цель и задачи исследования. Цель данной работы состояла в разработке методов и алгоритмов распределения ресурсов и планирования заданий, учитывающих специфику проблемно-ориентированных распределенных вычислительных сред, а также в разработке на их основе брокера ресурсов, который может быть использован в распределенных вычислительных системах. Для достижения этой цели необходимо было решить следующие задачи:
1. Разработать формальные методы представления проблемно-ориентированных распределенных вычислительных сред.
2. Разработать проблемно-ориентированный алгоритм планирования ресурсов для заданий, представляемых в виде потока работ.
3. Разработать архитектуру и принципы структурной организации брокера ресурсов для проблемно-ориентированных распределенных вычислительных сред.
4. Реализовать брокер ресурсов и провести вычислительные эксперименты для исследования эффективности предложенных подходов.
Методы исследования. В исследованиях, проводимых в диссертационной работе, использован математический аппарат, в основе которого лежит теория множеств и теория графов. Для представления заданий использована модель потока работ. При разработке брокера ресурсов применялись методы объектно-ориентированного проектирования и язык UML.
Научная новизна работы заключается в следующем:
1. Разработана оригинальная математическая модель проблемно-ориентированной распределенной вычислительной среды.
2. Предложен новый алгоритм планирования ресурсов, учитывающий специфику проблемно-ориентированной распределенной вычислительной среды.
3. Разработан брокер ресурсов, ориентированный на работу в проблемно-ориентированных распределенных вычислительных средах.
Теоретическая ценность работы состоит в том, что в ней дано формальное описание методов и алгоритмов управления ресурсами в проблемно-ориентированных распределенных вычислительных средах, включающее в себя математические модели распределенной вычислительной системы и заданий с потоковой структурой.
Практическая ценность работы заключается в том, что на базе предложенных методов и алгоритмов разработан брокер ресурсов, позволяющий организовать эффективное использование ресурсов в проблемно-ориентированных распределенных вычислительных средах.
Апробация работы. Основные положения диссертационной работы, разработанные модели, методы, алгоритмы и результаты вычислительных экспериментов докладывались автором на следующих международных и всероссийских научных конференциях:
на Международной научной конференции ISC'2014 (22-26 июня 2014 г., Лейпциг, Германия);
на Международной научной конференции ISC'2013 (16-20 июня 2013 г., Лейпциг, Германия);
- на Международной научной конференции «Параллельные вычислительные технологии 2014» (1-3 апреля 2014 г., Ростов-на-Дону);
на Международной научной конференции «Параллельные вычислительные технологии 2010» (29 марта - 2 апреля 2010 г., Уфа);
на Всероссийской научной конференции «Научный сервис в сети Интернет 2009: масштабируемость, параллельность, эффективность» (21-26 сентября 2009 г., Новороссийск);
на Всероссийской научной конференции «Научный сервис в сети Интернет 2008: решение больших задач» (22-27 сентября 2008 г., Новороссийск).
Публикации. По теме диссертации опубликовано 15 печатных работ. Работы [1-5] опубликованы в журналах, включенных ВАК в перечень журналов, в которых должны быть опубликованы основные результаты диссертаций на соискание ученой степени доктора и кандидата наук. Работа [6] проиндексирована в библиографической базе данных Scopus. В статье [1] A.B. Шамакиной принадлежи- раздел 4, (стр. 100-102). В статье [3] A.B. Шамакиной принадлежит раздел «Расширение состава прикладных сервисов НРС-NASIS», (стр. 83). В статье [4] A.B. Шамакиной принадлежит раздел 3, (стр. 72-74). В работе [10] A.B. Шамакиной принадлежит раздел 3, (стр. 73). В работе [12] A.B. Шамакиной принадлежит раздел 2, (стр. 439). В работе [9] Л.Б. Соколинскому принадлежит постановка задачи, A.B. Шамакиной принадлежат все полученные результаты.
В рамках выполнения диссертационной работы получено 8 свидетельств Роспатента об официальной регистрации программ для ЭВМ и баз данных.
Структура н объем работы. Диссертация состоит из введения, четырех глав, заключения и библиографии. Объем диссертации составляет 106 страниц, объем библиографии — 107 наименований.
Содержание работы
Во введении приводится обоснование актуальности темы, формулируются цели работы, ее новизна и практическая значимость; приводится обзор работ по тематике исследования и кратко излагается содержание диссертации.
В первой главе, «Технологии распределенных вычислений», дается описание методов управления ресурсами в проблемно-ориентированных распределенных вычислительных средах. Рассматриваются современные подходы к планированию ресурсов. Дается общая классификация алгоритмов планирования. На рис. 1 представлена классификация алгоритмов планирования, основанная на наличии/отсутствии связей между задачами.
Рис. 1. Классификация алгоритмов планирования ресурсами.
Главная стратегия планирования независимых задач заключается в назначении независимых задач на ресурсы в зависимости от «к загрузки с целью обеспечения высокой пропускной способности вычислительной системы. Примерами статических алгоритмов с оценкой производительности являются: алгоритм минимального времени выполнения (МЕТ — Minimum Execution Time), алгоритм минимального времени завершения (МСТ — Minimum Completion Time), эвристики Min-Min и Max-Min, Suffrage и XSuffrage. Данные алгоритмы обычно используются для планирования заданий, которые состоят из множества независимых задач с большими модулями и интенсивными вычислениями.
В случае планирования задач, имеющих зависимости, задание обычно представляется в виде ориентированного ациклического графа, в котором каждая вершина представляет собой задачу, ориентированное ребро обозначает порядок приоритета между двумя вершинами. В некоторых случаях к вершинам и ребрам могут быть добавлены веса, показывающие вычислительную стоимость и коммуникационную стоимость соответственно. Важнейшей проблемой при планировании заданий с потоковой структурой является
нахождение компромисса между использованием максимального параллелизма задач в задании и минимизации коммуникационных задержек. Для решения данной проблемы были предложены три вида эвристических алгоритмов: эвристики списка; алгоритмы, базирующиеся на дублировании; алгоритмы кластеризации.
Планирование списком — это класс эвристик планирования, в котором задачам присваиваются приоритеты, задачи помещаются в список, упорядоченный по мере уменьшения величины приоритета. Решение о выборе задачи из списка для ее выполнения осуществляется на основе приоритета. Классическими примерами эвристик списка являются HEFT (Heterogeneous Eariiest-Finish-Time) и FCP (Fast Critical Path).
Алгоритмы, базирующиеся на дублировании, отличаются стратегиями выбора задач для дублирования. Первоначально, алгоритмы этой группы применялись для неограниченного числа идентичных процессоров, таких как многопроцессорные системы с распределенной памятью. Также они имеют более высокую сложность, чем алгоритмы, обсуждавшиеся выше. Алгоритмы, основанные на дублировании, в распределенных вычислительных средах имеют дело только с независимыми заданиями.
Основная идея алгоритмов кластеризации заключается в объединении взаимосвязанных задач в маркированные группы для дальнейшего их отображения на одну группу ресурсов. Примерами алгоритмов кластеризации являются алгоритмы KB/L, алгоритм Сар-кара и алгоритм DSC.
Во второй главе, «Планирование в проблемно-ориентированных средах», описывается новый проблемно-ориентированный алгоритм планирования ресурсов POS для заданий с потоковой структурой, ориентированный на распределенные вычислительные среды, формируемые на базе вычислительных кластеров с многоядерными ускорителями.
Граф задания определяется как размеченный взвешенный ориентированный ациклический граф С = (V,E,init, fin,6,у), где 7 — множество вершин, соответствующих задачам, Е — множество дуг, соответствующих потокам данных. Вес 5(e) дуги е определяет объем данных, который необходимо передать по дуге е от задачи, ассоциированной с вершиной init{e), к задаче, ассоциированной с вершиной finie). Метка
y(v) = (mv,t17) (1)
определяет максимальное количество процессорных ядер mv, на которых задача v имеет ускорение, близкое к линейному, и время £„ выполнения задачи v на одном ядре. Данная модель предполагает, что вычислительная стоимость xiVJv) задачи v на jv процессорных ядрах определяется следующей формулой:
= titTl^J^'' (2)
(.ty/пц,, еслиmv<jv. Вычислительный узел Р — это упорядоченное множество процессорных ядер {с0<..., Q-i}-Вычислительная система — это упорядоченное множество вычислительных узлов Ч* — №>< -. ífc-i}- Кластеризацией называется однозначное отображение а>: V -» ф множества вершин V графа задания G на множество вычислительных узлов ф. Пусть задана вычислительная система ф - {Р0,..., Pk_t}, состоящая из к узлов. Кластер Wt — это подмножество всех вершин, отображаемых на вычислительный узел P¡ Е ф:
Wt = {v е V I ш(у) = Р( 6 ф} . (3)
Пусть задан граф задания G - (V, Е, init, fin, S, у), для которого определена функция кластеризации ü)(v). Будем называть такой граф кластеризованным и обозначать как G — (V,E, init, fin, 6,у,ш). Определим функцию а\ Е -» вычисляющую коммуникационную стоимость (время) передачи данных по дуге е е Е, следующим образом: ГО, если ai (initie)) = w(/in(e));
~ 1<У(е), если w(init(e)) Ф co(fin(e)).
Пусть задан кластеризованный граф G = (V,E,init, fin, S,y,ùi). Расписание — это отображение f : V -> Жг0 х M, которое произвольной вершине v 6 V сопоставляет двойку чисел
fOO = (Т „;*), (5)
где г„ определяет время запуска задачи v, jv — количество процессорных ядер, выделяемых задаче v. Обозначим через s„ время останова задачи v. Имеем
=*v+x(v,jv), (6)
где х — функция временной сложности, определенная с помощью формулы (2). Расписание называется корректным, если оно удовлетворяет следующим условиям:
V е е Е (jftnM > тinitie) + x(init(e), jinme
V v е V (jp ^ тщ) ; (8)
Viel
Vi e[0,...,A —1]
(9)
Ярусно-параллелъной формой (ЯПФ) называется разбиение множества вершин V ориентированного ациклического графа С = (V,E,init, fin) на перенумерованные подмножества {ярусы) Lt (i = 1, ...,г), удовлетворяющие следующим свойствам:
i=I
V/ Ф j е {1.....г}(£.,п^. = 0); (Ю)
V(v„v2)e£'(V/5i ;е{ 1.....r}(v, eLlAv1eLJ =>i<j)).
Пусть в распланированном графе G~ (V, Е, init, fin, 5, у, м, <f) задан путь у = (е1,е2,...,еп). Стоимостью пути и(у) называется величина
где х — функция, определяемая формулой (2), значением которой является вычислительная стоимость вершины; а — функция, определяемая формулой (4), значением которой является коммуникационная стоимость дуги; jv и г„ определяется по формуле (5); определяется по формуле (6).
Пусть Y — множество всех путей в распланированном графе G — (V,E, init, fin, 8, у, со, О- Путь у е Y называется критическим, если
и(у) = maxufy) . (12)
' у£Г w
Разработанный в диссертационной работе новый алгоритм POS (Problem-Oriented Scheduling) планирования ресурсов для распределенных проблемно-ориентированных сред представляется в виде трехуровневой структуры процедур. Процедура первого уровня является головной. Шаг процедуры первого уровня может представлять собой вызов процедуры второго уровня. Такой шаг выделяется полужирным шрифтом. Аналогичный подход может быть применен в описании шагов процедур второго уровня. Пусть задана вычислительная система в виде упорядоченного множества вычислительных узлов: <Р = {Р0,Пусть имеется граф задания G = (V,Е,init,fin,8,у). Пусть выполняются следующие условия:
И* ДО; (И)
УуеГ(у/'бф(/и1,<|/,|)), (14)
где — порог линейной масштабируемости, задаваемый функцией разметки у. Зададим для графа С разбиение в каноническую ЯПФ с ярусами ^ (I — 1,..., г). Пронумеруем вершины V — {г*!,..., Vграфа С таким образом, чтобы выполнялось следующее свойство:
V/,./ е{1,...,<?}{(у,луу е/гла<б)=>;< у), (15)
то есть на нижних ярусах располагаются вершины с большими номерами. Головная процедура:
Шаг 1. Построить начальную конфигурацию С0;
Шаг 2.1 ■■= 0;
ШагЗ. Построить конфигурацию С(+
Шаг 4. Если остались нерассмотренные дуги, I — I + 1 и перейти на шаг 3; Шаг 5. Уплотнить конфигурацию Шаг 6. Стоп.
Процедура построения начальной конфигурации Со: Шаг 1.1. Зададим функцию начальной кластеризации ш0 следующим образом:
= (16) Шаг 1.2. Зададим начальное расписание £0(у) = (гу,у„) : определим время запуска т„ итерационно по уровням ЯПФ:
Ууе^Дг^О);
:=max(A(v',v'))
v eZ, ;
Здесь
(17)
Му-у) = ГеСШ,{"'У)*Е'' (18)
[s,, + a((v', v')), если (v', v*) e E\ где Sj вычисляется по формуле (6). Определим количество ядер /„, выделяемых вершине v, следующим образом:
VveK(j„ = mv). (19)
Шаг 1.3. С0 := (V,E,init,fin,S,y,ù)0,Ç0); Шаг 1.4. Конец процедуры.
Утверждение. Расписание (0, построенное в приведенной процедуре, является корректным.
Определим субкритический путь, как путь, Имеющий максимальную стоимость среди всех путей, содержащих хотя бы одну нерассмотренную дугу.
Процедура построения конфигурации Gi+i: Шаг 3.1. Найти в субкритический путь у, = (е,,...,е„) (если таких путей несколько,
выбрать любой из них); Шаг 3.2. Найти первую от начала пути нерассмотренную дугу е; (1 < j < п) в у, и пометить ее как рассмотренную; Шаг 3.3. Если i = 0, то пометить вершину init(e() как зафиксированную;
Шаг 3.4. Если вершины init(e]) и зафиксированы, то перейти на шаг 3.14;
Шаг 3.5. Если вершина fin(et) не зафиксирована, то v" := /ш(еДу':=/ш7(еу); Шаг 3.6. Если вершина init(eу) не зафиксирована, то v":=m//(ey),v':= fin(e^) \ Шаг 3.7. Построить функцию кластеризации , отличающуюся от функции о,
только в одном значении. £y1+,(v") := 0,(v'); Шаг 3.8. Построить расписание ; Шаг 3.9. Gi+1:= <V,E,init,fin,S,y,wi+uZi+1)
Шаг ЗЛО. Нанта критический путь у1 в G, (если таких путей несколько выбрать любой из них);
Шаг 3.11. Найти критический путь ум в GM (если таких путей несколько выбрать
любой из них); Шаг 3.12. Если u{yIH)<u(yJ, то перейти на шаг 3.16; Шаг 3.13. Gi+1-.= Gi
Шаг 3.14. Если в у, остались нерассмотренные дуги, перейти на шаг 3.2; Шаг 3.15. Если в G; остались нерассмотренные дуги, перейти на шаг 3.1. Шаг 3.16. Конец процедуры.
Введем следующие обозначения: Т(х) — номер яруса, которому принадлежит вершинах; = {v | v g F,&> (v) = at{x)} —кластер, которому принадлежит вершина х.
Процедура построения расписания ¿¡¡ и~-Шаг3.8.1. ^^„ni,,,,;
Шаг 3.8.2. Если R = 0 или < Р J то перейти на шаг 3.8.7;
veR
Шаг3.8.3. Для h = q,...,T(fm{ej)) +1 выполнить LM :=/,,,; Шаг 3.8.4. Ьр^ун := {v"} Шаг 3.8.5. ^(v-, := L,.^ \ {v"}; Шаг3.8.6. q:=q +1;
Шаг 3.8.7. Построить новое расписание путем вычисления времени запуска т„ всех
вершин v е V с помощью формулы (17); Шаг 3.8.8. Пометить вершину v" как зафиксированную; Шаг 3.8.9. Конец процедуры.
В третьей главе, «Реализация брокера ресурсов для проблемно-ориентированных сред», описывается процесс проектирования и реализации программной системы DiVTB Broker, представляющей собой брокер ресурсов для проблемно-ориентированных распределенных вычислительных сред. На рис. 2 приведены варианты использования брокера ресурсов. DiVTB Server представляет собой программный компонент, взаимодействующий с брокером ресурсов. DiVTB Broker отвечает за исполнение заданий и их мониторинг в системе DiVTB. Брокер ресурсов допускает вызов с помощью веб-методов и может быть использован веб-сервисами. DiVTB Collector представляет собой вспомогательный программный компонент, взаимодействующий с брокером ресурсов. Он осуществляет сбор информации о вычислительных ресурсах в распределенной вычислительной среде.
^lubiyrte*»
^^ Л____«tatwte* ... .y^" ^ ^
BMjKJWib ресурсы Галюмп резервирование
«Include» J^
—V_______У::::::;.......__
Ооободть ресурсы Сито реэермрмнмс
•intiud«»
~C_J) 1.......
Получите статус Обновмть стяпктигу по заданию
_f
4 - _ Получить стаж ресурсов Mihwii ии>орми|»о о рсорш
DIVIS Colector
Рис. 2. Диаграмма вариантов использования DiVTB Broker.
о DIVr» Broker
[ ДЬи^аддиныхстагасписи -1.._8м<иадж«р
-дПлмиромцмк потоке prtOT,
- : Кие денных ресурсов
L..1_________i_
н Мтаджер ресурса»
а МУТИ CoBectoc
Рис. 3. Архитектура брокера ресурсов DiVTB Broker.
Согласно представленной на рис. 2 диаграмме вариантов использования была разработана архитектура DiVTB Broker, изображенная на рис. 3. DiVTB Broker состоит из следующих компонентов. Мастер принимает запросы от DiVTB Server и создает экземпляр планировщика потока задач, представляющий собой WS-pecypc в терминах UNICORE. Экземпляр планировщика потока задач осуществляет обработку одного запроса, формирует список требуемых для исполнения задания ресурсов и производит их резервирование. Менеджер ресурсов управляет базой данных ресурсов, содержащей информацию о целевых системах и резервировании ресурсов. Менеджер статистики управляет базой данных статистики, содержащей информацию о статистике выполнения задач. Коллектор работает независимо от DiVTB Broker и осуществляет сбор информации для базы данных ресурсов. Для всех основных функций строятся диаграммы последовательности UML, с помощью которых описываются принципы работы брокера ресурсов DiVTB Broker. DiVTB Broker был реализован на языке Java. Брокер ресурсов представляет собой сервис для платформы UNICORE. Исходные тексты брокера ресурсов свободно доступны в сети Интернет по адресу: https:№itbucket.org/shamakina/pos.
В четвертой главе, «Вычислительные эксперименты», приводятся результаты вычислительных экспериментов по исследованию алгоритма POS, разработанного в диссертационной работе. Используются следующие два класса заданий. Класс МКО (многокритериальная оптимизация) представляет вычислительные задания по многокритериальной оптимизации, составляющие большой процент загрузки современных суперкомпьютерных и распределенных вычислительных систем. Класс СЗ (случайные задания) представляет случайные задания с различным числом вершин и дуг. В классе СЗ выделены следующие три группы заданий (здесь Т — среднее время выполнения задачи на одном ядре, А — средний вес дуги).
1. Ml — сбалансированные графы заданий, у которых Т/А е (0.8,1.2).
2. М2 — крупнозернистые графы заданий, у которых Г/Де (3,10).
3. М 3—мелкозернистые графы заданий, у которых Г/Де (0.1,0.3). Эффективность алгоритма TOS исследовалась в сравнении с двумя известными алгоритмами планирования: DSC и Min-Min. В экспериментах варьировались высота I и ширина w графа. Результаты'представлены в табл. 1-3. Для сравнения алгоритма POS с алгоритмами
DSC и Min-Min вычислялась относительная эффективность Tdsc -
среднее время выполнения задания для алгоритма DSC, Т — время выполнения задания алгоритмом DSC или Min-Min соответственно. Во всех случаях алгоритм POS, разработанный в диссертационной работе, демонстрирует существенное ускорение времени выполнения задания по сравнению с алгоритмами DSC и Min-Min. При этом алгоритм POS существенно превосходит DSC по плотности получаемого расписания и показывает результаты, сравнимые по этому показателю с алгоритмом Min-Min.
Табл. 1. Сравнение алгоритмов TOS, DSC и Min-Min для группы Ml.
№ п/п 1 w W\ \Е\ Количество задействованных вычислительных узлов Относительная эффективность
POS DSC MinMin POS/DSC POS/MinMin
1 5 10-20 51 126 7 21 4 73,57% 88,72%
2 10 10-20 117 296 4 36 4 72,76% 89,51%
3 10 20-30 211 505 16 68 6 73,45% 88,04%
4 20 5-10 137 252 2 46 2 90,18% 94,36%
Соеднее значение 77,49% 90,16%
Табл. 2. Сравнение алгоритмов TOS, DSC и Min-Min для группы М2.
№ п/п 1 w W\ Количество задействованных вычислительных узлов Относительная эффективность
TOS DSC MinMin POS/DSC POS/MinMin
1 5 10-20 49 113 3 25 4 85,00% 82,35%
2 10 10-20 130 390 12 42 4 79,14% 60,16%
3 10 20-30 206 464 17 73 6 75,32% 71,14%
4 20 5-10 141 290 13 41 2 79,14% 32,17%
Среднее значение 79,65% 61,46%
№ п/п 1 w 14 \Е\ Количество задействованных вычислительных узлов Относительная эффективность
POS DSC MinMin POS/DSC POS/MinMin
1 5 10-20 59 190 4 21 4 77,80% 92,40%
2 10 10-20 123 378 3 34 4 79,55% 97,64%
3 10 20-30 201 453 9 61 6 51,36% 90,72%
4 20 5-10 133 287 2 29 2 68,04% 87,31%
Среднее значение 69,19% 92,02%
В заключении суммируются основные результаты диссертационной работы, выносимые на защиту, приводятся данные о публикациях и апробациях автора по теме диссертации, и рассматриваются направления дальнейших исследований в данной области.
Основные результаты диссертационной работы
На защиту выносятся следующие новые научные результаты.
1. Разработаны формальные методы представления проблемно-ориентированных распределенных вычислительных сред.
2. Разработан проблемно-ориентированный алгоритм планирования ресурсов POS для заданий с потоковой структурой.
3. Разработан брокер ресурсов DiVTB для проблемно-ориентированных распределенных вычислительных сред, реализующий алгоритм планирования POS.
4. Проведены вычислительные эксперименты, подтверждающие эффективность предложенных подходов.
Публикации по теме диссертации
Статьи в журналах из перечня ВАК
1. Радченко ГЛ., Соколинский Л.Б., Шамакина A.B. Модели и методы профилирования и оценки времени выполнения потоков работ в суперкомпьютерных системах // Вычислительные методы и программирование: Новые вычислительные технологии. 2013. Т. 14, Вып. 4. С. 96-103.
2. Шамакина A.B. CAEBeans Broker: брокер ресурсов системы CAEBeans // Вестник ЮУрГУ. Серия «Математическое моделирование и программирование». 2010. № 16(192). С. 107-115.
3. Бухановский A.B., Марьин C.B., Князьков К.В., Сиднее A.A., Жабин C H., Баглий А.П., Штейнберг Р.Б., Шамакина A.B., Воеводин Вад.В., Головченко E.H., Фалалеев Р.Т., Духанов A.B., Тарасов A.A., Шамардин Л.В., Моисеенко АЛ. Результаты реализации проекта «Мобильность молодых ученых» в 2010 году: развитие функциональных элементов технологии IPSE и расширение состава прикладных сервисов // Известия высших учебных заведений. Приборостроение. 2011. Т. 54, Ки 10. С. 80-86.
4. Московский A.A., Перминов М.П., Соколинский Л.Б., Черепенников В.В., Шамакина A.B. Исследование производительности суперкомпьютеров семейства «СКИФ Аврора» на
индустриальных задачах // Вестник ЮУрГУ. Серия «Математическое моделирование программирование». 2010. № 35(211). С. 66-78.
5. Шамакина A.B. Организация брокера ресурсов в системе CAEBeans // Вестник Южно Уральского государственного университета. Серия «Математическое моделирование программирование». 2008. № 27(127). Вып. 2. С. 110-116.
Статья, индексированная в SCOPUS
6. Shamakina A. Brokering Service for Supporting Problem-Oriented Grid Environments // UNICORE Summit 2012 Proceedings, Forschungszentrum Jülich, 2012. P. 67-75.
Статьи в изданиях, индексируемых в РИНЦ
7. Шамакина A.B. Обзор технологий распределенных вычислений // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2014. Т. 3, № 3. С. 51-85.
8. Шамакина A.B. Брокер ресурсов для поддержки проблемно-ориентированных сред // Вестник ЮУрГУ. Серия «Вычислительная математика и информатика». 2012. №46(305). Вып. 1. С. 88-98.
9. Шамакина A.B., Соколинский Л.Б. Формальная модель задания в распределенных вычислительных средах // Параллельные вычислительные технологии (ПаВТ'2014): труды международной научной конференции (1-3 апреля 2014 г., г. Ростов-на-Дону). Челябинск: Издательский центр ЮУрГУ, 2014. С. 343-354.
10. Московский A.A., Перминов М.П., Соколинский Л.Б., Черепенников В.В., Шамакина A.B. Опыт использования суперкомпьютера "СКИФ Аврора" для решения научно-технических задач // Параллельные вычислительные технологии (ПаВТ2010): Труды международной научной конференции (Уфа, 29 марта - 2 апреля 2010 г.). Челябинск: Издательский центр ЮУрГУ, 2010. С. 258-267.
11. Шамакина A.B. CAEBeans Broker: брокер ресурсов системы CAEBeans // Параллельные вычислительные технологии (ПаВТ'2010): Труды международной научной конференции (Уфа, 29 марта - 2 апреля 2010 г.). Челябинск: Издательский центр ЮУрГУ, 2010. С. 643-650.
Другие публикации
12. Шамакина A.B. Алгоритм планирования ресурсов POS для распределенных проблемно-ориентированных сред // Научный сервис в сети Интернет: многообразие суперкомпьютерных миров: Труды Международной суперкомпьютерной конференции (22-27 сентября 2014 г., Новороссийск). М.: Изд-во МГУ, 2014. С 124-136.
13. Шамакина A.B. Протокол взаимодействия с брокером ресурсов в системе CAEBeans // Научный сервис в сети Интернет: масштабируемость, параллельность, эффективность: Труды Всероссийской научной конференции (21-26 сентября 2009 г., Новорос сийск). М.: Изд-во МГУ, 2009. С. 400-402.
14. Шамакина A.B. Организация брокера ресурсов в системе CAEBEANS // Научный сер вис в сети Интернет: решение больших задач: Труды Всероссийской научной конференции (22-27 сентября 2008 г., Новороссийск). М.: Изд-во МГУ, 2008. С. 326-327.
Свидетельства о регистрации программ и баз данных
15. Шамакина A.B. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «RaVIS Broker» № 2011610338 от 11.01.2011, правообладатели: ИПС им. А.К. Айламазяна РАН, ГОУ ВПО «ЮУрГУ».
16. Юрков В.В., Дорохов В.А., Радченко Г.И., Насибулина P.C., Шамакина A.B. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «CAEBeans Toolbox: программная среда для разработки проблемно-ориентированных оболочек для грид» № 2008614485 от 03.10.2008, правообладатель: ГОУ ВПО «ЮУрГУ».
17. Юрков В.В., Дорохов В.А., Радченко Г.И., Насибулина P.C., Шамакина A.B. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «CAEBeans Sphere: программное средство для поддержки распределенных вычислительных сред на базе платформы Microsofl.NET» № 2008614486 от 03.10.2008, правообладатель: ГОУ ВПО «ЮУрГУ».
18. Радченко Г.И., Насибулина P.C., Шамакина A.B., Юрков В. В., Федянин О.Н., Дорохов В. А. Свидетельство Роспатента о государственной регистрации программы для ЭВМ «Пакет проблемно-ориентированных оболочек CAEBeans для решения типовых инженерных задач» № 2008611898 от 04.05.2008, правообладатель: ГОУ ВПО «ЮУрГУ».
19. Радченко Г.И., Шамакина A.B., Худякова Е.С., Репина К.В., Захаров Е.А. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиогра-фический ресурс «Проблемно-ориентированные грид-сервисы в распределенных вычислительных средах» № 2013620973 от 22.08.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).
20. Радченко Г.И., Шамакина A.B., Худякова ЕС., РепинаК.В. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиографический ресурс «Распределенная обработка данных и облачные вычислительные среды»
№ 2013621019 от 27.08.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).
21. Соколинский Л.Б., Радченко Г.И., Шамакина A.B. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиографический ресурс «Грид-технологии» № 2013620033 от 09.01.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).
22. Соколинский Л.Б., Радченко Г.И., Шамакина A.B. Свидетельство Роспатента о государственной регистрации базы данных «Справочно-библиографический ресурс «Суперкомпьютерные технологии» Кз 2013620032 от 09.01.2013, правообладатель: ФГБОУ ВПО «ЮУрГУ» (НИУ).
Работа выполнялась при финансовой поддержке Минобрнауки РФ в рамках ФЦП «Исследования и разработки по приоритетным направлениям развития научно-технологического комплекса России на 2014-2020 годы» (гос. контракт № 14.574.21.0035). 14
Подписано в печать «23» октября 2014 г. Формат 60x84 1/16. Бумага офсетная. Печать офсетная. Усл. печ. л. 1,0. Уч.-изд. л. 1,2. Тираж 100 экз.
Типография «Фотохудожник» 454111, г. Челябинск, ул. Свободы, 155/1
\
--15-
-
Похожие работы
- Управление потоками заданий в распределенных неоднородных вычислительных средах
- Разработка распределенной информационно-алгоритмической среды для решения декомпозируемых вычислительных задач
- Разработка и исследование моделей планирования и оперативного управления вычислительным процессом АСУП
- Методы и средства программирования софт-архитектур для реконфигурируемых вычислительных систем
- Управление потоками заданий в распределенных неоднородных вычислительных средах
-
- Системный анализ, управление и обработка информации (по отраслям)
- Теория систем, теория автоматического регулирования и управления, системный анализ
- Элементы и устройства вычислительной техники и систем управления
- Автоматизация и управление технологическими процессами и производствами (по отраслям)
- Автоматизация технологических процессов и производств (в том числе по отраслям)
- Управление в биологических и медицинских системах (включая применения вычислительной техники)
- Управление в социальных и экономических системах
- Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей
- Системы автоматизации проектирования (по отраслям)
- Телекоммуникационные системы и компьютерные сети
- Системы обработки информации и управления
- Вычислительные машины и системы
- Применение вычислительной техники, математического моделирования и математических методов в научных исследованиях (по отраслям наук)
- Теоретические основы информатики
- Математическое моделирование, численные методы и комплексы программ
- Методы и системы защиты информации, информационная безопасность